Connect with us

Noticias

Google y OpenAI lideran la creación de vídeos con IA generativa

Published

on

Los gigantes tecnológicos ahora están compitiendo para llevar al mercado sus modelos de video con IA generativa. Google (NASDAQ: GOOGL) presentó recientemente Veo, su IA de video generativo, a un grupo selecto de probadores beta, mostrando sus capacidades a través de una serie de demostraciones. Casi al mismo tiempo, OpenAI anunció el próximo lanzamiento de Sora, su propio producto de vídeo generativo, como parte de una campaña promocional denominada “Los 12 días de OpenAI”.

Esto fue inesperado por parte de OpenAI, ya que el equipo suspendió recientemente a Sora después de que un grupo de artistas descontentos en su programa de acceso temprano se quejaran de la forma en que OpenAI los estaba tratando.

El vídeo generativo parece ser una de las últimas fronteras en la innovación en IA (por ahora). Si bien los modelos de texto a texto y de texto a imagen se han vuelto comunes, el de texto a video ha seguido siendo difícil de alcanzar, hasta ahora. Los jugadores dominantes en IA, incluidos OpenAI, Google y otros, han mantenido sus capacidades de video cerca de sus pechos durante años, provocando su existencia pero sin ponerlas a disposición de manera generalizada. Sin embargo, la era de la IA de texto a vídeo parece estar en el horizonte. Aunque por el momento sólo está disponible para un grupo selecto de usuarios, Google ha publicado varios ejemplos de VEO en acción.

Con su lanzamiento, la IA de vídeo generativo reducirá los costos de producción y acelerará la creación multimedia, lo que se extenderá a las industrias creativas, de marketing y de publicidad. Las empresas y los particulares podrán generar vídeos personalizados de alta calidad en cuestión de minutos sin necesidad de equipos costosos ni habilidades técnicas.

Pero al mismo tiempo, se crearán nuevos vectores de ataque gracias a este último avance en IA; Tener herramientas de video generativo de fácil acceso y uso probablemente conducirá a la proliferación de deepfakes, grabaciones de video, imágenes o audio manipuladas que parecen auténticas pero que han sido alteradas mediante inteligencia artificial, generalmente para que alguien parezca decir o hacer algo que nunca lo hice. Este es un tema que se vuelve cada vez más problemático a medida que los modelos se vuelven más avanzados y más capaces.

¿El primer perdedor de la IA? El CEO de Intel dimite

Esta semana, el director ejecutivo de Intel (NASDAQ: INTC), Pat Gelsinger, anunció su renuncia después de tres años en el cargo. Las transiciones de liderazgo en las empresas que cotizan en bolsa a menudo surgen de la insatisfacción de los accionistas, y la salida de Gelsinger parece haber sido catalizada por inversores descontentos.

Frank Yeary, presidente independiente de la junta directiva de Intel, comentó: “Si bien hemos logrado avances significativos en la recuperación de la competitividad en la fabricación y en la creación de capacidades para ser una fundición de clase mundial, sabemos que tenemos mucho más trabajo por hacer en la empresa y estamos comprometidos a restaurar la confianza de los inversores”. Esta declaración destaca y confirma la insatisfacción entre los inversores, particularmente porque las acciones de Intel han caído un 61% desde que Gelsinger asumió el control, en comparación con el aumento del 820% de su competidor NVIDIA (NASDAQ: NVDA) durante el mismo período.

Si bien es fácil culpar al liderazgo, la raíz de los problemas de Intel podría estar más allá de la sala de juntas. Cuando ChatGPT abrió las compuertas de la adopción de la IA por parte de los consumidores a finales de 2022, la demanda de chips avanzados aumentó. La mayoría de los fabricantes de chips prosperaron a medida que los proveedores de servicios de IA y los fabricantes de hardware competían por conseguir GPU especializadas y chips avanzados esenciales para impulsar los centros de datos y los productos de IA. Sin embargo, Intel tuvo dificultades para capitalizar esta ola, en gran parte porque continuó especializándose y ofreciendo CPU tradicionales en lugar de los chips avanzados que dominan el mercado actual.

Desafortunadamente para Intel, el mercado ha evolucionado más allá de la necesidad de CPU básicas, incluso la mayoría de las computadoras han pasado a GPU y otros chips más potentes.

Incluso cuando el mercado cambió, la decisión de Intel de seguir con tecnologías más antiguas fue claramente un error costoso para la empresa. El llamado de la junta a un nuevo liderazgo refleja el deseo de un cambio, pero, en mi opinión, en este punto, puede ser un poco irreal creer que Intel pueda alcanzar a NVIDIA y otros competidores que se han establecido firmemente como líderes en el sector. Mercado de chips impulsado por IA.

Se intensifica la batalla por la IA entre Estados Unidos y China

La administración Biden ha intensificado sus esfuerzos para frustrar la innovación en inteligencia artificial de China con nuevas restricciones dirigidas al acceso del país a tecnologías avanzadas que ayudarían en la investigación y el desarrollo de productos de inteligencia artificial. Estas nuevas medidas no sólo amplían las prohibiciones existentes sobre chips, herramientas y propiedad intelectual de IA derivados de Estados Unidos, sino que también incluyen disposiciones que impiden que las empresas japonesas y holandesas suministren tecnologías clave a empresas chinas. Además, el gobierno de Estados Unidos ha añadido 140 entidades chinas a su lista negra, aislando aún más al sector de chips de China de los recursos globales.

China tomó represalias prohibiendo la exportación de materiales críticos como galio, germanio y diamantes sintéticos, que Estados Unidos utiliza con frecuencia para diversas aplicaciones militares y de inteligencia artificial. Aunque China citó preocupaciones de seguridad nacional para estas medidas, la medida se considera ampliamente como una respuesta a las políticas estadounidenses para sofocar su avance tecnológico.

La rivalidad entre las dos naciones va más allá de las políticas comerciales. Tanto Estados Unidos como China compiten por el dominio en el panorama de la IA. Cada nación quiere ser vista como una fuerza tecnológicamente superior en lo que respecta a la investigación, la innovación y las aplicaciones de la IA. Siempre es una carrera reñida entre estos dos países: Estados Unidos es actualmente el líder mundial en inteligencia artificial, mientras que China ocupa el segundo lugar. Esta dinámica es una de las razones por las que Estados Unidos trabaja continuamente para mantener su ventaja limitando el acceso de China a recursos críticos.

Es probable que estas limitaciones empeoren en las próximas semanas, ya que se espera que la administración de Donald Trump favorezca medidas políticas más estrictas contra China y otras naciones extranjeras.

Para que la inteligencia artificial (IA) funcione dentro de la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema blockchain empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que le permitirá mantener los datos seguros y al mismo tiempo garantizar la inmutabilidad. de datos. Consulte la cobertura de CoinGeek sobre esta tecnología emergente para obtener más información Por qué la cadena de bloques empresarial será la columna vertebral de la IA.

Ver: Posibilidades de desbloqueo de Blockchain e IA

title=”Reproductor de vídeo de YouTube” frameborder=”0″ permitir=”acelerómetro; reproducción automática; escritura en portapapeles; medios cifrados; giroscopio; imagen en imagen; compartir web” referrerpolicy=”origen-estricto-cuando-cruz- origen” permitir pantalla completa>

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

LlamaV-o1 es el modelo de IA que explica su proceso de pensamiento: he aquí por qué es importante

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Investigadores de la Universidad de Inteligencia Artificial Mohamed bin Zayed (MBZUAI) han anunciado el lanzamiento de LlamaV-o1, un modelo de inteligencia artificial de última generación capaz de abordar algunas de las tareas de razonamiento más complejas en texto e imágenes.

Al combinar el aprendizaje curricular de vanguardia con técnicas de optimización avanzadas como Beam Search, LlamaV-o1 establece un nuevo punto de referencia para el razonamiento paso a paso en sistemas de IA multimodales.

“El razonamiento es una capacidad fundamental para resolver problemas complejos de varios pasos, particularmente en contextos visuales donde la comprensión secuencial por pasos es esencial”, escribieron los investigadores en su informe técnico, publicado hoy. El modelo de IA, optimizado para tareas de razonamiento que requieren precisión y transparencia, supera a muchos de sus pares en tareas que van desde la interpretación de gráficos financieros hasta el diagnóstico de imágenes médicas.

Junto con el modelo, el equipo también presentó VRC-Bench, un punto de referencia diseñado para evaluar los modelos de IA en función de su capacidad para razonar problemas paso a paso. Con más de 1000 muestras diversas y más de 4000 pasos de razonamiento, VRC-Bench ya está siendo aclamado como un punto de inflexión en la investigación de IA multimodal.

LlamaV-o1 supera a competidores como Claude 3.5 Sonnet y Gemini 1.5 Flash en la identificación de patrones y el razonamiento a través de tareas visuales complejas, como se demuestra en este ejemplo del banco de pruebas VRC-Bench. El modelo proporciona explicaciones paso a paso, llegando a la respuesta correcta, mientras que otros modelos no logran coincidir con el patrón establecido. (crédito: arxiv.org)

Cómo se diferencia LlamaV-o1 de la competencia

Los modelos tradicionales de IA a menudo se centran en ofrecer una respuesta final, ofreciendo poca información sobre cómo llegaron a sus conclusiones. LlamaV-o1, sin embargo, enfatiza el razonamiento paso a paso, una capacidad que imita la resolución de problemas humana. Este enfoque permite a los usuarios ver los pasos lógicos que sigue el modelo, lo que lo hace particularmente valioso para aplicaciones donde la interpretabilidad es esencial.

Los investigadores entrenaron LlamaV-o1 utilizando LLaVA-CoT-100k, un conjunto de datos optimizado para tareas de razonamiento, y evaluaron su rendimiento utilizando VRC-Bench. Los resultados son impresionantes: LlamaV-o1 logró una puntuación de pasos de razonamiento de 68,93, superando a modelos de código abierto conocidos como LlaVA-CoT (66,21) e incluso a algunos modelos de código cerrado como Claude 3.5 Sonnet.

“Al aprovechar la eficiencia de Beam Search junto con la estructura progresiva del aprendizaje curricular, el modelo propuesto adquiere habilidades de manera incremental, comenzando con tareas más simples como [a] resumen del enfoque y subtítulos derivados de preguntas y avance a escenarios de razonamiento de varios pasos más complejos, asegurando tanto una inferencia optimizada como capacidades de razonamiento sólidas”, explicaron los investigadores.

El enfoque metódico del modelo también lo hace más rápido que sus competidores. “LlamaV-o1 ofrece una ganancia absoluta del 3,8% en términos de puntuación promedio en seis puntos de referencia y, al mismo tiempo, es 5 veces más rápido durante el escalado de inferencia”, señaló el equipo en su informe. Una eficiencia como esta es un punto de venta clave para las empresas que buscan implementar soluciones de IA a escala.

IA para empresas: por qué es importante el razonamiento paso a paso

El énfasis de LlamaV-o1 en la interpretabilidad aborda una necesidad crítica en industrias como las finanzas, la medicina y la educación. Para las empresas, la capacidad de rastrear los pasos detrás de la decisión de una IA puede generar confianza y garantizar el cumplimiento de las regulaciones.

Tomemos como ejemplo las imágenes médicas. Un radiólogo que utiliza IA para analizar exploraciones no solo necesita el diagnóstico: necesita saber cómo la IA llegó a esa conclusión. Aquí es donde brilla LlamaV-o1, que proporciona un razonamiento transparente paso a paso que los profesionales pueden revisar y validar.

El modelo también destaca en campos como la comprensión de gráficos y diagramas, que son vitales para el análisis financiero y la toma de decisiones. En las pruebas realizadas en VRC-Bench, LlamaV-o1 superó consistentemente a sus competidores en tareas que requerían interpretación de datos visuales complejos.

Pero el modelo no es sólo para aplicaciones de alto riesgo. Su versatilidad lo hace adecuado para una amplia gama de tareas, desde generación de contenido hasta agentes conversacionales. Los investigadores ajustaron específicamente LlamaV-o1 para que sobresaliera en escenarios del mundo real, aprovechando Beam Search para optimizar las rutas de razonamiento y mejorar la eficiencia computacional.

Beam Search permite que el modelo genere múltiples rutas de razonamiento en paralelo y seleccione la más lógica. Este enfoque no solo aumenta la precisión sino que también reduce el costo computacional de ejecutar el modelo, lo que lo convierte en una opción atractiva para empresas de todos los tamaños.

LlamaV-o1 destaca en diversas tareas de razonamiento, incluido el razonamiento visual, el análisis científico y las imágenes médicas, como se muestra en este ejemplo del banco de pruebas VRC-Bench. Sus explicaciones paso a paso brindan resultados interpretables y precisos, superando a los competidores en tareas como comprensión de gráficos, análisis del contexto cultural y percepción visual compleja. (crédito: arxiv.org)

Qué significa VRC-Bench para el futuro de la IA

El lanzamiento de VRC-Bench es tan importante como el modelo en sí. A diferencia de los puntos de referencia tradicionales que se centran únicamente en la precisión de la respuesta final, VRC-Bench evalúa la calidad de los pasos de razonamiento individuales, ofreciendo una evaluación más matizada de las capacidades de un modelo de IA.

“La mayoría de los puntos de referencia se centran principalmente en la precisión de la tarea final, descuidando la calidad de los pasos intermedios de razonamiento”, explicaron los investigadores. “[VRC-Bench] presenta un conjunto diverso de desafíos con ocho categorías diferentes que van desde la percepción visual compleja hasta el razonamiento científico con más de [4,000] pasos de razonamiento en total, lo que permite una evaluación sólida de las capacidades de los LLM para realizar un razonamiento visual preciso e interpretable en múltiples pasos”.

Este enfoque en el razonamiento paso a paso es particularmente crítico en campos como la investigación científica y la educación, donde el proceso detrás de una solución puede ser tan importante como la solución misma. Al enfatizar la coherencia lógica, VRC-Bench fomenta el desarrollo de modelos que puedan manejar la complejidad y ambigüedad de las tareas del mundo real.

El desempeño de LlamaV-o1 en VRC-Bench dice mucho sobre su potencial. En promedio, el modelo obtuvo una puntuación del 67,33% en puntos de referencia como MathVista y AI2D, superando a otros modelos de código abierto como Llava-CoT (63,50%). Estos resultados posicionan a LlamaV-o1 como líder en el espacio de la IA de código abierto, reduciendo la brecha con modelos propietarios como GPT-4o, que obtuvo una puntuación del 71,8%.

La próxima frontera de la IA: razonamiento multimodal interpretable

Si bien LlamaV-o1 representa un gran avance, no está exento de limitaciones. Como todos los modelos de IA, está limitado por la calidad de sus datos de entrenamiento y puede tener problemas con indicaciones altamente técnicas o conflictivas. Los investigadores también advierten contra el uso del modelo en escenarios de toma de decisiones de alto riesgo, como la atención médica o las predicciones financieras, donde los errores podrían tener consecuencias graves.

A pesar de estos desafíos, LlamaV-o1 destaca la creciente importancia de los sistemas de inteligencia artificial multimodal que pueden integrar perfectamente texto, imágenes y otros tipos de datos. Su éxito subraya el potencial del aprendizaje curricular y del razonamiento paso a paso para cerrar la brecha entre la inteligencia humana y la máquina.

A medida que los sistemas de IA se integren más en nuestra vida cotidiana, la demanda de modelos explicables seguirá creciendo. LlamaV-o1 es una prueba de que no tenemos que sacrificar el rendimiento por la transparencia y que el futuro de la IA no se limita a dar respuestas. Está en mostrarnos cómo llegó allí.

Y tal vez ese sea el verdadero hito: en un mundo repleto de soluciones de caja negra, LlamaV-o1 abre la tapa.

Continue Reading

Noticias

Búsqueda de ChatGPT frente a Google: ¿en qué se diferencian?

Published

on

Durante las últimas dos décadas, el motor de búsqueda Google ha sido el estándar de facto para las búsquedas en Internet. Esa posición dominante se ha visto desafiada en los últimos años por el surgimiento de un enfoque completamente diferente para el descubrimiento de búsquedas basado en el conocimiento: ChatGPT.

Cuando llegó ChatGPT en noviembre de 2022, introdujo una experiencia muy diferente para los usuarios con preguntas. Mientras que los motores de búsqueda tradicionales ofrecen una lista de enlaces en respuesta a una consulta, ChatGPT proporciona respuestas.

En octubre de 2024, ChatGPT introdujo la búsqueda ChatGPT, que ofrece información actualizada y en vivo, algo que falta en su versión original. Y Google tampoco se ha quedado de brazos cruzados. Con Google AI Overviews, el gigante de las búsquedas integró capacidades de IA generativa en su búsqueda, brindando a los usuarios resúmenes y respuestas a consultas de contenido.

¿Cómo funciona la búsqueda ChatGPT?

El ChatGPT original basó su servicio enteramente en el conocimiento recopilado por un modelo de lenguaje grande (LLM) a través de una fase de capacitación. La versión normal de ChatGPT tiene una fecha límite de conocimiento (basada en cuándo se completó el entrenamiento de su modelo subyacente) y no conoce información ni eventos posteriores a esa fecha.

La búsqueda de ChatGPT ignora ese límite de conocimiento, operando a través de una combinación de tecnologías, con su base construida sobre una versión especialmente ajustada del GPT-4o LLM de OpenAI. OpenAI mejoró este modelo base utilizando técnicas posteriores al entrenamiento, particularmente al destilar los resultados de su modelo de vista previa o1. Según el proveedor, el modelo OpenAI o1 se destaca específicamente por sus capacidades de razonamiento mejoradas, lo que respalda su experiencia de búsqueda más refinada y precisa.

Para acceder a información más allá del límite de capacitación del LLM, la búsqueda de ChatGPT integra información de fuentes adicionales, incluidas las siguientes:

  • Proveedores de búsqueda de terceros. La búsqueda de ChatGPT utiliza proveedores de búsqueda de terceros, como Microsoft Bing.
  • Asociaciones de medios. Además, la búsqueda de ChatGPT incorpora fuentes de contenido de numerosos socios de medios, incluidos The Associated Press, Reuters y Tiempos financieros.

El servicio de búsqueda ChatGPT procesa las consultas de los usuarios a través de una interfaz de lenguaje natural y mantiene el contexto en múltiples preguntas, creando interacciones que son más conversacionales e intuitivas. Más allá de simplemente devolver enlaces, la búsqueda de ChatGPT proporciona resúmenes concisos de información, así como enlaces de origen.

¿Cuáles son las distinciones funcionales entre la búsqueda ChatGPT y la Búsqueda de Google?

La búsqueda de ChatGPT y la búsqueda de Google toman caminos divergentes para proporcionar resultados a las consultas de los usuarios.

  • Interfaz. ChatGPT ofrece a los usuarios una interfaz de IA conversacional, donde los usuarios hacen preguntas en un enfoque más de ida y vuelta. Cuando interactúan con el motor de búsqueda tradicional de Google, los usuarios escriben términos y no mantienen interacciones de conversación con el motor de búsqueda.
  • Seguimientos. El enfoque de IA conversacional de ChatGPT generalmente mantiene el contexto mucho mejor que el de Google durante las preguntas de seguimiento que profundizan en un tema específico.
  • Procesamiento de información. De forma predeterminada, la búsqueda de ChatGPT resume información que responde directamente a la consulta de un usuario. El modelo central de Búsqueda de Google no resume la información; se basa en su propio conjunto de algoritmos complejos de Google para clasificar y mostrar resultados relevantes. Sin embargo, Google AI Overviews ofrece respuestas resumidas que también responden preguntas.
  • Información en tiempo real. La búsqueda de ChatGPT tiene capacidades limitadas en tiempo real a través de sus asociaciones y proveedores externos. Google rastrea e indexa continuamente la web, proporcionando información más actualizada sobre una variedad de temas.
  • Formato de resultados. La Búsqueda de Google proporciona una lista de enlaces que incluye páginas web, imágenes, vídeos y fragmentos destacados. Si bien Google AI Overviews mejora algunos resultados de búsqueda con información resumida y enlaces de fuentes, ChatGPT ofrece respuestas detalladas en forma de párrafos que también incluyen enlaces a fuentes citadas.

Diferencias clave entre la búsqueda de Google y la búsqueda de ChatGPT

El siguiente cuadro detalla las diferencias importantes entre la Búsqueda de Google y la búsqueda de ChatGPT.

Característica Búsqueda de Google Búsqueda de ChatGPT
Tecnología central algoritmos de google GPT-4o Maestría en Derecho
Fuente de información Rastreo web en tiempo real Conjunto de datos previamente entrenado más búsqueda limitada en tiempo real
Interfaz de usuario Cuadro de búsqueda basado en consultas chatbot conversacional
Formato de resultados Lista de enlaces con fragmentos Respuestas coherentes y conversacionales.
Manejo de contexto Limitado Mantiene el contexto en múltiples consultas
Integración del comercio electrónico Listados de productos y comparaciones de precios. Información limitada del producto
Método de citación Enlaces a fuentes Citas en línea con enlaces a fuentes

¿Cuáles son las limitaciones de la búsqueda ChatGPT en comparación con la Búsqueda de Google?

A pesar de sus avances, la búsqueda ChatGPT enfrenta varias limitaciones en comparación con la Búsqueda de Google, incluidas las siguientes:

  • Acceso a la información y alcance de los datos. La Búsqueda de Google tiene un índice masivo de información gracias a su rastreador web con décadas de antigüedad. ChatGPT no tiene ese linaje ni acceso al volumen total de información de Internet.
  • Información en tiempo real. Si bien la búsqueda ChatGPT proporciona algunas capacidades en tiempo real, va a la zaga de Google en cuanto a proporcionar la información más actualizada sobre diversos temas.
  • Preocupaciones por la precisión. Un problema persistente con los LLM en general es el riesgo de sufrir alucinaciones por IA. Aunque ese riesgo persiste con Google AI Overviews, es menos probable que ocurra debido a su proceso de rastreo web.
  • Desafíos de verificación. Si bien la búsqueda ChatGPT proporciona citas, verificar la precisión y credibilidad de una fuente es más desafiante en comparación con el sistema de clasificación de páginas establecido de Google.

Pros y contras de la búsqueda de ChatGPT

Existen algunas ventajas y limitaciones clave de la búsqueda de ChatGPT.

Ventajas

  • Comprensión del lenguaje natural para consultas intuitivas.
  • Conciencia contextual para preguntas de seguimiento.
  • Explicaciones detalladas y resúmenes.
  • Potencial para tareas creativas y analíticas.
  • IA conversacional para una experiencia de usuario más atractiva.

Contras

  • Acceso limitado a información en tiempo real.
  • Generando respuestas inexactas en ocasiones.
  • Alcance de información más reducido en comparación con los motores de búsqueda tradicionales.
  • Falta de capacidades de búsqueda visual.
  • Sesgos heredados de los datos de entrenamiento.

Pros y contras de la Búsqueda de Google

Google también tiene sus ventajas y limitaciones clave.

Ventajas

  • Índice masivo de páginas web rastreadas a lo largo de décadas para obtener un nivel profundo de resultados de búsqueda.
  • Actualizaciones de información en tiempo real que abarcan múltiples categorías.
  • Integración de varios tipos de medios, incluidas imágenes, vídeos y mapas.
  • El mayor grado de seguridad y autenticidad de los algoritmos de Google para resultados relevantes y clasificados.

Contras

  • Interfaz menos conversacional.
  • Cantidad abrumadora de información presentada en ocasiones.
  • Resúmenes de información menos fáciles de usar, aunque Google AI Overviews reduce esa brecha.
  • Capacidad limitada para comprender consultas contextuales complejas.

¿Puede la búsqueda ChatGPT reemplazar la búsqueda de Google?

La respuesta simple es no. ChatGPT no reemplaza completamente la Búsqueda de Google, al menos a corto plazo.

Hay muchas razones por las que Google sigue siendo el motor de búsqueda dominante en Internet. Google atiende eficazmente las necesidades de sus usuarios. Su enfoque de rastreo web para la recopilación de información supera fácilmente al servicio de ChatGPT. Incluso con su gran conjunto de datos de capacitación y sus asociaciones con los medios, la búsqueda de ChatGPT no puede igualar el acceso completo a Internet de Google. Para toda una generación de usuarios de Internet, la Búsqueda de Google es la forma predeterminada de encontrar una respuesta, y eso no es algo que se pueda reemplazar fácilmente.

Esto no significa que ChatGPT no desplazará a Google para algunos tipos de búsquedas. Los usuarios que buscan respuestas directas a sus consultas, rápidamente, se benefician de la interfaz ChatGPT. Pero no reemplazará a Google en el corto plazo. La forma en que evolucione la búsqueda de ChatGPT, por supuesto, determinará si se reduce la brecha con el acceso a Internet y las capacidades de búsqueda más amplias de la Búsqueda de Google.

Sean Michael Kerner es consultor de TI, entusiasta de la tecnología y experto en retoques. Sacó Token Ring, configuró NetWare y se le conoce por compilar su propio kernel de Linux. Consulta con organizaciones industriales y de medios sobre cuestiones tecnológicas.

Continue Reading

Noticias

El hombre que hizo estallar un Cybertruck usó ChatGPT. ¿Debería esto generar preocupación sobre la IA?

Published

on

Los expertos están divididos sobre si el papel que jugó ChatGPT en los planes para hacer explotar un Tesla Cybertruck afuera del hotel Trump International el 1 de enero debería generar preocupaciones sobre el uso seguro de la inteligencia artificial, pero muchos coincidieron en que la explosión del día de Año Nuevo resalta el hecho de que las políticas de salvaguardia El uso de la IA se está quedando atrás a medida que la tecnología avanza.

El Sargento Primero del Ejército de EE.UU. Matthew Livelsberger le hizo a ChatGPT una serie de preguntas sobre cómo adquirir y usar materiales explosivos el día antes de alquilar un Cybertruck en Denver y comenzar su viaje a Las Vegas, donde se disparó fatalmente en la cabeza justo antes de que su Cybertruck explotara, dijeron las autoridades. Siete personas resultaron heridas en la explosión.

Las consultas de inteligencia artificial de Livelsberger incluyeron preguntas como “¿Cuál es el límite legal para comprar tannerita en Colorado” y “¿Qué pistola podría activarla?”, según el Departamento de Policía Metropolitana. La tannerita es una marca de objetivos de rifle reactivos que, si se disparan, explotan.

Cuando un periodista del Review-Journal le hizo a ChatGPT las mismas preguntas que Livelsberger, el software proporcionó respuestas detalladas a 21 de las 22 consultas. La única pregunta que ChatGPT no respondió, citando una violación de sus políticas de uso, estaba relacionada con qué munición se necesitaría para asegurarse de que los materiales explosivos fueran activados.

Hacer estallar el Tesla Cybertruck fue un delito procesable, destacó Wendell Wallach, bioético y autor cuyo trabajo se centra en la ética y la gobernanza de las tecnologías emergentes. A Wallach no le sorprendió el uso de ChatGPT por parte de Livelsberger y dijo que “era sólo cuestión de tiempo” antes de que ChatGPT fuera reclutado para dicha ayuda, pero dijo que le preocupaba la falta de responsabilidad.

“El crimen se comete con cómplices, pero los cómplices o no son humanos o son humanos que están protegidos de la responsabilidad porque todo esto fue filtrado a través de un sistema computacional”, dijo Wallach.

Los expertos explicaron que ChatGPT en sí no puede saber que le están haciendo preguntas peligrosas. Solo puede leer el idioma y devolver la respuesta estadísticamente más probable. Todas las salvaguardas implementadas para restringir lo que el chatbot dirá o no tendrán que ser establecidas por sus desarrolladores.

“Las corporaciones se sientan ahí con el mantra de que lo bueno superará con creces a lo malo”, dijo Wallach sobre el desarrollo de la IA generativa. “Pero eso no está exactamente claro”.

‘Información ya disponible públicamente en Internet’

Una declaración compartida con el Review-Journal de OpenAI, la compañía detrás de ChatGPT, decía: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de inteligencia artificial se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino”.

“En este caso, ChatGPT respondió con información que ya estaba disponible públicamente en Internet”, dijo el portavoz de OpenAI.

Este punto fue clave para Andrew Maynard, profesor de la Universidad Estatal de Arizona cuyo trabajo se centra en navegar las transiciones tecnológicas avanzadas. “Por lo que puedo ver más allá del simple uso de la herramienta, no hay nada allí que no pueda haber encontrado en otro lugar”, dijo Maynard.

Si bien Maynard dijo que siente que existen peligros potenciales con plataformas como ChatGPT, las interacciones de Livelsberger con el chatbot no llegaron a ese umbral. “No parece haber evidencia de que haya algo fundamentalmente mal con ChatGPT”, dijo. Si el chatbot hubiera obtenido información difícil de conseguir sobre la construcción de un arma biológica, entonces Maynard dijo que se preocuparía.

La cuestión de si el fácil acceso a información potencialmente dañina es un problema anterior a la IA generativa, según David Gunkel, profesor de la Universidad del Norte de Illinois, que también se describe a sí mismo como un filósofo de la tecnología. “Hace tres o cuatro décadas, se podría haber hecho la misma pregunta sobre la biblioteca pública”, dijo Gunkel.

La diferencia entre ChatGPT y un motor de búsqueda radica en la velocidad del chatbot y la interfaz de usuario, explicó Gunkel. Si Livelsberger hubiera utilizado un motor de búsqueda para hacer las mismas preguntas, habría tenido que revisar la lista de resultados proporcionados y leer documentos para encontrar la información específica que estaba buscando.

Cuando el Review-Journal le hizo a ChatGPT las mismas 22 preguntas que Livelsberger, el chatbot tardó menos de ocho minutos en responder directamente a todas ellas.

‘Las políticas evolucionarán en función de lo que aprendamos con el tiempo’

Emma Pierson, profesora de informática en la Universidad de California, Berkeley, afiliada al Centro para la IA compatible con humanos, dijo que el tipo de contenido que ChatGPT proporcionó a Livelsberger, que incluía listas de armas que podían encender materiales explosivos, parecía “sencillamente como el tipo de cosas que quieres que el modelo simplemente cierre”.

Si OpenAI no quiere que sus modelos proporcionen información peligrosa, y el software la proporciona de todos modos, esto es “malo en sí mismo”, dijo Pierson, porque sugiere que los controles establecidos por la empresa para evitar este tipo de información son no es suficiente.

Las políticas de uso de ChatGPT de OpenAI, que se actualizaron por última vez el 10 de enero de 2024, dictan que los modelos están capacitados “para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”.

“Creemos que aprender del uso en el mundo real es un componente fundamental para crear y lanzar sistemas de IA cada vez más seguros. No podemos predecir todos los usos beneficiosos o abusivos de nuestra tecnología, por lo que monitoreamos de manera proactiva nuevas tendencias de abuso. Nuestras políticas evolucionarán en función de lo que aprendamos con el tiempo”, afirman las políticas, que están disponibles en el sitio web de OpenAI.

OpenAI no respondió a las preguntas sobre si se cambiará o no la política tras la explosión del Cybertruck.

Va en contra de las políticas de uso de OpenAI promover o participar en actividades ilegales o utilizar los servicios de OpenAI para dañarse a uno mismo o a otros, incluso mediante el desarrollo o el uso de armas, según el sitio web de OpenAI.

Gunkel dijo que siente que ChatGPT de OpenAI fue lanzado al mercado antes de que el producto se sometiera a pruebas internas exhaustivas. “Una explosión de este tipo es grande y dramática”, dijo Gunkel, pero hay “cosas más pequeñas” que apuntan hacia su conclusión, concretamente sesgos en el algoritmo o alucinaciones, que son cosas que “suenan bien, pero no son correctas”. ”, dijo.

“Se ha hablado de poner freno a la IA”, dijo Gunkel. “Estas cosas suenan bien, pero generalmente no funcionan en la práctica”.

Varios expertos coincidieron en que el camino correcto a seguir es afrontar los desafíos que presenta la IA generativa y asegurarse de que existan leyes y políticas para prevenir posibles daños.

¿Momento de aprendizaje para las fuerzas del orden?

Para Corynne McSherry, directora legal de Electronic Frontier Foundation, las preocupaciones en torno al uso de ChatGPT por parte de Livelsberger son exageradas. “La ansiedad por el uso de ChatGPT es un reflejo de la ansiedad general que lo rodea”, dijo. “ChatGPT es una herramienta”.

McSherry dijo que la ansiedad pública en torno al uso de la IA generativa termina “distrayéndonos de un conjunto de preguntas más importantes”, como por ejemplo por qué Livelsberger hizo lo que hizo. “Éstas son preguntas más difíciles, pero probablemente más importantes”, dijo McSherry. También son preguntas que las autoridades todavía estaban tratando de responder, dijo el sheriff de Metro Kevin McMahill en una sesión informativa el 6 de enero.

No obstante, McMahill dijo que el uso de ChatGPT en los planes de Livelsberger era un “momento preocupante”.

“Este es el primer incidente del que tengo conocimiento en suelo estadounidense donde se utiliza ChatGPT para ayudar a un individuo a construir un dispositivo en particular”, dijo McMahill en la sesión informativa del 6 de enero. “Es instructivo para nosotros”.

McMahill agregó que no creía que hubiera sido posible que las búsquedas ChatGPT de Livelsberger hubieran levantado alguna señal antes de la explosión. Este tipo de tecnología es algo que Maynard sugirió que la gente empiece a considerar, si aún no lo han hecho.

“Es absolutamente fundamental que los grupos y organizaciones encargados de hacer cumplir la ley estén al tanto de cómo la gente usa estas plataformas y cómo podrían usarlas potencialmente; de ​​lo contrario, serán tomados por sorpresa”, dijo Maynard. “Simplemente ignorarlo o no actuar lo suficientemente rápido los coloca en una posición peligrosa y difícil”.

Póngase en contacto con Estelle Atkinson en [email protected]. Siga a @estelleatkinson.bsky.social en Bluesky y a @estellelilym en X.

Continue Reading

Trending