Noticias
LlamaV-o1 es el modelo de IA que explica su proceso de pensamiento: he aquí por qué es importante
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información
Investigadores de la Universidad de Inteligencia Artificial Mohamed bin Zayed (MBZUAI) han anunciado el lanzamiento de LlamaV-o1, un modelo de inteligencia artificial de última generación capaz de abordar algunas de las tareas de razonamiento más complejas en texto e imágenes.
Al combinar el aprendizaje curricular de vanguardia con técnicas de optimización avanzadas como Beam Search, LlamaV-o1 establece un nuevo punto de referencia para el razonamiento paso a paso en sistemas de IA multimodales.
“El razonamiento es una capacidad fundamental para resolver problemas complejos de varios pasos, particularmente en contextos visuales donde la comprensión secuencial por pasos es esencial”, escribieron los investigadores en su informe técnico, publicado hoy. El modelo de IA, optimizado para tareas de razonamiento que requieren precisión y transparencia, supera a muchos de sus pares en tareas que van desde la interpretación de gráficos financieros hasta el diagnóstico de imágenes médicas.
Junto con el modelo, el equipo también presentó VRC-Bench, un punto de referencia diseñado para evaluar los modelos de IA en función de su capacidad para razonar problemas paso a paso. Con más de 1000 muestras diversas y más de 4000 pasos de razonamiento, VRC-Bench ya está siendo aclamado como un punto de inflexión en la investigación de IA multimodal.
Cómo se diferencia LlamaV-o1 de la competencia
Los modelos tradicionales de IA a menudo se centran en ofrecer una respuesta final, ofreciendo poca información sobre cómo llegaron a sus conclusiones. LlamaV-o1, sin embargo, enfatiza el razonamiento paso a paso, una capacidad que imita la resolución de problemas humana. Este enfoque permite a los usuarios ver los pasos lógicos que sigue el modelo, lo que lo hace particularmente valioso para aplicaciones donde la interpretabilidad es esencial.
Los investigadores entrenaron LlamaV-o1 utilizando LLaVA-CoT-100k, un conjunto de datos optimizado para tareas de razonamiento, y evaluaron su rendimiento utilizando VRC-Bench. Los resultados son impresionantes: LlamaV-o1 logró una puntuación de pasos de razonamiento de 68,93, superando a modelos de código abierto conocidos como LlaVA-CoT (66,21) e incluso a algunos modelos de código cerrado como Claude 3.5 Sonnet.
“Al aprovechar la eficiencia de Beam Search junto con la estructura progresiva del aprendizaje curricular, el modelo propuesto adquiere habilidades de manera incremental, comenzando con tareas más simples como [a] resumen del enfoque y subtítulos derivados de preguntas y avance a escenarios de razonamiento de varios pasos más complejos, asegurando tanto una inferencia optimizada como capacidades de razonamiento sólidas”, explicaron los investigadores.
El enfoque metódico del modelo también lo hace más rápido que sus competidores. “LlamaV-o1 ofrece una ganancia absoluta del 3,8% en términos de puntuación promedio en seis puntos de referencia y, al mismo tiempo, es 5 veces más rápido durante el escalado de inferencia”, señaló el equipo en su informe. Una eficiencia como esta es un punto de venta clave para las empresas que buscan implementar soluciones de IA a escala.
IA para empresas: por qué es importante el razonamiento paso a paso
El énfasis de LlamaV-o1 en la interpretabilidad aborda una necesidad crítica en industrias como las finanzas, la medicina y la educación. Para las empresas, la capacidad de rastrear los pasos detrás de la decisión de una IA puede generar confianza y garantizar el cumplimiento de las regulaciones.
Tomemos como ejemplo las imágenes médicas. Un radiólogo que utiliza IA para analizar exploraciones no solo necesita el diagnóstico: necesita saber cómo la IA llegó a esa conclusión. Aquí es donde brilla LlamaV-o1, que proporciona un razonamiento transparente paso a paso que los profesionales pueden revisar y validar.
El modelo también destaca en campos como la comprensión de gráficos y diagramas, que son vitales para el análisis financiero y la toma de decisiones. En las pruebas realizadas en VRC-Bench, LlamaV-o1 superó consistentemente a sus competidores en tareas que requerían interpretación de datos visuales complejos.
Pero el modelo no es sólo para aplicaciones de alto riesgo. Su versatilidad lo hace adecuado para una amplia gama de tareas, desde generación de contenido hasta agentes conversacionales. Los investigadores ajustaron específicamente LlamaV-o1 para que sobresaliera en escenarios del mundo real, aprovechando Beam Search para optimizar las rutas de razonamiento y mejorar la eficiencia computacional.
Beam Search permite que el modelo genere múltiples rutas de razonamiento en paralelo y seleccione la más lógica. Este enfoque no solo aumenta la precisión sino que también reduce el costo computacional de ejecutar el modelo, lo que lo convierte en una opción atractiva para empresas de todos los tamaños.
Qué significa VRC-Bench para el futuro de la IA
El lanzamiento de VRC-Bench es tan importante como el modelo en sí. A diferencia de los puntos de referencia tradicionales que se centran únicamente en la precisión de la respuesta final, VRC-Bench evalúa la calidad de los pasos de razonamiento individuales, ofreciendo una evaluación más matizada de las capacidades de un modelo de IA.
“La mayoría de los puntos de referencia se centran principalmente en la precisión de la tarea final, descuidando la calidad de los pasos intermedios de razonamiento”, explicaron los investigadores. “[VRC-Bench] presenta un conjunto diverso de desafíos con ocho categorías diferentes que van desde la percepción visual compleja hasta el razonamiento científico con más de [4,000] pasos de razonamiento en total, lo que permite una evaluación sólida de las capacidades de los LLM para realizar un razonamiento visual preciso e interpretable en múltiples pasos”.
Este enfoque en el razonamiento paso a paso es particularmente crítico en campos como la investigación científica y la educación, donde el proceso detrás de una solución puede ser tan importante como la solución misma. Al enfatizar la coherencia lógica, VRC-Bench fomenta el desarrollo de modelos que puedan manejar la complejidad y ambigüedad de las tareas del mundo real.
El desempeño de LlamaV-o1 en VRC-Bench dice mucho sobre su potencial. En promedio, el modelo obtuvo una puntuación del 67,33% en puntos de referencia como MathVista y AI2D, superando a otros modelos de código abierto como Llava-CoT (63,50%). Estos resultados posicionan a LlamaV-o1 como líder en el espacio de la IA de código abierto, reduciendo la brecha con modelos propietarios como GPT-4o, que obtuvo una puntuación del 71,8%.
La próxima frontera de la IA: razonamiento multimodal interpretable
Si bien LlamaV-o1 representa un gran avance, no está exento de limitaciones. Como todos los modelos de IA, está limitado por la calidad de sus datos de entrenamiento y puede tener problemas con indicaciones altamente técnicas o conflictivas. Los investigadores también advierten contra el uso del modelo en escenarios de toma de decisiones de alto riesgo, como la atención médica o las predicciones financieras, donde los errores podrían tener consecuencias graves.
A pesar de estos desafíos, LlamaV-o1 destaca la creciente importancia de los sistemas de inteligencia artificial multimodal que pueden integrar perfectamente texto, imágenes y otros tipos de datos. Su éxito subraya el potencial del aprendizaje curricular y del razonamiento paso a paso para cerrar la brecha entre la inteligencia humana y la máquina.
A medida que los sistemas de IA se integren más en nuestra vida cotidiana, la demanda de modelos explicables seguirá creciendo. LlamaV-o1 es una prueba de que no tenemos que sacrificar el rendimiento por la transparencia y que el futuro de la IA no se limita a dar respuestas. Está en mostrarnos cómo llegó allí.
Y tal vez ese sea el verdadero hito: en un mundo repleto de soluciones de caja negra, LlamaV-o1 abre la tapa.
Noticias
ChatGPT es el rastreador de artículos del hogar que he estado esperando durante años
Resumen
- ChatGPT es un rastreador eficaz de artículos del hogar con procesamiento de lenguaje natural para facilitar la búsqueda.
- ChatGPT puede almacenar recuerdos con detalles específicos para una fácil recuperación sin nombres exactos.
- Las limitaciones de ChatGPT incluyen límites de espacio en la memoria y el requisito de entrada manual.
Pierdo gran parte de mi vida buscando artículos del hogar que he guardado en “lugares seguros” que ya no puedo recordar. Los sistemas de seguimiento de artículos que he usado en el pasado han sido una decepción, pero es posible que finalmente haya encontrado lo que estaba buscando en ChatGPT.
Por qué siempre quise un rastreador de artículos del hogar
Mi memoria es terrible. Perdí la cuenta de la cantidad de veces que preparé una taza de café, solo para encontrar la taza llena de café frío junto a mí un rato después, porque me quedé atrapado haciendo otra cosa y lo olvidé por completo. que el café estaba ahí. Cada vez pienso que debería invertir en una taza inteligente, solo para olvidarme por completo de la idea hasta la próxima vez que mi café se enfríe.
Lo mismo ocurre con mis pertenencias. Pienso en un lugar inteligente para colocar un artículo que rara vez uso, pero luego instantáneamente olvido dónde está ese lugar. La próxima vez que lo necesito, paso horas buscando todos los posibles lugares inteligentes donde podría haberlo almacenado. Puedo tomar nota de dónde puse las cosas, pero luego tengo que recordar dónde las anoté, lo que lleva al mismo problema nuevamente.
Como un geek confeso, estoy convencido de que debe haber una solución tecnológica para este problema. Si no puedo recordar dónde están todas mis cosas, ¿seguramente hay alguna tecnología que pueda hacerlo?
Rastreadores de artículos que finalmente no sirvieron de nada
Probé algunas soluciones tecnológicas en el pasado, pero al final no me dieron lo que necesitaba. Me emocioné cuando me enteré por primera vez de la función “Recordar esto” de Alexa que me permitiría decirle a Alexa que recordara dónde estaban las cosas para mí. Sin embargo, mi entusiasmo se vio truncado cuando descubrí que esta característica ni siquiera existía en mi localidad.
Sin embargo, investigué un poco sobre la función, en caso de que fuera algo que finalmente se lanzara en todo el mundo. Pronto quedó claro que la función era demasiado limitada para darme lo que quería; solicitudes como “¿Dónde están mis pastillas?” normalmente fallaría.
Es necesario utilizar frases como “¿Qué puedes decirme sobre mis pastillas?” y si no recuerdo dónde están mis pastillas, tampoco recordaré el formato correcto para preguntarle a Alexa dónde están.
Otro problema importante con la función “Recordar esto” de Alexa es que si no usas el mismo nombre del elemento cada vez, puede caerse. Si le dices a Alexa que recuerde dónde está algo y luego usas un nombre diferente para ese objeto cuando le preguntas dónde está, es posible que Alexa no entienda de qué estás hablando. Esto puede mejorar cuando Alexa obtenga su tan esperada actualización de IA, pero por ahora, es un problema grave.
Lo mismo ocurrió con el otro método que probé. Utilizo Home Assistant para automatizar mis dispositivos domésticos inteligentes y pensé que podría haber una manera de realizar un seguimiento de dónde está todo en mi casa guardando la información en una base de datos que pudiera consultar. El problema era que si intentaba buscar en la base de datos usando “medicamentos” en lugar de “pastillas”, no encontraría nada, por lo que tenía que recordar exactamente cómo había llamado cada elemento, lo que me daba más cosas que olvidar.
Uso de ChatGPT como rastreador de artículos del hogar
Sin embargo, finalmente encontré una solución que funciona: ChatGPT. ChatGPT no solo puede almacenar recuerdos que puedes consultar en cualquier momento, sino que también tiene procesamiento de lenguaje natural. Eso significa que si le he dicho dónde están mis pastillas y le pregunto la ubicación de mis medicamentos, puede darse cuenta de que estoy hablando de lo mismo.
Todo lo que necesitas hacer es pedirle a ChatGPT que recuerde algo y se agregará a la memoria permanente. Por ejemplo, puedo decir “Recuerda que el soporte del árbol de Navidad está en el cobertizo de herramientas” y ChatGPT agregará esa información a su memoria. Si luego pregunto “¿Dónde está la base del árbol de Navidad?” ChatGPT me dirá que está en el cobertizo de herramientas, aunque no lo llamé “soporte”, que fue el término utilizado al crear la memoria.
Puedo agregar más recuerdos para guardar información sobre la ubicación de otros elementos, y siempre se puede acceder a estos recuerdos desde cualquier chat dentro de ChatGPT. Si en algún momento muevo el soporte del árbol de Navidad a otra ubicación, puedo pedirle a ChatGPT que actualice la memoria con la nueva ubicación y la memoria original se sobrescribirá con la nueva ubicación.
Lo bueno de usar ChatGPT es que los chatbots de IA son muy buenos para comprender el contexto de lo que estás diciendo. No es necesario que recuerdes la frase exacta que debes utilizar al preguntar dónde está algo, ni tampoco el nombre exacto del elemento. Intenté preguntar “¿Sabes dónde está el soporte del árbol?” y “¿Qué hice con la base festiva?” y en ambos casos, ChatGPT me dijo dónde estaba el puesto del árbol de Navidad.
Incluso si no recuerdas cómo se llama el objeto, puedes preguntar algo como “¿Dónde está el objeto donde pusiste el árbol?”. y ChatGPT seguirá entendiendo lo que quieres decir. Es ideal para aquellos que nos cuesta recordar las cosas más simples.
Limitaciones de ChatGPT como rastreador de artículos
Si bien ChatGPT es, con diferencia, la mejor manera que he encontrado para recordar dónde se guardaron los artículos del hogar, no es perfecta. Probablemente la mayor limitación es que la memoria de ChatGPT no es enorme y eventualmente se llenará. Una vez que esto sucede, no podrá almacenar ningún recuerdo nuevo sin eliminar otros.
Para una cuenta gratuita, el límite es actualmente de 2000 tokens (aproximadamente 1500 palabras) y los usuarios Plus obtienen 8000 tokens (aproximadamente 6000 palabras) de espacio de memoria. Significa que puedes recordar una cantidad razonable de objetos como usuario Plus, pero no podrás almacenar recuerdos sobre cada objeto que posees.
La otra limitación obvia es que ChatGPT no puede recordar dónde están los elementos sin su intervención. En otras palabras, debes recordar decirle a ChatGPT dónde estás poniendo las cosas. Si colocas el soporte del árbol de Navidad en el cobertizo de herramientas, pero te olvidas de contarle a ChatGPT lo que has hecho, volverás a tener que intentar recordarlo por ti mismo nuevamente.
Cómo borrar recuerdos en ChatGPT
Si descubres que no puedes agregar más recuerdos a ChatGPT porque la memoria está llena, puedes eliminar algunos recuerdos que ya no necesites. Es bastante fácil eliminar recuerdos individuales para no tener que borrarlos todos y empezar de cero.
Abra la aplicación ChatGPT y toque el nombre de su cuenta en la parte inferior del panel de menú. Seleccione “Personalización” y toque “Administrar memoria”. Para eliminar un recuerdo, deslícese hacia la izquierda y toque el ícono de la papelera. Repita para cualquier otro recuerdo que desee eliminar.
He estado buscando una forma de rastrear rápida y fácilmente la ubicación de los elementos de mi casa y, hasta ahora, no he encontrado una solución que funcione lo suficientemente bien. Sin embargo, ChatGPT parece ser el rastreador de artículos del hogar que siempre quise. El tiempo dirá si hay suficiente memoria para mis necesidades, pero hasta ahora es exactamente lo que estaba buscando.
Noticias
Búsqueda de ChatGPT frente a Google: ¿en qué se diferencian?
Durante las últimas dos décadas, el motor de búsqueda Google ha sido el estándar de facto para las búsquedas en Internet. Esa posición dominante se ha visto desafiada en los últimos años por el surgimiento de un enfoque completamente diferente para el descubrimiento de búsquedas basado en el conocimiento: ChatGPT.
Cuando llegó ChatGPT en noviembre de 2022, introdujo una experiencia muy diferente para los usuarios con preguntas. Mientras que los motores de búsqueda tradicionales ofrecen una lista de enlaces en respuesta a una consulta, ChatGPT proporciona respuestas.
En octubre de 2024, ChatGPT introdujo la búsqueda ChatGPT, que ofrece información actualizada y en vivo, algo que falta en su versión original. Y Google tampoco se ha quedado de brazos cruzados. Con Google AI Overviews, el gigante de las búsquedas integró capacidades de IA generativa en su búsqueda, brindando a los usuarios resúmenes y respuestas a consultas de contenido.
¿Cómo funciona la búsqueda ChatGPT?
El ChatGPT original basó su servicio enteramente en el conocimiento recopilado por un modelo de lenguaje grande (LLM) a través de una fase de capacitación. La versión normal de ChatGPT tiene una fecha límite de conocimiento (basada en cuándo se completó el entrenamiento de su modelo subyacente) y no conoce información ni eventos posteriores a esa fecha.
La búsqueda de ChatGPT ignora ese límite de conocimiento, operando a través de una combinación de tecnologías, con su base construida sobre una versión especialmente ajustada del GPT-4o LLM de OpenAI. OpenAI mejoró este modelo base utilizando técnicas posteriores al entrenamiento, particularmente al destilar los resultados de su modelo de vista previa o1. Según el proveedor, el modelo OpenAI o1 se destaca específicamente por sus capacidades de razonamiento mejoradas, lo que respalda su experiencia de búsqueda más refinada y precisa.
Para acceder a información más allá del límite de capacitación del LLM, la búsqueda de ChatGPT integra información de fuentes adicionales, incluidas las siguientes:
- Proveedores de búsqueda de terceros. La búsqueda de ChatGPT utiliza proveedores de búsqueda de terceros, como Microsoft Bing.
- Asociaciones de medios. Además, la búsqueda de ChatGPT incorpora fuentes de contenido de numerosos socios de medios, incluidos The Associated Press, Reuters y Tiempos financieros.
El servicio de búsqueda ChatGPT procesa las consultas de los usuarios a través de una interfaz de lenguaje natural y mantiene el contexto en múltiples preguntas, creando interacciones que son más conversacionales e intuitivas. Más allá de simplemente devolver enlaces, la búsqueda de ChatGPT proporciona resúmenes concisos de información, así como enlaces de origen.
¿Cuáles son las distinciones funcionales entre la búsqueda ChatGPT y la Búsqueda de Google?
La búsqueda de ChatGPT y la búsqueda de Google toman caminos divergentes para proporcionar resultados a las consultas de los usuarios.
- Interfaz. ChatGPT ofrece a los usuarios una interfaz de IA conversacional, donde los usuarios hacen preguntas en un enfoque más de ida y vuelta. Cuando interactúan con el motor de búsqueda tradicional de Google, los usuarios escriben términos y no mantienen interacciones de conversación con el motor de búsqueda.
- Seguimientos. El enfoque de IA conversacional de ChatGPT generalmente mantiene el contexto mucho mejor que el de Google durante las preguntas de seguimiento que profundizan en un tema específico.
- Procesamiento de información. De forma predeterminada, la búsqueda de ChatGPT resume información que responde directamente a la consulta de un usuario. El modelo central de Búsqueda de Google no resume la información; se basa en su propio conjunto de algoritmos complejos de Google para clasificar y mostrar resultados relevantes. Sin embargo, Google AI Overviews ofrece respuestas resumidas que también responden preguntas.
- Información en tiempo real. La búsqueda de ChatGPT tiene capacidades limitadas en tiempo real a través de sus asociaciones y proveedores externos. Google rastrea e indexa continuamente la web, proporcionando información más actualizada sobre una variedad de temas.
- Formato de resultados. La Búsqueda de Google proporciona una lista de enlaces que incluye páginas web, imágenes, vídeos y fragmentos destacados. Si bien Google AI Overviews mejora algunos resultados de búsqueda con información resumida y enlaces de fuentes, ChatGPT ofrece respuestas detalladas en forma de párrafos que también incluyen enlaces a fuentes citadas.
Diferencias clave entre la búsqueda de Google y la búsqueda de ChatGPT
El siguiente cuadro detalla las diferencias importantes entre la Búsqueda de Google y la búsqueda de ChatGPT.
Característica | Búsqueda de Google | Búsqueda de ChatGPT |
Tecnología central | algoritmos de google | GPT-4o Maestría en Derecho |
Fuente de información | Rastreo web en tiempo real | Conjunto de datos previamente entrenado más búsqueda limitada en tiempo real |
Interfaz de usuario | Cuadro de búsqueda basado en consultas | chatbot conversacional |
Formato de resultados | Lista de enlaces con fragmentos | Respuestas coherentes y conversacionales. |
Manejo de contexto | Limitado | Mantiene el contexto en múltiples consultas |
Integración del comercio electrónico | Listados de productos y comparaciones de precios. | Información limitada del producto |
Método de citación | Enlaces a fuentes | Citas en línea con enlaces a fuentes |
¿Cuáles son las limitaciones de la búsqueda ChatGPT en comparación con la Búsqueda de Google?
A pesar de sus avances, la búsqueda ChatGPT enfrenta varias limitaciones en comparación con la Búsqueda de Google, incluidas las siguientes:
- Acceso a la información y alcance de los datos. La Búsqueda de Google tiene un índice masivo de información gracias a su rastreador web con décadas de antigüedad. ChatGPT no tiene ese linaje ni acceso al volumen total de información de Internet.
- Información en tiempo real. Si bien la búsqueda ChatGPT proporciona algunas capacidades en tiempo real, va a la zaga de Google en cuanto a proporcionar la información más actualizada sobre diversos temas.
- Preocupaciones por la precisión. Un problema persistente con los LLM en general es el riesgo de sufrir alucinaciones por IA. Aunque ese riesgo persiste con Google AI Overviews, es menos probable que ocurra debido a su proceso de rastreo web.
- Desafíos de verificación. Si bien la búsqueda ChatGPT proporciona citas, verificar la precisión y credibilidad de una fuente es más desafiante en comparación con el sistema de clasificación de páginas establecido de Google.
Pros y contras de la búsqueda de ChatGPT
Existen algunas ventajas y limitaciones clave de la búsqueda de ChatGPT.
Ventajas
- Comprensión del lenguaje natural para consultas intuitivas.
- Conciencia contextual para preguntas de seguimiento.
- Explicaciones detalladas y resúmenes.
- Potencial para tareas creativas y analíticas.
- IA conversacional para una experiencia de usuario más atractiva.
Contras
- Acceso limitado a información en tiempo real.
- Generando respuestas inexactas en ocasiones.
- Alcance de información más reducido en comparación con los motores de búsqueda tradicionales.
- Falta de capacidades de búsqueda visual.
- Sesgos heredados de los datos de entrenamiento.
Pros y contras de la Búsqueda de Google
Google también tiene sus ventajas y limitaciones clave.
Ventajas
- Índice masivo de páginas web rastreadas a lo largo de décadas para obtener un nivel profundo de resultados de búsqueda.
- Actualizaciones de información en tiempo real que abarcan múltiples categorías.
- Integración de varios tipos de medios, incluidas imágenes, vídeos y mapas.
- El mayor grado de seguridad y autenticidad de los algoritmos de Google para resultados relevantes y clasificados.
Contras
- Interfaz menos conversacional.
- Cantidad abrumadora de información presentada en ocasiones.
- Resúmenes de información menos fáciles de usar, aunque Google AI Overviews reduce esa brecha.
- Capacidad limitada para comprender consultas contextuales complejas.
¿Puede la búsqueda ChatGPT reemplazar la búsqueda de Google?
La respuesta simple es no. ChatGPT no reemplaza completamente la Búsqueda de Google, al menos a corto plazo.
Hay muchas razones por las que Google sigue siendo el motor de búsqueda dominante en Internet. Google atiende eficazmente las necesidades de sus usuarios. Su enfoque de rastreo web para la recopilación de información supera fácilmente al servicio de ChatGPT. Incluso con su gran conjunto de datos de capacitación y sus asociaciones con los medios, la búsqueda de ChatGPT no puede igualar el acceso completo a Internet de Google. Para toda una generación de usuarios de Internet, la Búsqueda de Google es la forma predeterminada de encontrar una respuesta, y eso no es algo que se pueda reemplazar fácilmente.
Esto no significa que ChatGPT no desplazará a Google para algunos tipos de búsquedas. Los usuarios que buscan respuestas directas a sus consultas, rápidamente, se benefician de la interfaz ChatGPT. Pero no reemplazará a Google en el corto plazo. La forma en que evolucione la búsqueda de ChatGPT, por supuesto, determinará si se reduce la brecha con el acceso a Internet y las capacidades de búsqueda más amplias de la Búsqueda de Google.
Sean Michael Kerner es consultor de TI, entusiasta de la tecnología y experto en retoques. Sacó Token Ring, configuró NetWare y se le conoce por compilar su propio kernel de Linux. Consulta con organizaciones industriales y de medios sobre cuestiones tecnológicas.
Noticias
El hombre que hizo estallar un Cybertruck usó ChatGPT. ¿Debería esto generar preocupación sobre la IA?
Los expertos están divididos sobre si el papel que jugó ChatGPT en los planes para hacer explotar un Tesla Cybertruck afuera del hotel Trump International el 1 de enero debería generar preocupaciones sobre el uso seguro de la inteligencia artificial, pero muchos coincidieron en que la explosión del día de Año Nuevo resalta el hecho de que las políticas de salvaguardia El uso de la IA se está quedando atrás a medida que la tecnología avanza.
El Sargento Primero del Ejército de EE.UU. Matthew Livelsberger le hizo a ChatGPT una serie de preguntas sobre cómo adquirir y usar materiales explosivos el día antes de alquilar un Cybertruck en Denver y comenzar su viaje a Las Vegas, donde se disparó fatalmente en la cabeza justo antes de que su Cybertruck explotara, dijeron las autoridades. Siete personas resultaron heridas en la explosión.
Las consultas de inteligencia artificial de Livelsberger incluyeron preguntas como “¿Cuál es el límite legal para comprar tannerita en Colorado” y “¿Qué pistola podría activarla?”, según el Departamento de Policía Metropolitana. La tannerita es una marca de objetivos de rifle reactivos que, si se disparan, explotan.
Cuando un periodista del Review-Journal le hizo a ChatGPT las mismas preguntas que Livelsberger, el software proporcionó respuestas detalladas a 21 de las 22 consultas. La única pregunta que ChatGPT no respondió, citando una violación de sus políticas de uso, estaba relacionada con qué munición se necesitaría para asegurarse de que los materiales explosivos fueran activados.
Hacer estallar el Tesla Cybertruck fue un delito procesable, destacó Wendell Wallach, bioético y autor cuyo trabajo se centra en la ética y la gobernanza de las tecnologías emergentes. A Wallach no le sorprendió el uso de ChatGPT por parte de Livelsberger y dijo que “era sólo cuestión de tiempo” antes de que ChatGPT fuera reclutado para dicha ayuda, pero dijo que le preocupaba la falta de responsabilidad.
“El crimen se comete con cómplices, pero los cómplices o no son humanos o son humanos que están protegidos de la responsabilidad porque todo esto fue filtrado a través de un sistema computacional”, dijo Wallach.
Los expertos explicaron que ChatGPT en sí no puede saber que le están haciendo preguntas peligrosas. Solo puede leer el idioma y devolver la respuesta estadísticamente más probable. Todas las salvaguardas implementadas para restringir lo que el chatbot dirá o no tendrán que ser establecidas por sus desarrolladores.
“Las corporaciones se sientan ahí con el mantra de que lo bueno superará con creces a lo malo”, dijo Wallach sobre el desarrollo de la IA generativa. “Pero eso no está exactamente claro”.
‘Información ya disponible públicamente en Internet’
Una declaración compartida con el Review-Journal de OpenAI, la compañía detrás de ChatGPT, decía: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de inteligencia artificial se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino”.
“En este caso, ChatGPT respondió con información que ya estaba disponible públicamente en Internet”, dijo el portavoz de OpenAI.
Este punto fue clave para Andrew Maynard, profesor de la Universidad Estatal de Arizona cuyo trabajo se centra en navegar las transiciones tecnológicas avanzadas. “Por lo que puedo ver más allá del simple uso de la herramienta, no hay nada allí que no pueda haber encontrado en otro lugar”, dijo Maynard.
Si bien Maynard dijo que siente que existen peligros potenciales con plataformas como ChatGPT, las interacciones de Livelsberger con el chatbot no llegaron a ese umbral. “No parece haber evidencia de que haya algo fundamentalmente mal con ChatGPT”, dijo. Si el chatbot hubiera obtenido información difícil de conseguir sobre la construcción de un arma biológica, entonces Maynard dijo que se preocuparía.
La cuestión de si el fácil acceso a información potencialmente dañina es un problema anterior a la IA generativa, según David Gunkel, profesor de la Universidad del Norte de Illinois, que también se describe a sí mismo como un filósofo de la tecnología. “Hace tres o cuatro décadas, se podría haber hecho la misma pregunta sobre la biblioteca pública”, dijo Gunkel.
La diferencia entre ChatGPT y un motor de búsqueda radica en la velocidad del chatbot y la interfaz de usuario, explicó Gunkel. Si Livelsberger hubiera utilizado un motor de búsqueda para hacer las mismas preguntas, habría tenido que revisar la lista de resultados proporcionados y leer documentos para encontrar la información específica que estaba buscando.
Cuando el Review-Journal le hizo a ChatGPT las mismas 22 preguntas que Livelsberger, el chatbot tardó menos de ocho minutos en responder directamente a todas ellas.
‘Las políticas evolucionarán en función de lo que aprendamos con el tiempo’
Emma Pierson, profesora de informática en la Universidad de California, Berkeley, afiliada al Centro para la IA compatible con humanos, dijo que el tipo de contenido que ChatGPT proporcionó a Livelsberger, que incluía listas de armas que podían encender materiales explosivos, parecía “sencillamente como el tipo de cosas que quieres que el modelo simplemente cierre”.
Si OpenAI no quiere que sus modelos proporcionen información peligrosa, y el software la proporciona de todos modos, esto es “malo en sí mismo”, dijo Pierson, porque sugiere que los controles establecidos por la empresa para evitar este tipo de información son no es suficiente.
Las políticas de uso de ChatGPT de OpenAI, que se actualizaron por última vez el 10 de enero de 2024, dictan que los modelos están capacitados “para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”.
“Creemos que aprender del uso en el mundo real es un componente fundamental para crear y lanzar sistemas de IA cada vez más seguros. No podemos predecir todos los usos beneficiosos o abusivos de nuestra tecnología, por lo que monitoreamos de manera proactiva nuevas tendencias de abuso. Nuestras políticas evolucionarán en función de lo que aprendamos con el tiempo”, afirman las políticas, que están disponibles en el sitio web de OpenAI.
OpenAI no respondió a las preguntas sobre si se cambiará o no la política tras la explosión del Cybertruck.
Va en contra de las políticas de uso de OpenAI promover o participar en actividades ilegales o utilizar los servicios de OpenAI para dañarse a uno mismo o a otros, incluso mediante el desarrollo o el uso de armas, según el sitio web de OpenAI.
Gunkel dijo que siente que ChatGPT de OpenAI fue lanzado al mercado antes de que el producto se sometiera a pruebas internas exhaustivas. “Una explosión de este tipo es grande y dramática”, dijo Gunkel, pero hay “cosas más pequeñas” que apuntan hacia su conclusión, concretamente sesgos en el algoritmo o alucinaciones, que son cosas que “suenan bien, pero no son correctas”. ”, dijo.
“Se ha hablado de poner freno a la IA”, dijo Gunkel. “Estas cosas suenan bien, pero generalmente no funcionan en la práctica”.
Varios expertos coincidieron en que el camino correcto a seguir es afrontar los desafíos que presenta la IA generativa y asegurarse de que existan leyes y políticas para prevenir posibles daños.
¿Momento de aprendizaje para las fuerzas del orden?
Para Corynne McSherry, directora legal de Electronic Frontier Foundation, las preocupaciones en torno al uso de ChatGPT por parte de Livelsberger son exageradas. “La ansiedad por el uso de ChatGPT es un reflejo de la ansiedad general que lo rodea”, dijo. “ChatGPT es una herramienta”.
McSherry dijo que la ansiedad pública en torno al uso de la IA generativa termina “distrayéndonos de un conjunto de preguntas más importantes”, como por ejemplo por qué Livelsberger hizo lo que hizo. “Éstas son preguntas más difíciles, pero probablemente más importantes”, dijo McSherry. También son preguntas que las autoridades todavía estaban tratando de responder, dijo el sheriff de Metro Kevin McMahill en una sesión informativa el 6 de enero.
No obstante, McMahill dijo que el uso de ChatGPT en los planes de Livelsberger era un “momento preocupante”.
“Este es el primer incidente del que tengo conocimiento en suelo estadounidense donde se utiliza ChatGPT para ayudar a un individuo a construir un dispositivo en particular”, dijo McMahill en la sesión informativa del 6 de enero. “Es instructivo para nosotros”.
McMahill agregó que no creía que hubiera sido posible que las búsquedas ChatGPT de Livelsberger hubieran levantado alguna señal antes de la explosión. Este tipo de tecnología es algo que Maynard sugirió que la gente empiece a considerar, si aún no lo han hecho.
“Es absolutamente fundamental que los grupos y organizaciones encargados de hacer cumplir la ley estén al tanto de cómo la gente usa estas plataformas y cómo podrían usarlas potencialmente; de lo contrario, serán tomados por sorpresa”, dijo Maynard. “Simplemente ignorarlo o no actuar lo suficientemente rápido los coloca en una posición peligrosa y difícil”.
Póngase en contacto con Estelle Atkinson en [email protected]. Siga a @estelleatkinson.bsky.social en Bluesky y a @estellelilym en X.
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Eventos8 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024