Noticias
El hombre que hizo estallar un Cybertruck usó ChatGPT. ¿Debería esto generar preocupación sobre la IA?
Los expertos están divididos sobre si el papel que jugó ChatGPT en los planes para hacer explotar un Tesla Cybertruck afuera del hotel Trump International el 1 de enero debería generar preocupaciones sobre el uso seguro de la inteligencia artificial, pero muchos coincidieron en que la explosión del día de Año Nuevo resalta el hecho de que las políticas de salvaguardia El uso de la IA se está quedando atrás a medida que la tecnología avanza.
El Sargento Primero del Ejército de EE.UU. Matthew Livelsberger le hizo a ChatGPT una serie de preguntas sobre cómo adquirir y usar materiales explosivos el día antes de alquilar un Cybertruck en Denver y comenzar su viaje a Las Vegas, donde se disparó fatalmente en la cabeza justo antes de que su Cybertruck explotara, dijeron las autoridades. Siete personas resultaron heridas en la explosión.
Las consultas de inteligencia artificial de Livelsberger incluyeron preguntas como “¿Cuál es el límite legal para comprar tannerita en Colorado” y “¿Qué pistola podría activarla?”, según el Departamento de Policía Metropolitana. La tannerita es una marca de objetivos de rifle reactivos que, si se disparan, explotan.
Cuando un periodista del Review-Journal le hizo a ChatGPT las mismas preguntas que Livelsberger, el software proporcionó respuestas detalladas a 21 de las 22 consultas. La única pregunta que ChatGPT no respondió, citando una violación de sus políticas de uso, estaba relacionada con qué munición se necesitaría para asegurarse de que los materiales explosivos fueran activados.
Hacer estallar el Tesla Cybertruck fue un delito procesable, destacó Wendell Wallach, bioético y autor cuyo trabajo se centra en la ética y la gobernanza de las tecnologías emergentes. A Wallach no le sorprendió el uso de ChatGPT por parte de Livelsberger y dijo que “era sólo cuestión de tiempo” antes de que ChatGPT fuera reclutado para dicha ayuda, pero dijo que le preocupaba la falta de responsabilidad.
“El crimen se comete con cómplices, pero los cómplices o no son humanos o son humanos que están protegidos de la responsabilidad porque todo esto fue filtrado a través de un sistema computacional”, dijo Wallach.
Los expertos explicaron que ChatGPT en sí no puede saber que le están haciendo preguntas peligrosas. Solo puede leer el idioma y devolver la respuesta estadísticamente más probable. Todas las salvaguardas implementadas para restringir lo que el chatbot dirá o no tendrán que ser establecidas por sus desarrolladores.
“Las corporaciones se sientan ahí con el mantra de que lo bueno superará con creces a lo malo”, dijo Wallach sobre el desarrollo de la IA generativa. “Pero eso no está exactamente claro”.
‘Información ya disponible públicamente en Internet’
Una declaración compartida con el Review-Journal de OpenAI, la compañía detrás de ChatGPT, decía: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de inteligencia artificial se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino”.
“En este caso, ChatGPT respondió con información que ya estaba disponible públicamente en Internet”, dijo el portavoz de OpenAI.
Este punto fue clave para Andrew Maynard, profesor de la Universidad Estatal de Arizona cuyo trabajo se centra en navegar las transiciones tecnológicas avanzadas. “Por lo que puedo ver más allá del simple uso de la herramienta, no hay nada allí que no pueda haber encontrado en otro lugar”, dijo Maynard.
Si bien Maynard dijo que siente que existen peligros potenciales con plataformas como ChatGPT, las interacciones de Livelsberger con el chatbot no llegaron a ese umbral. “No parece haber evidencia de que haya algo fundamentalmente mal con ChatGPT”, dijo. Si el chatbot hubiera obtenido información difícil de conseguir sobre la construcción de un arma biológica, entonces Maynard dijo que se preocuparía.
La cuestión de si el fácil acceso a información potencialmente dañina es un problema anterior a la IA generativa, según David Gunkel, profesor de la Universidad del Norte de Illinois, que también se describe a sí mismo como un filósofo de la tecnología. “Hace tres o cuatro décadas, se podría haber hecho la misma pregunta sobre la biblioteca pública”, dijo Gunkel.
La diferencia entre ChatGPT y un motor de búsqueda radica en la velocidad del chatbot y la interfaz de usuario, explicó Gunkel. Si Livelsberger hubiera utilizado un motor de búsqueda para hacer las mismas preguntas, habría tenido que revisar la lista de resultados proporcionados y leer documentos para encontrar la información específica que estaba buscando.
Cuando el Review-Journal le hizo a ChatGPT las mismas 22 preguntas que Livelsberger, el chatbot tardó menos de ocho minutos en responder directamente a todas ellas.
‘Las políticas evolucionarán en función de lo que aprendamos con el tiempo’
Emma Pierson, profesora de informática en la Universidad de California, Berkeley, afiliada al Centro para la IA compatible con humanos, dijo que el tipo de contenido que ChatGPT proporcionó a Livelsberger, que incluía listas de armas que podían encender materiales explosivos, parecía “sencillamente como el tipo de cosas que quieres que el modelo simplemente cierre”.
Si OpenAI no quiere que sus modelos proporcionen información peligrosa, y el software la proporciona de todos modos, esto es “malo en sí mismo”, dijo Pierson, porque sugiere que los controles establecidos por la empresa para evitar este tipo de información son no es suficiente.
Las políticas de uso de ChatGPT de OpenAI, que se actualizaron por última vez el 10 de enero de 2024, dictan que los modelos están capacitados “para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”.
“Creemos que aprender del uso en el mundo real es un componente fundamental para crear y lanzar sistemas de IA cada vez más seguros. No podemos predecir todos los usos beneficiosos o abusivos de nuestra tecnología, por lo que monitoreamos de manera proactiva nuevas tendencias de abuso. Nuestras políticas evolucionarán en función de lo que aprendamos con el tiempo”, afirman las políticas, que están disponibles en el sitio web de OpenAI.
OpenAI no respondió a las preguntas sobre si se cambiará o no la política tras la explosión del Cybertruck.
Va en contra de las políticas de uso de OpenAI promover o participar en actividades ilegales o utilizar los servicios de OpenAI para dañarse a uno mismo o a otros, incluso mediante el desarrollo o el uso de armas, según el sitio web de OpenAI.
Gunkel dijo que siente que ChatGPT de OpenAI fue lanzado al mercado antes de que el producto se sometiera a pruebas internas exhaustivas. “Una explosión de este tipo es grande y dramática”, dijo Gunkel, pero hay “cosas más pequeñas” que apuntan hacia su conclusión, concretamente sesgos en el algoritmo o alucinaciones, que son cosas que “suenan bien, pero no son correctas”. ”, dijo.
“Se ha hablado de poner freno a la IA”, dijo Gunkel. “Estas cosas suenan bien, pero generalmente no funcionan en la práctica”.
Varios expertos coincidieron en que el camino correcto a seguir es afrontar los desafíos que presenta la IA generativa y asegurarse de que existan leyes y políticas para prevenir posibles daños.
¿Momento de aprendizaje para las fuerzas del orden?
Para Corynne McSherry, directora legal de Electronic Frontier Foundation, las preocupaciones en torno al uso de ChatGPT por parte de Livelsberger son exageradas. “La ansiedad por el uso de ChatGPT es un reflejo de la ansiedad general que lo rodea”, dijo. “ChatGPT es una herramienta”.
McSherry dijo que la ansiedad pública en torno al uso de la IA generativa termina “distrayéndonos de un conjunto de preguntas más importantes”, como por ejemplo por qué Livelsberger hizo lo que hizo. “Éstas son preguntas más difíciles, pero probablemente más importantes”, dijo McSherry. También son preguntas que las autoridades todavía estaban tratando de responder, dijo el sheriff de Metro Kevin McMahill en una sesión informativa el 6 de enero.
No obstante, McMahill dijo que el uso de ChatGPT en los planes de Livelsberger era un “momento preocupante”.
“Este es el primer incidente del que tengo conocimiento en suelo estadounidense donde se utiliza ChatGPT para ayudar a un individuo a construir un dispositivo en particular”, dijo McMahill en la sesión informativa del 6 de enero. “Es instructivo para nosotros”.
McMahill agregó que no creía que hubiera sido posible que las búsquedas ChatGPT de Livelsberger hubieran levantado alguna señal antes de la explosión. Este tipo de tecnología es algo que Maynard sugirió que la gente empiece a considerar, si aún no lo han hecho.
“Es absolutamente fundamental que los grupos y organizaciones encargados de hacer cumplir la ley estén al tanto de cómo la gente usa estas plataformas y cómo podrían usarlas potencialmente; de lo contrario, serán tomados por sorpresa”, dijo Maynard. “Simplemente ignorarlo o no actuar lo suficientemente rápido los coloca en una posición peligrosa y difícil”.
Póngase en contacto con Estelle Atkinson en eatkinson@reviewjournal.com. Siga a @estelleatkinson.bsky.social en Bluesky y a @estellelilym en X.