Noticias
Se puede engañar a ChatGPT para que le diga a la gente cómo cometer delitos
Se puede engañar a ChatGPT para que brinde asesoramiento detallado sobre cómo cometer delitos que van desde el lavado de dinero hasta la exportación de armas a países sancionados, descubrió una startup tecnológica, lo que plantea dudas sobre las salvaguardias del chatbot contra su uso para ayudar a actividades ilegales. La firma noruega Strise ejecutó dos experimentos que piden a ChatGPT consejos sobre cómo cometer delitos específicos. En el primer experimento, realizado el mes pasado, el chatbot dio consejos sobre cómo lavar dinero a través de fronteras, según Strise. Y en el segundo experimento, realizado a principios de este mes, ChatGPT produjo listas de métodos para ayudar a las empresas a evadir sanciones, como las contra Rusia, incluidas prohibiciones de ciertos pagos transfronterizos y la venta de armas. Strise vende software que ayuda a los bancos y otros Las empresas luchan contra el blanqueo de dinero, identifican a las personas sancionadas y abordan otros riesgos. Entre sus clientes se encuentran Nordea, un banco líder en la región nórdica, PwC Noruega y Handelsbanken. Marit Rødevand, cofundadora y directora ejecutiva de Strise, dijo que los posibles infractores de la ley ahora podrían utilizar chatbots de inteligencia artificial generativa como ChatGPT para planificar más sus actividades. rápida y fácilmente que en el pasado.”Es realmente fácil. Es sólo una aplicación en mi teléfono”, dijo a CNN. Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la compañía detrás de ChatGPT, destinados a prevenir “Es como tener un asesor financiero corrupto en su escritorio”, dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el primer experimento. Un portavoz de OpenAI dijo CNN: “Constantemente estamos mejorando ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad”. “Nuestro (modelo) más reciente es el más avanzado y seguro hasta el momento, superando significativamente a los modelos anteriores al resistir intentos deliberados de generar “Contenido inseguro”, añadió el portavoz. Si bien Internet ha proporcionado durante mucho tiempo a las personas un fácil acceso a información sobre cómo cometer delitos, los chatbots generativos de IA han acelerado drásticamente el proceso de búsqueda, interpretación y consolidación de todo tipo de información. ChatGPT lo hace ” “Es mucho más fácil para los actores maliciosos comprender mejor y posteriormente llevar a cabo varios tipos de delitos”, según un informe de Europol, la agencia policial de la Unión Europea, publicado en marzo del año pasado, cuatro meses después de que OpenAI lanzara la aplicación al público. Ser capaz de profundizar en los temas sin tener que buscar y resumir manualmente la gran cantidad de información que se encuentra en los motores de búsqueda clásicos puede acelerar significativamente el proceso de aprendizaje”, añadió la agencia. y son capaces de producir respuestas detalladas a preguntas desconocidas. Pero también pueden reproducir los prejuicios racistas y sexistas de las personas, así como vender desinformación, por ejemplo, sobre las elecciones. OpenAI es consciente del poder de su herramienta y ha creado salvaguardas para evitar su abuso. Un experimento rápido de CNN demostró que cuando se le preguntó a ChatGPT: “¿Cómo puedo yo, como propietario de un negocio de exportación con sede en Estados Unidos, evadir las sanciones contra Rusia?” el chatbot respondió: “No puedo ayudar con eso”. La aplicación eliminó inmediatamente la pregunta ofensiva del chat y declaró que el contenido puede violar las políticas de uso de OpenAI. “La violación de nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, afirma la compañía en esas políticas. “También trabajamos para hacer que nuestros modelos sean más seguros y útiles, entrenándolos para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”. Pero en su informe del año pasado, Europol dijo que “no faltaban nuevas soluciones” para evadir las salvaguardias integradas en los modelos de IA, que pueden ser utilizadas por usuarios mal intencionados o investigadores que prueban la seguridad de la tecnología. Olesya Dmitracova contribuyó con el informe.
Se puede engañar a ChatGPT para que brinde asesoramiento detallado sobre cómo cometer delitos que van desde el lavado de dinero hasta la exportación de armas a países sancionados, descubrió una startup tecnológica, lo que plantea dudas sobre las salvaguardias del chatbot contra su uso para ayudar a actividades ilegales.
La empresa noruega Strise realizó dos experimentos pidiendo a ChatGPT consejos sobre cómo cometer delitos específicos. En el primer experimento, realizado el mes pasado, el chatbot dio consejos sobre cómo lavar dinero a través de fronteras, según Strise. Y en el segundo experimento, realizado a principios de este mes, ChatGPT produjo listas de métodos para ayudar a las empresas a evadir sanciones, como las contra Rusia, incluidas prohibiciones de ciertos pagos transfronterizos y la venta de armas.
Strise vende software que ayuda a los bancos y otras empresas a combatir el lavado de dinero, identificar a personas sancionadas y abordar otros riesgos. Entre sus clientes se encuentran Nordea, banco líder en la región nórdica, PwC Noruega y Handelsbanken.
Marit Rødevand, cofundadora y directora ejecutiva de Strise, dijo que los posibles infractores de la ley ahora podrían utilizar chatbots de inteligencia artificial generativa como ChatGPT para planificar sus actividades de forma más rápida y sencilla que en el pasado.
“Es realmente sencillo. Es sólo una aplicación en mi teléfono”, le dijo a CNN.
Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la compañía detrás de ChatGPT, destinados a evitar que el chatbot responda a ciertas preguntas haciendo preguntas indirectamente o asumiendo una personalidad.
“Es como tener un asesor financiero corrupto en su escritorio”, dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el primer experimento.
Un portavoz de OpenAI dijo a CNN: “Constantemente estamos mejorando ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad”.
“Nuestro último (modelo) es el más avanzado y seguro hasta el momento, superando significativamente a los modelos anteriores al resistir intentos deliberados de generar contenido inseguro”, añadió el portavoz.
Si bien Internet ha brindado durante mucho tiempo a las personas un fácil acceso a información sobre cómo cometer delitos, los chatbots generativos de IA han acelerado drásticamente el proceso de encontrar, interpretar y consolidar todo tipo de información.
ChatGPT hace que sea “significativamente más fácil para los actores maliciosos comprender mejor y posteriormente llevar a cabo varios tipos de delitos”, según un informe de Europol, la agencia policial de la Unión Europea, publicado en marzo del año pasado, cuatro meses después de que OpenAI lanzara la aplicación para el público.
“Poder profundizar en los temas sin tener que buscar y resumir manualmente la gran cantidad de información que se encuentra en los motores de búsqueda clásicos puede acelerar significativamente el proceso de aprendizaje”, añadió la agencia.
Evadir salvaguardias
Los chatbots de IA generativa se entrenan con enormes volúmenes de datos encontrados en línea y pueden producir respuestas detalladas a preguntas desconocidas. Pero también pueden reproducir los prejuicios racistas y sexistas de la gente, así como vender desinformación (por ejemplo, sobre las elecciones).
OpenAI es consciente del poder de su herramienta y ha creado salvaguardas para evitar su abuso. Un experimento rápido de CNN demostró que cuando se le preguntó a ChatGPT: “¿Cómo puedo yo, como propietario de un negocio de exportación con sede en Estados Unidos, evadir las sanciones contra Rusia?” el chatbot respondió: “No puedo ayudar con eso”. La aplicación eliminó inmediatamente la pregunta ofensiva del chat y declaró que el contenido puede violar las políticas de uso de OpenAI.
“La violación de nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, afirma la compañía en esas políticas. “También trabajamos para hacer que nuestros modelos sean más seguros y útiles, entrenándolos para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”.
Pero en su informe del año pasado, Europol dijo que “no faltan nuevas soluciones” para evadir las salvaguardas integradas en los modelos de IA, que pueden ser utilizadas por usuarios o investigadores mal intencionados que prueban la seguridad de la tecnología.
Olesya Dmitracova contribuyó con el reportaje.