Noticias
OpenAI confirma que los actores de amenazas usan ChatGPT para escribir malware

OpenAI ha interrumpido más de 20 operaciones cibernéticas maliciosas abusando de su chatbot impulsado por IA, ChatGPT, para depurar y desarrollar malware, difundir información errónea, evadir la detección y realizar ataques de phishing.
El informe, que se centra en las operaciones desde principios de año, constituye la primera confirmación oficial de que se utilizan herramientas generativas de inteligencia artificial para mejorar las operaciones cibernéticas ofensivas.
Los primeros signos de tal actividad fueron reportados por Proofpoint en abril, quien sospechaba que TA547 (también conocido como “Scully Spider”) estaba implementando un cargador PowerShell escrito por IA para su carga útil final, el ladrón de información Rhadamanthys.
El mes pasado, los investigadores de HP Wolf informaron con gran confianza que los ciberdelincuentes que apuntaban a usuarios franceses estaban empleando herramientas de inteligencia artificial para escribir scripts utilizados como parte de una cadena de infección de varios pasos.
El último informe de OpenAI confirma el abuso de ChatGPT y presenta casos de actores de amenazas chinos e iraníes que lo aprovechan para mejorar la eficacia de sus operaciones.
Uso de ChatGPT en ataques reales
El primer actor de amenazas descrito por OpenAI es ‘dulceespectro,’ un adversario chino documentado por primera vez por los analistas de Cisco Talos en noviembre de 2023 como un grupo de amenazas de ciberespionaje dirigido a gobiernos asiáticos.
OpenAI informa que SweetSpecter los atacó directamente, enviando correos electrónicos de phishing con archivos adjuntos ZIP maliciosos enmascarados como solicitudes de soporte a las direcciones de correo electrónico personales de los empleados de OpenAI.
Si se abrían, los archivos adjuntos desencadenaban una cadena de infección, lo que provocaba que SugarGh0st RAT cayera en el sistema de la víctima.

Fuente: Punto de prueba
Tras una investigación más profunda, OpenAI descubrió que SweetSpecter estaba utilizando un grupo de cuentas ChatGPT que realizaban investigaciones de scripting y análisis de vulnerabilidades con la ayuda de la herramienta LLM.
Los actores de amenazas utilizaron ChatGPT para las siguientes solicitudes:
Actividad | Categoría del marco LLM ATT&CK |
Preguntar sobre vulnerabilidades en diversas aplicaciones. | Reconocimiento informado por LLM |
Preguntar cómo buscar versiones específicas de Log4j que sean vulnerables al RCE Log4Shell crítico. | Reconocimiento informado por LLM |
Preguntar sobre los sistemas de gestión de contenidos populares utilizados en el extranjero. | Reconocimiento informado por LLM |
Solicitar información sobre números CVE específicos. | Reconocimiento informado por LLM |
Preguntar cómo se fabrican los escáneres de Internet. | Reconocimiento informado por LLM |
Preguntar cómo se usaría sqlmap para cargar un shell web potencial en un servidor de destino. | Investigación de vulnerabilidades asistida por LLM |
Pidiendo ayuda para encontrar formas de explotar la infraestructura de un destacado fabricante de automóviles. | Investigación de vulnerabilidades asistida por LLM |
Proporcionar código y solicitar ayuda adicional utilizando servicios de comunicación para enviar mensajes de texto mediante programación. | Técnicas de secuencias de comandos mejoradas por LLM |
Solicitando ayuda para depurar el desarrollo de una extensión para una herramienta de ciberseguridad. | Técnicas de secuencias de comandos mejoradas por LLM |
Solicitar ayuda para depurar código que forma parte de un marco más amplio para enviar mensajes de texto mediante programación a números específicos del atacante. | Desarrollo asistido por LLM |
Preguntar por temas que los empleados del departamento gubernamental encontrarían interesantes y cuáles serían buenos nombres para los archivos adjuntos para evitar ser bloqueados. | Ingeniería social respaldada por LLM |
Solicitar variaciones de un mensaje de contratación laboral proporcionado por un atacante. | Ingeniería social respaldada por LLM |
El segundo caso se refiere al grupo amenazante afiliado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC) del gobierno iraní.CyberAv3ngers,’ conocido por apuntar a sistemas industriales en ubicaciones de infraestructura crítica en países occidentales.
OpenAI informa que las cuentas asociadas con este grupo de amenazas solicitaron a ChatGPT que generara credenciales predeterminadas en controladores lógicos programables (PLC) ampliamente utilizados, desarrollara scripts personalizados de bash y Python y ofuscara el código.
Los piratas informáticos iraníes también utilizaron ChatGPT para planificar su actividad posterior al compromiso, aprender cómo explotar vulnerabilidades específicas y elegir métodos para robar contraseñas de usuarios en sistemas macOS, como se detalla a continuación.
Actividad | Categoría del marco LLM ATT&CK |
Solicitar una lista de enrutadores industriales de uso común en Jordania. | Reconocimiento informado por LLM |
Solicitar una lista de protocolos industriales y puertos que pueden conectarse a Internet. | Reconocimiento informado por LLM |
Solicitar la contraseña predeterminada para un dispositivo Tridium Niagara. | Reconocimiento informado por LLM |
Solicitando el usuario y contraseña predeterminados de un enrutador industrial Hirschmann Serie RS. | Reconocimiento informado por LLM |
Solicitando vulnerabilidades reveladas recientemente en CrushFTP y Cisco Integrated Management Controller, así como vulnerabilidades más antiguas en el software Asterisk Voice over IP. | Reconocimiento informado por LLM |
Solicitar listas de empresas eléctricas, contratistas y PLC comunes en Jordania. | Reconocimiento informado por LLM |
Preguntar por qué un fragmento de código bash devuelve un error. | Técnicas de secuencias de comandos mejoradas de LLM |
Solicitando crear un cliente Modbus TCP/IP. | Técnicas de secuencias de comandos mejoradas de LLM |
Solicitar escanear una red en busca de vulnerabilidades explotables. | Investigación de vulnerabilidad asistida por LLM |
Solicitar escanear archivos zip en busca de vulnerabilidades explotables. | Investigación de vulnerabilidad asistida por LLM |
Solicitando un ejemplo de código fuente C que vacíe el proceso. | Investigación de vulnerabilidad asistida por LLM |
Preguntar cómo ofuscar la escritura de scripts vba en Excel. | Evasión de detección de anomalías mejorada por LLM |
Pedirle al modelo que ofusque el código (y proporcionar el código). | Evasión de detección de anomalías mejorada por LLM |
Preguntando cómo copiar un archivo SAM. | Actividad posterior al compromiso asistida por LLM |
Solicitando una aplicación alternativa a mimikatz. | Actividad posterior al compromiso asistida por LLM |
Preguntar cómo usar pwdump para exportar una contraseña. | Actividad posterior al compromiso asistida por LLM |
Preguntar cómo acceder a las contraseñas de los usuarios en MacOS. | Actividad posterior al compromiso asistida por LLM |
El tercer caso destacado en el informe de OpenAI preocupa Tormenta-0817también actores de amenazas iraníes.
Según se informa, ese grupo utilizó ChatGPT para depurar malware, crear un raspador de Instagram, traducir perfiles de LinkedIn al persa y desarrollar un malware personalizado para la plataforma Android junto con la infraestructura de comando y control de soporte, como se detalla a continuación.
Actividad | Categoría del marco LLM ATT&CK |
Buscando ayuda para depurar e implementar un raspador de Instagram. | Técnicas de secuencias de comandos mejoradas por LLM |
Traducción de perfiles de LinkedIn de profesionales de ciberseguridad paquistaníes al persa. | Reconocimiento informado por LLM |
Solicitando soporte de depuración y desarrollo en la implementación de malware para Android y la infraestructura de comando y control correspondiente. | Desarrollo asistido por LLM |
El malware creado con la ayuda del chatbot de OpenAI puede robar listas de contactos, registros de llamadas y archivos almacenados en el dispositivo, tomar capturas de pantalla, examinar el historial de navegación del usuario y obtener su posición precisa.
“En paralelo, STORM-0817 utilizó ChatGPT para respaldar el desarrollo del código del lado del servidor necesario para manejar las conexiones desde dispositivos comprometidos”, se lee en el informe de Open AI.
“Esto nos permitió ver que el servidor de comando y control para este malware es una configuración WAMP (Windows, Apache, MySQL y PHP/Perl/Python) y durante las pruebas estaba usando el dominio stickhero.[.]pro.”
Todas las cuentas de OpenAI utilizadas por los actores de amenazas mencionados anteriormente fueron prohibidas y los indicadores de compromiso asociados, incluidas las direcciones IP, se compartieron con socios de ciberseguridad.
Aunque ninguno de los casos descritos anteriormente brinda a los actores de amenazas nuevas capacidades para desarrollar malware, constituyen una prueba de que las herramientas de inteligencia artificial generativa pueden hacer que las operaciones ofensivas sean más eficientes para los actores poco calificados, ayudándolos en todas las etapas, desde la planificación hasta la ejecución.