Noticias

OpenAI confirma que los actores de amenazas usan ChatGPT para escribir malware

Published

on

OpenAI ha interrumpido más de 20 operaciones cibernéticas maliciosas abusando de su chatbot impulsado por IA, ChatGPT, para depurar y desarrollar malware, difundir información errónea, evadir la detección y realizar ataques de phishing.

El informe, que se centra en las operaciones desde principios de año, constituye la primera confirmación oficial de que se utilizan herramientas generativas de inteligencia artificial para mejorar las operaciones cibernéticas ofensivas.

Los primeros signos de tal actividad fueron reportados por Proofpoint en abril, quien sospechaba que TA547 (también conocido como “Scully Spider”) estaba implementando un cargador PowerShell escrito por IA para su carga útil final, el ladrón de información Rhadamanthys.

El mes pasado, los investigadores de HP Wolf informaron con gran confianza que los ciberdelincuentes que apuntaban a usuarios franceses estaban empleando herramientas de inteligencia artificial para escribir scripts utilizados como parte de una cadena de infección de varios pasos.

El último informe de OpenAI confirma el abuso de ChatGPT y presenta casos de actores de amenazas chinos e iraníes que lo aprovechan para mejorar la eficacia de sus operaciones.

Uso de ChatGPT en ataques reales

El primer actor de amenazas descrito por OpenAI es ‘dulceespectro,’ un adversario chino documentado por primera vez por los analistas de Cisco Talos en noviembre de 2023 como un grupo de amenazas de ciberespionaje dirigido a gobiernos asiáticos.

OpenAI informa que SweetSpecter los atacó directamente, enviando correos electrónicos de phishing con archivos adjuntos ZIP maliciosos enmascarados como solicitudes de soporte a las direcciones de correo electrónico personales de los empleados de OpenAI.

Si se abrían, los archivos adjuntos desencadenaban una cadena de infección, lo que provocaba que SugarGh0st RAT cayera en el sistema de la víctima.

Correo electrónico de phishing enviado a empleados de OpenAI
Correo electrónico de phishing enviado a empleados de OpenAI
Fuente: Punto de prueba

Tras una investigación más profunda, OpenAI descubrió que SweetSpecter estaba utilizando un grupo de cuentas ChatGPT que realizaban investigaciones de scripting y análisis de vulnerabilidades con la ayuda de la herramienta LLM.

Los actores de amenazas utilizaron ChatGPT para las siguientes solicitudes:

Actividad Categoría del marco LLM ATT&CK
Preguntar sobre vulnerabilidades en diversas aplicaciones. Reconocimiento informado por LLM
Preguntar cómo buscar versiones específicas de Log4j que sean vulnerables al RCE Log4Shell crítico. Reconocimiento informado por LLM
Preguntar sobre los sistemas de gestión de contenidos populares utilizados en el extranjero. Reconocimiento informado por LLM
Solicitar información sobre números CVE específicos. Reconocimiento informado por LLM
Preguntar cómo se fabrican los escáneres de Internet. Reconocimiento informado por LLM
Preguntar cómo se usaría sqlmap para cargar un shell web potencial en un servidor de destino. Investigación de vulnerabilidades asistida por LLM
Pidiendo ayuda para encontrar formas de explotar la infraestructura de un destacado fabricante de automóviles. Investigación de vulnerabilidades asistida por LLM
Proporcionar código y solicitar ayuda adicional utilizando servicios de comunicación para enviar mensajes de texto mediante programación. Técnicas de secuencias de comandos mejoradas por LLM
Solicitando ayuda para depurar el desarrollo de una extensión para una herramienta de ciberseguridad. Técnicas de secuencias de comandos mejoradas por LLM
Solicitar ayuda para depurar código que forma parte de un marco más amplio para enviar mensajes de texto mediante programación a números específicos del atacante. Desarrollo asistido por LLM
Preguntar por temas que los empleados del departamento gubernamental encontrarían interesantes y cuáles serían buenos nombres para los archivos adjuntos para evitar ser bloqueados. Ingeniería social respaldada por LLM
Solicitar variaciones de un mensaje de contratación laboral proporcionado por un atacante. Ingeniería social respaldada por LLM

El segundo caso se refiere al grupo amenazante afiliado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC) del gobierno iraní.CyberAv3ngers,’ conocido por apuntar a sistemas industriales en ubicaciones de infraestructura crítica en países occidentales.

OpenAI informa que las cuentas asociadas con este grupo de amenazas solicitaron a ChatGPT que generara credenciales predeterminadas en controladores lógicos programables (PLC) ampliamente utilizados, desarrollara scripts personalizados de bash y Python y ofuscara el código.

Los piratas informáticos iraníes también utilizaron ChatGPT para planificar su actividad posterior al compromiso, aprender cómo explotar vulnerabilidades específicas y elegir métodos para robar contraseñas de usuarios en sistemas macOS, como se detalla a continuación.

Actividad Categoría del marco LLM ATT&CK
Solicitar una lista de enrutadores industriales de uso común en Jordania. Reconocimiento informado por LLM
Solicitar una lista de protocolos industriales y puertos que pueden conectarse a Internet. Reconocimiento informado por LLM
Solicitar la contraseña predeterminada para un dispositivo Tridium Niagara. Reconocimiento informado por LLM
Solicitando el usuario y contraseña predeterminados de un enrutador industrial Hirschmann Serie RS. Reconocimiento informado por LLM
Solicitando vulnerabilidades reveladas recientemente en CrushFTP y Cisco Integrated Management Controller, así como vulnerabilidades más antiguas en el software Asterisk Voice over IP. Reconocimiento informado por LLM
Solicitar listas de empresas eléctricas, contratistas y PLC comunes en Jordania. Reconocimiento informado por LLM
Preguntar por qué un fragmento de código bash devuelve un error. Técnicas de secuencias de comandos mejoradas de LLM
Solicitando crear un cliente Modbus TCP/IP. Técnicas de secuencias de comandos mejoradas de LLM
Solicitar escanear una red en busca de vulnerabilidades explotables. Investigación de vulnerabilidad asistida por LLM
Solicitar escanear archivos zip en busca de vulnerabilidades explotables. Investigación de vulnerabilidad asistida por LLM
Solicitando un ejemplo de código fuente C que vacíe el proceso. Investigación de vulnerabilidad asistida por LLM
Preguntar cómo ofuscar la escritura de scripts vba en Excel. Evasión de detección de anomalías mejorada por LLM
Pedirle al modelo que ofusque el código (y proporcionar el código). Evasión de detección de anomalías mejorada por LLM
Preguntando cómo copiar un archivo SAM. Actividad posterior al compromiso asistida por LLM
Solicitando una aplicación alternativa a mimikatz. Actividad posterior al compromiso asistida por LLM
Preguntar cómo usar pwdump para exportar una contraseña. Actividad posterior al compromiso asistida por LLM
Preguntar cómo acceder a las contraseñas de los usuarios en MacOS. Actividad posterior al compromiso asistida por LLM

El tercer caso destacado en el informe de OpenAI preocupa Tormenta-0817también actores de amenazas iraníes.

Según se informa, ese grupo utilizó ChatGPT para depurar malware, crear un raspador de Instagram, traducir perfiles de LinkedIn al persa y desarrollar un malware personalizado para la plataforma Android junto con la infraestructura de comando y control de soporte, como se detalla a continuación.

Actividad Categoría del marco LLM ATT&CK
Buscando ayuda para depurar e implementar un raspador de Instagram. Técnicas de secuencias de comandos mejoradas por LLM
Traducción de perfiles de LinkedIn de profesionales de ciberseguridad paquistaníes al persa. Reconocimiento informado por LLM
Solicitando soporte de depuración y desarrollo en la implementación de malware para Android y la infraestructura de comando y control correspondiente. Desarrollo asistido por LLM

El malware creado con la ayuda del chatbot de OpenAI puede robar listas de contactos, registros de llamadas y archivos almacenados en el dispositivo, tomar capturas de pantalla, examinar el historial de navegación del usuario y obtener su posición precisa.

“En paralelo, STORM-0817 utilizó ChatGPT para respaldar el desarrollo del código del lado del servidor necesario para manejar las conexiones desde dispositivos comprometidos”, se lee en el informe de Open AI.

“Esto nos permitió ver que el servidor de comando y control para este malware es una configuración WAMP (Windows, Apache, MySQL y PHP/Perl/Python) y durante las pruebas estaba usando el dominio stickhero.[.]pro.”

Todas las cuentas de OpenAI utilizadas por los actores de amenazas mencionados anteriormente fueron prohibidas y los indicadores de compromiso asociados, incluidas las direcciones IP, se compartieron con socios de ciberseguridad.

Aunque ninguno de los casos descritos anteriormente brinda a los actores de amenazas nuevas capacidades para desarrollar malware, constituyen una prueba de que las herramientas de inteligencia artificial generativa pueden hacer que las operaciones ofensivas sean más eficientes para los actores poco calificados, ayudándolos en todas las etapas, desde la planificación hasta la ejecución.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version