Hace dos años, ChatGPT irrumpió en escena, marcando el comienzo de una nueva era de inteligencia artificial. La integración de tecnologías de inteligencia artificial como ChatGPT se ha convertido en amiga y enemiga en la batalla en curso para proteger nuestro mundo interconectado.
No se puede negar que ChatGPT y modelos de IA similares han tenido un gran impacto en las defensas de ciberseguridad. Ser capaz de analizar datos e identificar patrones que podrían pasarse por alto fácilmente si se revisan manualmente.
Sin embargo, la accesibilidad de las herramientas de inteligencia artificial también ha reducido la barrera de entrada para los ciberdelincuentes. Los piratas informáticos criminales ahora pueden aprovechar ChatGPT para crear correos electrónicos de phishing más convincentes, generar códigos maliciosos e incluso crear deepfakes para ataques de ingeniería social.
Los ataques de ransomware, que ya representan una amenaza importante, se han vuelto más sofisticados con la IA. El ataque de 2023 a la filial estadounidense del ICBC es un ejemplo significativo.
Además, las herramientas impulsadas por IA como ChatGPT han hecho que los ataques de correo electrónico empresarial (BEC) sean aún más peligrosos. Estos modelos ahora pueden automatizar (y en algunos casos imitar) los estilos de redacción ejecutiva, haciendo que los correos electrónicos fraudulentos sean casi indistinguibles de los legítimos.
La tecnología de clonación de voz, impulsada por IA, también ha añadido una nueva dimensión al robo de credenciales. Los ataques “Vishing” que utilizan voces falsas de ejecutivos de empresas representan una amenaza significativa incluso para las organizaciones más preocupadas por la seguridad. En un ejemplo destacado, los piratas informáticos utilizaron una falsificación del director ejecutivo de LastPass e intentaron convencer a un empleado para que realizara una transferencia bancaria de gran tamaño.
De manera similar, los videos generados por IA pueden usarse para engañar a víctimas desprevenidas. El alcance de estos ataques ahora trasciende las barreras del idioma. La IA puede generar contenido escrito, de audio o de vídeo impecable en cualquier idioma, eliminando los signos reveladores de ataques pasados que a menudo estuvieron plagados de errores ortográficos y gramaticales.
Defensor principal de la concientización sobre la seguridad en Knowbe4
Respondiendo al desafío de la ciberseguridad de la IA
Las organizaciones están implementando cada vez más funciones de IA dentro de las tecnologías de seguridad para combatir las amenazas en evolución, y será difícil encontrar un proveedor de seguridad que no incorpore un nivel de IA en sus ofertas. Sin embargo, a pesar de las capacidades de ChatGPT y otros, estas no reemplazan la experiencia humana en ciberseguridad, que siempre será necesaria para garantizar una supervisión adecuada y que las recomendaciones de la IA sean precisas y contextualmente sólidas.
Además, desde una perspectiva de ingeniería social en particular, tratar de identificar cuándo un ataque es generado por IA puede ser una forma incorrecta de abordar el desafío. Más bien, habría que observar de dónde se origina el ataque, qué solicita y qué tipo de urgencia se enfatiza. Al hacerlo, es más probable que las personas puedan detectar y defenderse de los ataques, independientemente de si son generados por IA o no.
Del mismo modo, en un contexto más amplio, la higiene cibernética fundamental sigue siendo crucial. La capacitación de los empleados, un fuerte control de acceso, parches y planificación de respuesta a incidentes, entre otras prácticas, siguen siendo vitales para construir una organización segura.
Lo que depara el futuro
De cara al futuro, está claro que ChatGPT y otras herramientas de inteligencia artificial seguirán evolucionando y manifestándose de diferentes maneras. Con el tiempo será tan omnipresente como los motores de búsqueda de Internet.
Sin duda, el desarrollo continuo de la IA impulsará la innovación en actividades de ciberseguridad tanto ofensivas como defensivas. Es probable que los atacantes aprovechen las capacidades para ataques más complejos y multivectoriales. Mientras que los defensores utilizarán la IA para identificar e incluso predecir amenazas, automatizar la respuesta a incidentes y convertirse en un compañero confiable.
Sin embargo, es fundamental recordar que la IA, incluido ChatGPT, es en última instancia una herramienta y, como cualquier herramienta, puede utilizarse con fines tanto constructivos como destructivos. El uso ético de la IA en ciberseguridad se convertirá en una preocupación primordial. Para navegar esto, necesitamos tres elementos clave:
Legislación
Una legislación inteligente que siga el ritmo de los avances tecnológicos y equilibre la innovación con las preocupaciones de seguridad y privacidad será fundamental a medida que avance la IA. La Ley de IA de la UE, que se espera esté finalizada a finales de 2024, tiene como objetivo regular la IA utilizando un enfoque basado en el riesgo, clasificándola en cuatro categorías: riesgo inaceptable, alto, limitado y mínimo. La IA de alto riesgo (por ejemplo, en atención médica o aplicación de la ley) enfrentará requisitos estrictos, mientras que las aplicaciones de riesgo mínimo seguirán en gran medida sin regular. Las sanciones por incumplimiento pueden alcanzar los 30 millones de euros o el 6% de la facturación global.
El enfoque del Reino Unido, sin embargo, es más flexible y se centra en cinco principios: seguridad, transparencia, equidad, rendición de cuentas y contestabilidad. En lugar de una ley única, permite a los reguladores existentes supervisar la IA dentro de sus sectores. Esta estrategia tiene como objetivo equilibrar la innovación con la seguridad, posicionando al Reino Unido como un centro amigable con la tecnología.
Marcos éticos
Los marcos éticos sólidos que guían el desarrollo y la implementación de la IA en la ciberseguridad garantizarán su uso responsable. Por ejemplo, previenen los prejuicios, la discriminación y las violaciones de la privacidad y al mismo tiempo promueven la transparencia, la equidad y la rendición de cuentas. Esto es fundamental para generar confianza en los sistemas de IA, sin mencionar la protección de los derechos humanos y la prevención de daños a medida que la IA se integra más en sistemas críticos como las finanzas, la atención médica y la aplicación de la ley.
Educación y sensibilización
Se necesitarán programas continuos de educación y concientización que ayuden a los profesionales de la ciberseguridad, a los formuladores de políticas y al público en general a comprender las implicaciones de la IA en el ecosistema digital en cada paso del camino de la IA. Cuanto más vemos, escuchamos y leemos sobre los problemas y desafíos de la IA, más podremos utilizar nuestro pensamiento crítico para tomar mejores decisiones y evitar una dependencia excesiva de los sistemas de IA.
Al centrarnos en estas áreas, podemos trabajar hacia un futuro en el que la IA mejore la postura colectiva de ciberseguridad del mundo sin comprometer nuestros valores o libertades. Y si bien puede que no sea fácil, es el camino esencial necesario para permitir que la IA sea una parte integral, pero gestionada, de un mundo digital más seguro para todos.
Hemos presentado el mejor software de cifrado.
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro