Noticias

OpenAI está usando su tecnología para matar

Published

on

A principios de este mes, la empresa que nos ofrece ChatGPT anunció su asociación con la empresa de armas con sede en California, Anduril, para producir armas de inteligencia artificial. El sistema OpenAI-Anduril, que se probó en California a finales de noviembre, permite compartir datos entre partes externas para la toma de decisiones en el campo de batalla. Esto encaja perfectamente con los planes del ejército estadounidense y de OpenAI para normalizar el uso de la IA en el campo de batalla.

Por Nuvpreet Kalra y Tim Biondo

Anduril, con sede en Costa Mesa, fabrica drones, misiles y sistemas de radar impulsados ​​por inteligencia artificial, incluidas torres de vigilancia y sistemas Sentry, que actualmente se utilizan en bases militares estadounidenses en todo el mundo, así como en la frontera entre Estados Unidos y México y en la costa británica para detectar migrantes en barcos. El 3 de diciembre, recibieron un contrato de tres años con el Pentágono para un sistema que brinda a los soldados soluciones de inteligencia artificial durante los ataques.

En enero, OpenAI eliminó una prohibición directa en su política de uso sobre “actividades que tienen un alto riesgo de daño físico”, que incluía específicamente “militares y guerras” y “desarrollo de armas”. Menos de una semana después de hacerlo, la compañía anunció una asociación con el Pentágono en ciberseguridad.

Si bien podrían haber eliminado la prohibición de fabricar armas, la incursión de OpenAI en la industria bélica está en total antítesis de sus propios estatutos. Su propia proclamación para construir “AGI segura y beneficiosa [Artificial Generative Intelligence]” que no “daña a la humanidad” es ridículo cuando están usando tecnología para matar. ChatGPT podría, y probablemente pronto lo hará, escribir código para un arma automática, analizar información para bombardeos o ayudar en invasiones y ocupaciones.

Todos deberíamos estar asustados por este uso de la IA para la muerte y la destrucción. Pero esto no es nuevo. Israel y Estados Unidos llevan años probando y utilizando la IA en Palestina. De hecho, Hebrón ha sido apodada una “ciudad inteligente” a medida que la ocupación impone su tiranía mediante la perforación de sensores de movimiento y calor, tecnologías de reconocimiento facial y vigilancia por CCTV. En el centro de esta vigilancia opresiva está el Sistema Lobo Azul, una herramienta de inteligencia artificial que escanea los rostros de los palestinos cuando son fotografiados por soldados de ocupación israelíes y remite a una base de datos biométrica en la que se almacena información sobre ellos. Al ingresar la foto en el sistema, cada persona es clasificada mediante una clasificación codificada por colores según su “nivel de amenaza” percibido para dictar si el soldado debe permitirle pasar o arrestarlo. Los soldados de las FOI son recompensados ​​con premios por tomar la mayor cantidad de fotografías, lo que han denominado “Facebook para los palestinos”, según revelaciones del Washington Post en 2021.

La tecnología de guerra de OpenAI surge cuando la administración Biden está presionando para que Estados Unidos utilice la tecnología para “cumplir objetivos de seguridad nacional”. De hecho, esto era parte del título de un memorando de la Casa Blanca publicado en octubre de este año en el que se pedía un rápido desarrollo de la inteligencia artificial “especialmente en el contexto de los sistemas de seguridad nacional”. Si bien no se nombra explícitamente a China, está claro que la percepción de una “carrera armamentista de IA” con China también es una motivación central de la administración Biden para tal llamado. No se trata únicamente de armas para la guerra, sino también de carreras por el desarrollo de tecnología en general. A principios de este mes, Estados Unidos prohibió la exportación de chips HBM a China, un componente crítico de la inteligencia artificial y las unidades de procesamiento de gráficos (GPU) de alto nivel. El ex director ejecutivo de Google, Eric Schmidt, advirtió que China está dos o tres años por delante de Estados Unidos en lo que respecta a la IA, un cambio importante con respecto a sus declaraciones de principios de este año, cuando comentó que Estados Unidos está por delante de China. Cuando dice que hay una “matriz de escalada de amenazas” cuando hay avances en la IA, revela que Estados Unidos ve la tecnología sólo como una herramienta de guerra y una forma de afirmar la hegemonía. La IA es lo último en la implacable – y peligrosa – provocación y alarmismo de Estados Unidos con China, a quien no pueden soportar que avancen.

En respuesta al memorando de la Casa Blanca, OpenAI emitió una declaración propia en la que reafirmó muchas de las líneas de la Casa Blanca sobre los “valores democráticos” y la “seguridad nacional”. Pero ¿qué tiene de democrático una empresa que desarrolla tecnología para atacar y bombardear mejor a las personas? ¿A quién protege la recopilación de información para determinar mejor la tecnología bélica? Esto seguramente revela la alineación de la empresa con la retórica anti-China y las justificaciones imperialistas de la administración Biden. Como empresa que seguramente ha impulsado los sistemas AGI dentro de la sociedad en general, es profundamente alarmante que hayan abandonado todos los códigos y se hayan lanzado directamente al Pentágono. Si bien no es sorprendente que empresas como Palantir o incluso la propia Anduril estén utilizando la IA para la guerra, de empresas como OpenAI (una organización sin fines de lucro supuestamente impulsada por una misión) deberíamos esperar algo mejor.

La IA se está utilizando para agilizar los asesinatos. En la frontera entre Estados Unidos y México, en Palestina y en los puestos imperiales estadounidenses en todo el mundo. Si bien los sistemas de inteligencia artificial parecen inocentemente integrados en nuestra vida diaria, desde los motores de búsqueda hasta los sitios de transmisión de música, debemos olvidar que estas mismas empresas están utilizando la misma tecnología de manera letal. Si bien ChatGPT puede brindarle diez formas de protestar, es probable que esté entrenado para matar, mejor y más rápido.

Desde la máquina de guerra hasta nuestro planeta, la IA en manos de los imperialistas estadounidenses sólo significa más ganancias para ellos y más devastación y destrucción para todos nosotros.


Nuvpreet Kalra es el productor de contenido digital de CODEPINK. Nuvpreet obtuvo una Licenciatura en Política y Sociología en la Universidad de Cambridge y una Maestría en Igualdad en Internet en la Universidad de las Artes de Londres. Como estudiante formó parte de movimientos de desinversión y descolonización, así como de grupos antirracistas y antiimperialistas. Nuvpreet se unió a CODEPINK como pasante en 2023 y ahora produce contenido digital y para redes sociales. En Inglaterra, se organiza con grupos por la liberación, la abolición y el antiimperialismo de Palestina.

Tim Biondo es el director de comunicaciones digitales de CODEPINK. Tienen una licenciatura en Estudios de la Paz de la Universidad George Washington.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version