Noticias
Revelado: Militares israelí que crea una herramienta similar a Chatgpt utilizando una gran colección de datos de vigilancia palestina | Israel

La agencia de vigilancia militar de Israel ha utilizado una vasta colección de comunicaciones palestinas interceptadas para construir una poderosa herramienta de inteligencia artificial similar a ChatGPT que espera que transforme sus capacidades de espionaje, una investigación de The Guardian puede revelar.
La investigación conjunta con la revista Publicación de Palestina israelí +972 y la llamada local de salida en idioma hebreo han encontrado que la Unidad 8200 capacitó al modelo AI para comprender el árabe hablado utilizando grandes volúmenes de conversaciones telefónicas y mensajes de texto, obtenidos a través de su extensa vigilancia de los territorios ocupados.
Según las fuentes familiarizadas con el proyecto, la unidad comenzó a construir el modelo para crear una sofisticada herramienta similar a Chatbot capaz de responder preguntas sobre las personas que está monitoreando y proporcionar información sobre los volúmenes masivos de los datos de vigilancia que recopila.
La Agencia de Evesdropping de Elite, comparable en sus capacidades con la Agencia de Seguridad Nacional de los Estados Unidos (NSA), aceleró su desarrollo del sistema después del comienzo de la guerra en Gaza en octubre de 2023. El modelo todavía estaba siendo entrenado en la segunda mitad del año pasado. No está claro si aún se ha implementado.
Los esfuerzos para construir el modelo de lenguaje grande (LLM), un sistema de aprendizaje profundo que genera un texto de tipo humano, se revelaron parcialmente en una charla pública poco notada por un ex tecnólogo de inteligencia militar que dijo que supervisó el proyecto.
“Intentamos crear el conjunto de datos más grande posible [and] Recopile todos los datos que el estado de Israel haya tenido en árabe ”, dijo el ex funcionario, Chained Roger Joseph Sayedoff, a una audiencia en una conferencia de IA militar en Tel Aviv el año pasado. El modelo, dijo, requería “cantidades psicóticas” de datos.
Tres ex funcionarios de inteligencia con conocimiento de la iniciativa confirmaron la existencia de la LLM y compartieron detalles sobre su construcción. Varias otras fuentes describieron cómo la Unidad 8200 usó modelos de aprendizaje automático a menor escala en los años anteriores a lanzar el ambicioso proyecto, y el efecto que tal tecnología ya ha tenido.
“La IA amplifica la potencia”, dijo una fuente familiarizada con el desarrollo de los modelos AI de la Unidad 8200 en los últimos años. “No se trata solo de evitar ataques de disparo, puedo rastrear a los activistas de los derechos humanos, monitorear la construcción palestina en el Área C [of the West Bank]. Tengo más herramientas para saber qué está haciendo cada persona en Cisjordania ”.
Los detalles de la escala del nuevo modelo arrojan luz sobre la retención a gran escala de la Unidad 8200 del contenido de las comunicaciones interceptadas, habilitadas por lo que los funcionarios de inteligencia israelíes y anteriores actuales y anteriores describieron como su vigilancia general de las telecomunicaciones palestinas.
El proyecto también ilustra cómo la Unidad 8200, como muchas agencias de espionaje en todo el mundo, busca aprovechar los avances en la IA para realizar tareas analíticas complejas y dar sentido a los enormes volúmenes de información que recopilan habitualmente, lo que desafía cada vez más el procesamiento humano solo.
Pero la integración de sistemas como LLM en el análisis de inteligencia tiene riesgos, ya que los sistemas pueden exacerbar los sesgos y son propensos a cometer errores, expertos y activistas de derechos humanos han advertido. Su naturaleza opaca también puede dificultar la comprensión de cómo se han llegado a conclusiones generadas por IA.
Zach Campbell, un investigador de vigilancia senior en Human Rights Watch (HRW), expresó una alarma de que la Unidad 8200 usaría LLM para tomar decisiones consecuentes sobre la vida de los palestinos bajo la ocupación militar. “Es una máquina de conjeturas”, dijo. “Y en última instancia, estas conjeturas pueden terminar utilizándose para incriminar a las personas”.
Un portavoz de las Fuerzas de Defensa de Israel (FDI) se negó a responder a las preguntas de The Guardian sobre la nueva LLM, pero dijo que el ejército “despliega varios métodos de inteligencia para identificar y frustrar la actividad terrorista de organizaciones hostiles en el Medio Oriente”.
Un vasto grupo de comunicaciones en idioma árabe
La Unidad 8200 ha desarrollado una variedad de herramientas con IA en los últimos años. Sistemas como el Evangelio y la lavanda se encontraban entre los que se integraron rápidamente en las operaciones de combate en la guerra en Gaza, jugando un papel importante en el bombardeo de las FDI del territorio al ayudar con la identificación de objetivos potenciales (tanto personas como estructuras) para ataques letales.
Durante casi una década, la unidad también ha utilizado AI para analizar las comunicaciones que intercepta y almacena, utilizando una serie de modelos de aprendizaje automático para clasificar la información en categorías predefinidas, aprender a reconocer patrones y hacer predicciones.
Después de que Operai lanzó ChatGPT a fines de 2022, los expertos en IA en la Unidad 8200 prevé que construir una herramienta más expansiva similar al chatbot. Ahora, una de las LLM más utilizadas del mundo, ChatGPT está respaldada por el llamado “modelo de base”, una IA de uso general entrenado en inmensos volúmenes de datos y capaz de responder a consultas complejas.
Inicialmente, la Unidad 8200 luchó para construir un modelo en esta escala. “No teníamos idea de cómo entrenar un modelo de fundación”, dijo Sayedoff, ex funcionario de inteligencia, en su presentación. En una etapa, la unidad envió una solicitud sin éxito a OpenAI para ejecutar ChatGPT en los sistemas seguros de los militares (OpenAi declinó hacer comentarios).
Sin embargo, cuando las FDI movilizaron cientos de miles de reservistas en respuesta a los ataques de 7 de octubre liderados por Hamas, un grupo de oficiales con experiencia en la construcción de LLM regresó a la unidad del sector privado. Algunos vinieron de las principales compañías tecnológicas estadounidenses, como Google, Meta y Microsoft. (Google dijo que el trabajo que hacen sus empleados como reservistas “no estaban conectados” con la empresa. Meta y Microsoft declinaron hacer comentarios).
El pequeño equipo de expertos pronto comenzó a construir una LLM que entiende el árabe, dijeron las fuentes, pero efectivamente tuvieron que comenzar desde cero después de descubrir que los modelos comerciales y de código abierto existentes fueron capacitados con árabe escrito estándar, utilizado en comunicaciones formales, literatura y medios de comunicación, en lugar de árabe hablado.
“No hay transcripciones de llamadas o conversaciones de WhatsApp en Internet. No existe en la cantidad necesaria para capacitar a un modelo de este tipo ”, dijo una fuente. El desafío, agregaron, era “recolectar todo el [spoken Arabic] Texto que la unidad ha tenido y la ha puesto en un lugar centralizado ”. Dijeron que los datos de entrenamiento del modelo eventualmente consistieron en aproximadamente 100 mil millones de palabras.
Una fuente bien ubicada familiarizada con el proyecto le dijo a The Guardian que este vasto grupo de comunicaciones incluyó conversaciones en dialectos libaneses y palestinos. Sayedoff dijo en su presentación el equipo de construcción del LLM “se centró solo en los dialectos que nos odian”.
La unidad También buscó capacitar al modelo para comprender la terminología militar específica de los grupos militantes, dijeron las fuentes. Pero la colección masiva de datos de entrenamiento parece haber incluido grandes volúmenes de comunicaciones con poco o ningún valor de inteligencia sobre la vida cotidiana de los palestinos.
“Alguien que llama a alguien y les dice que salga porque los está esperando fuera de la escuela, eso es solo una conversación, eso no es interesante. Pero para un modelo como este, es oro ”, dijo una de las fuentes.
Vigilancia ai-facilitada
La Unidad 8200 no está sola entre las agencias de espionaje que experimentan con tecnología de IA generativa. En los EE. UU., La CIA ha lanzado una herramienta tipo CHATGPT para examinar la información de código abierto. Las agencias de espionaje del Reino Unido también están desarrollando sus propias LLM, que también se dice que está entrenando con conjuntos de datos de código abierto.
Pero varios ex funcionarios de seguridad de los Estados Unidos y el Reino Unido dijeron que la comunidad de inteligencia de Israel parecía estar tomando mayores riesgos que sus aliados más cercanos al integrar nuevos sistemas basados en IA en análisis de inteligencia.
Un ex jefe de espías occidentales dijo que la extensa colección de la inteligencia militar israelí del contenido de las comunicaciones palestinas le permitió usar la IA de manera “que no sería aceptable” entre las agencias de inteligencia en países con una mayor supervisión sobre el uso de poderes de vigilancia y el manejo de datos personales sensibles.
Campbell, de Human Rights Watch, dijo que usar material de vigilancia para capacitar a un modelo de IA era “invasivo e incompatible con los derechos humanos”, y que como un poder ocupante, Israel está obligado a proteger los derechos de privacidad de los palestinos. “Estamos hablando de datos altamente personales tomados de personas que no se sospechan de un delito, que se utilizan para capacitar una herramienta que luego podría ayudar a establecer sospechas”, agregó.
Nadim Nashif, director de 7amleh, un grupo palestino de derechos digitales y defensa, dijo que los palestinos se han convertido en sujetos en el laboratorio de Israel para desarrollar estas técnicas y armarse AI, todo con el propósito de mantener [an] El apartheid y el régimen de ocupación donde estas tecnologías se están utilizando para dominar a un pueblo, para controlar sus vidas ”.
Varios oficiales actuales y anteriores de inteligencia israelíes familiarizados con los modelos de aprendizaje automático a menor escala utilizados por la Unidad 8200, precursores del modelo de fundación, dijeron que la IA hizo que la vigilancia general de los palestinos fuera más efectivo como una forma de control, particularmente en Cisjordania, donde dijeron que ha contribuido a un mayor número de arrestos.
Dos de las fuentes dijeron que los modelos ayudaron a las FDI a analizar automáticamente las conversaciones telefónicas interceptadas identificando a los palestinos que expresan enojo por la ocupación o los deseos de atacar a soldados o personas que viven en asentamientos ilegales. Uno dijo que cuando las FDI ingresaron a las aldeas en Cisjordania, la IA se utilizaría para identificar a las personas que usan palabras que considera para indicar “problemas”.
“Nos permite actuar sobre la información de muchas más personas, y esto permite el control sobre la población”, dijo una tercera fuente. “Cuando contiene tanta información, puede usarla para cualquier propósito que desee. Y las FDI tienen muy pocas restricciones a este respecto “.
‘Se van a cometer errores’
Para una agencia de espionaje, el valor de un modelo de base es que puede tomar “todo lo que se ha recopilado” y detectar “conexiones y patrones que son difíciles de hacer solo para un humano”, dijo Ori Goshen, cofundadora de los laboratorios AI21. Varios de los empleados de la firma israelí trabajaron en el nuevo proyecto LLM mientras estaban en servicio de reserva.
Pero Goshen, quien anteriormente sirvió en la Unidad 8200, agregó: “Estos son modelos probabilísticos: les das un aviso o una pregunta, y generan algo que parece magia. Pero a menudo, la respuesta no tiene sentido. Llamamos a esto ‘alucinación’ “.
Brianna Rosen, ex funcionario de seguridad nacional de la Casa Blanca y ahora asociada de investigación senior en la Universidad de Oxford, señala que si bien una herramienta similar a Chatgpt podría ayudar a un analista de inteligencia “detectar amenazas que los humanos podrían perderse, incluso antes de que surjan, también corre el riesgo de sacar falsas conexiones y conclusiones defectuosas”.
Ella dijo que era vital para las agencias de inteligencia que usaban estas herramientas para poder comprender el razonamiento detrás de las respuestas que producen. “Se van a cometer errores, y algunos de esos errores pueden tener consecuencias muy graves”, agregó.
En febrero, los oficiales de inteligencia informaron que Associated Press informó que la IA fue utilizada por los oficiales de inteligencia para ayudar a seleccionar un objetivo en un ataque aéreo israelí en Gaza en noviembre de 2023 que mató a cuatro personas, incluidas tres adolescentes. Un mensaje visto por la agencia de noticias sugirió que el ataque aéreo se había llevado a cabo por error.
Las FDI no respondieron a las preguntas del Guardian sobre cómo la Unidad 8200 garantiza que sus modelos de aprendizaje automático, incluido el nuevo LLM que se desarrolle, no exacerben las inexactitudes y los sesgos. Tampoco diría cómo protege los derechos de privacidad de los palestinos al capacitar modelos con datos personales confidenciales.
“Debido a la naturaleza confidencial de la información, no podemos elaborar herramientas específicas, incluidos los métodos utilizados para procesar la información”, dijo un portavoz.
“Sin embargo, las FDI implementan un proceso meticuloso en cada uso de habilidades tecnológicas”, agregaron. “Eso incluye la participación integral del personal profesional en el proceso de inteligencia para maximizar la información y la precisión al más alto grado”.