Noticias

Chatgpt golpeó con una queja de privacidad sobre alucinaciones difamatorias

Published

on

Operai se enfrenta a otra queja de privacidad en Europa por la tendencia de su chatbot viral de IA al alucinar la información falsa, y esta podría resultar difícil de ignorar los reguladores.

El grupo de defensa de los derechos de privacidad Noyb está apoyando a un individuo en Noruega que estaba horrorizado al encontrar ChatGPT devolviendo información inventada que afirmó que había sido condenado por asesinar a dos de sus hijos e intentar matar al tercero.

Las quejas de privacidad anteriores sobre ChatGPT que generan datos personales incorrectos han involucrado problemas, como una fecha de nacimiento incorrecta o detalles biográficos que están mal. Una preocupación es que OpenAI no ofrece una forma para que las personas corrijan información incorrecta que genera la IA sobre ellos. Por lo general, Openai se ha ofrecido a bloquear las respuestas para tales indicaciones. Pero bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, los europeos tienen un conjunto de derechos de acceso a datos que incluyen un derecho a la rectificación de datos personales.

Otro componente de esta ley de protección de datos requiere que los controladores de datos se aseguren de que los datos personales que producen sobre las personas sean precisos, y esa es una preocupación que NeyB está marcando con su última queja de CHATGPT.

“El GDPR es claro. Los datos personales deben ser precisos”, dijo Joakim Söderberg, abogado de protección de datos de Noyb, en un comunicado. “Si no es así, los usuarios tienen derecho a cambiarlo para reflejar la verdad. Mostrar a los usuarios de Chatgpt un pequeño descargo de responsabilidad de que el chatbot puede cometer errores claramente no es suficiente. No puede simplemente difundir información falsa y, al final, agregar un pequeño descargo de responsabilidad que todo lo que dijo puede no ser cierto”.

Las infracciones confirmadas del GDPR pueden conducir a sanciones de hasta el 4% de la facturación anual global.

La aplicación también podría forzar cambios a los productos de IA. En particular, una intervención de GDPR temprana realizada por el organismo de control de la protección de datos de Italia que vio el acceso de ChatGPT bloqueado temporalmente en el país en la primavera 2023 llevó a OpenAi a realizar cambios en la información que revela a los usuarios, por ejemplo. Posteriormente, el perro guardián finó que se abre a OpenAI € € € € € 15 millones por procesar los datos de las personas sin una base legal adecuada.

Desde entonces, sin embargo, es justo decir que los perros guardianes de la privacidad en Europa han adoptado un enfoque más cauteloso para Genai mientras intentan descubrir la mejor manera de aplicar el GDPR a estas herramientas de IA.

Hace dos años, la Comisión de Protección de Datos de Irlanda (DPC), que tiene un papel principal de cumplimiento de GDPR en una queja de NOYB CHATGPT anterior, instó a apresurarse a prohibir las herramientas de Genai, por ejemplo. Esto sugiere que los reguladores deberían tomarse el tiempo para determinar cómo se aplica la ley.

Y es notable que una queja de privacidad contra ChatGPT que ha sido investigada por el regalos de protección de datos de Polonia desde septiembre de 2023 aún no ha dado una decisión.

La nueva queja de ChatGPT de Noyb parece estar destinada a sacudir a los reguladores de privacidad despiertos cuando se trata de los peligros de alucinar AIS.

La organización sin fines de lucro compartió la captura de pantalla (a continuación) con TechCrunch, que muestra una interacción con ChatGPT en la que la IA responde a una pregunta que pregunta “¿Quién es Arve Hjalmar Holmen?” – El nombre del individuo que trajo la queja, produciendo una ficción trágica que afirma falsamente que fue condenado por asesinato infantil y sentenciado a 21 años de prisión por matar a dos de sus propios hijos.

Si bien la afirmación difamatoria de que Hjalmar Holmen es un asesino infantil es completamente falso, Noyb señala que la respuesta de ChatGPT incluye algunas verdades, ya que el individuo en cuestión tiene tres hijos. El chatbot también consiguió los géneros de sus hijos. Y su ciudad natal se nombra correctamente. Pero eso solo hace que sea aún más extraño e inquietante que la IA alucinó las falsedades tan horribles en la cima.

Un portavoz de Noyb dijo que no pudieron determinar por qué el chatbot produjo una historia tan específica pero falsa para este individuo. “Investigamos para asegurarnos de que esto no fuera una confusión con otra persona”, dijo el portavoz, señalando que habían investigado los archivos de los periódicos, pero no habían podido encontrar una explicación de por qué la IA fabricó el asesinato de niños.

Los modelos de idiomas grandes, como el chatgpt subyacente, esencialmente la predicción de las siguientes palabras en una amplia escala, por lo que podríamos especular que los conjuntos de datos utilizados para entrenar la herramienta contenían muchas historias de filicida que influyeron en las opciones de palabras en respuesta a una consulta sobre un hombre con nombre.

Cualquiera sea la explicación, está claro que tales salidas son completamente inaceptables.

La afirmación de Noyb también es que son ilegales bajo las reglas de protección de datos de la UE. Y mientras OpenAI muestra un pequeño descargo de responsabilidad en la parte inferior de la pantalla que dice “Chatgpt puede cometer errores. Verifique información importante”, dice que esto no puede absolver al desarrollador de IA de su deber bajo GDPR de no producir falsedades atroces sobre las personas en primer lugar.

Operai ha sido contactado para una respuesta a la queja.

Si bien esta queja GDPR se refiere a un individuo llamado, NoyB señala otros casos de ChatGPT que fabrican información legalmente comprometida, como la especialidad australiana que dijo que estaba implicado en un escándalo de soborno y corrupción o un periodista alemán que fue nombrado falsamente como un niño abusador de un niño.

Una cosa importante a tener en cuenta es que, después de una actualización del modelo de AI subyacente, Neyb, dice que el chatbot dejó de producir las falsedades peligrosas sobre Hjalmar Holmen: un cambio que vincula a la herramienta ahora buscando en Internet información sobre las personas cuando se les preguntó (por lo cual anteriormente, un conjunto de datos podría, presumiblemente, presumir, alentado a que alucine un alucinado de tal manera incorrecta.

En nuestras propias pruebas, preguntando a Chatgpt “¿Quién es Arve Hjalmar Holmen?” El ChatGPT inicialmente respondió con un combo ligeramente extraño al mostrar algunas fotos de diferentes personas, aparentemente obtenidas de sitios como Instagram, SoundCloud y Discogs, junto con el texto que afirmó que “no podía encontrar ninguna información” en un individuo de ese nombre (ver nuestra captura de pantalla a continuación). Un segundo intento presentó una respuesta que identificó a Arve Hjalmar Holmen como “un músico y compositor noruego” cuyos álbumes incluyen “Honky Tonk Inferno”.

Chatgpt Shot: Natasha Lomas/TechCrunch

Si bien las falsedades peligrosas generadas por ChatGPT sobre Hjalmar Holmen parecen haberse detenido, tanto Noyb como Hjalmar Holmen siguen preocupados de que la información incorrecta y difamatoria sobre él podría haber sido retenida dentro del modelo de IA.

“Agregar un descargo de responsabilidad de que no cumpla con la ley no hace que la ley desaparezca”, señaló Kleanthi Sardeli, otro abogado de protección de datos en Noyb, en un comunicado. “Las empresas de IA tampoco pueden solo ‘ocultar’ información falsa de los usuarios mientras intervienen internamente la información falsa”.

“Las compañías de IA deberían dejar de actuar como si el GDPR no se aplique a ellas, cuando claramente lo hace”, agregó. “Si no se detienen las alucinaciones, las personas pueden sufrir un daño de reputación fácilmente”.

Noyb ha presentado la queja contra OpenAI ante la Autoridad de Protección de Datos Noruega, y espera que el organismo de control decida que es competente investigar, ya que OYB apunta a la queja en la entidad estadounidense de OpenAI, argumentando que su oficina de Irlanda no es responsable exclusivo de las decisiones de productos que afectan a los europeos.

Sin embargo, en abril de 2024, se remitió una queja de GDPR respaldada por NOYB contra OpenAI, que se presentó en Austria en abril de 2024, el regulador del DPC de Irlanda a causa de un cambio realizado por Operai a principios de ese año para nombrar a su división irlandesa como proveedor del servicio CHATGPT a usuarios regionales.

¿Dónde está esa queja ahora? Todavía sentado en un escritorio en Irlanda.

“Habiendo recibido la queja de la Autoridad de Supervisión de Austria en septiembre de 2024, el DPC comenzó el manejo formal de la queja y todavía está en curso”, Risteard Byrne, subdirector de comunicaciones de oficiales para el DPC dijo a TechCrunch cuando se le pidió una actualización.

No ofreció ninguna dirección cuando se espera que concluya la investigación del DPC sobre las alucinaciones de ChatGPT.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version