Connect with us

Noticias

Operai está presionando a Donald Trump para debilitar las protecciones de los derechos de autor en los Estados Unidos. Paul McCartney está luchando.

Published

on

El fabricante de ChatGPT, OpenAI, ha pedido cambios fundamentales en la ley de derechos de autor de EE. UU. Que permitiría a las compañías de IA usar obras con derechos de autor sin permiso o compensación a los sholders.

Eso es de acuerdo con una nueva presentación de políticas a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP).

El documento no hace una lectura feliz para los titulares de derechos de autor, lo que explica por qué estrellas de música como Sir Paul McCartney, Paul Simon y Bette Midler se han unido a cientos de celebridades de Hollywood para firmar una carta que empujaba contra las propuestas.

La presentación, presentada por Opadai el 13 de marzo (leerlo en su totalidad aquí), es parte de la respuesta de la compañía de tecnología a la Administración de Trump Solicitud de información sobre el desarrollo de un plan de acción nacional de IA.

Ambos Openai y Google Enviaron marcos de políticas detallados que podrían afectar significativamente los derechistas de la música y otros creadores de contenido.

Estas presentaciones representan el posicionamiento de políticas de alto riesgo como el Administración de Trump Desarrolla su plan de acción de IA, que podría dar forma fundamentalmente cómo los trabajos creativos están protegidos, o no protegidos, en el ecosistema de IA en rápida evolución.

Operai pide acceso a capacitación de IA sin restricciones

En su presentación del 13 de marzo, Opadai se centra mucho en el concepto de “Uso justo” – Es decir, las plataformas pueden usar derechos de autor en ciertas circunstancias sin castigo.

La firma argumenta explícitamente que la aplicación de la doctrina de “uso justo” a la IA en los Estados Unidos es “No solo una cuestión de competitividad estadounidense, es una cuestión de seguridad nacional”mientras advierte que sin tener acceso gratuito a materiales con derechos de autor, “La carrera por IA ha terminado efectivamente”.

En Operai’s ojos, Porcelana Ganará esa carrera si el A NOSOTROS No afloja sus leyes de derechos de autor.

“Si [China’s] Los desarrolladores tienen Acceso sin restricciones a los datos y las empresas estadounidenses son Se fue sin acceso de uso justola carrera por IA ha terminado efectivamente. América pierdeal igual que el éxito de la IA democrática “.

Presentación de Openai

La cita relevante de la presentación de OpenAI dice: “Aplicar la doctrina de uso justo a la IA no es solo una cuestión de competitividad estadounidense, es un cuestión de seguridad nacional. Los rápidos avances vistos con la RPC [People’s Republic Of China]’s Veteranoentre otros desarrollos recientes, muestran que el liderazgo de Estados Unidos en Frontier AI está lejos de ser garantizado “.

Opadai agrega: “Dado el apoyo estatal concertado para industrias críticas y proyectos de infraestructura, hay pocas dudas de que el PRC Los desarrolladores de IA disfrutarán Acceso sin restricciones a los datos – incluido datos con derechos de autor – que mejorará sus modelos.

“Si los desarrolladores de la RPC han Acceso sin restricciones a los datos y las empresas estadounidenses son Se fue sin acceso de uso justola carrera por IA ha terminado efectivamente. América pierdeal igual que el éxito de la IA democrática “.

Operai’s La presentación afirma además: “La ley de derechos de autor estadounidense, incluida la doctrina de uso justo de larga data, protege los usos transformadores de los trabajos existentes, asegurando que los innovadores tengan un marco equilibrado y predecible para la experimentación y el espíritu empresarial”.


¿Operai simplemente dio un regalo a los cabilderos de la música?

Pasajes en Operai’s la presentación podría interpretarse como reconociendo que Ley actual de derechos de autor de EE. UU. Restringe las actividades deseadas de la compañía, aunque el idioma es algo ambiguo.

Una sección notable es donde Opadai Estados: “Si los desarrolladores de la RPC tienen acceso sin restricciones a los datos y las empresas estadounidenses se quedan sin acceso de uso justo, la carrera por IA ha terminado de manera efectiva”.

La redacción de la frase “Si las empresas estadounidenses se quedan sin acceso de uso justo” Implica que las empresas de IA en los EE. UU. Podrían necesitar nuevas protecciones específicas de ‘uso justo’ redactadas para continuar utilizando materiales con derechos de autor.

A su vez, eso podría interpretarse como un reconocimiento de que sin protecciones tan claras, es decir, bajo las leyes de hoy, sus actividades podrían ser legalmente cuestionables.

Google se alinea con OpenAi en la postura de los derechos de autor

Google Presentación (léelo en su totalidad aquí) se hace eco de sentimientos similares, aunque con un lenguaje ligeramente menos alarmista.

El gigante de la búsqueda argumenta que “las reglas equilibradas de los derechos de autor, como Uso justo y excepciones de minería de texto y datoshan sido fundamentales para permitir que los sistemas de IA aprendan del conocimiento previo y los datos disponibles públicamente, desbloqueando los avances científicos y sociales “.

“Apoyamos el marco de uso justo existente de Estados Unidos, y estamos seguros de que la ley actual de derechos de autor permite la innovación de IA”.

Portavoz de Google

La compañía agrega que estas excepciones “permiten el uso de Carpyringe, material disponible públicamente para capacitación de IA sin impactar significativamente los tiradores de la derecha y evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo o la experimentación científica ”.

Advierte que las leyes de derechos de autor podrían, bajo ciertas interpretaciones, “impedir el acceso apropiado a los datos necesarios para capacitar a los modelos líderes”.

Posterior a la presentación que se presenta, un Google El portavoz dijo en un comunicado: “Apoyamos el marco de uso justo existente de Estados Unidos, y estamos seguros de que la ley actual de derechos de autor permite la innovación de IA”.


La respuesta de McCartney

Estrellas del mundo del cine, la televisión y la música han firmado una carta en respuesta a la Opadai y Google propuestas, incluyendo Cate Blanchett, Cynthia Erivo, Paul McCartney, Paul Simon, Ron Howard, Taika Waititi, Chris Rock, Ben Stiller, Mark Ruffalo, Guillermo del Toroy Ava Duvernay.

En su carta al gobierno de los Estados Unidos esta semana, el estado de los copyrighters, “Creemos firmemente que el liderazgo global de IA de Estados Unidos no debe venir a expensas de nuestras industrias creativas esenciales”.

Agregan que la industria de las artes y el entretenimiento de los Estados Unidos proporciona más que 2.3 millones de empleos yproporciona la base para Influencia democrática estadounidense y poder blando en el extranjero. “

La carta continúa: “[AI] las empresas piden socavar esta fortaleza económica y cultural por debilitando las protecciones de los derechos de autor Para las películas, series de televisión, obras de arte, escritura, música y voces utilizadas para entrenar modelos de IA en el núcleo de valoraciones corporativas multimillonarias “.

Puede leer la carta, firmada por 400 creadores famosos, en su totalidad a continuación:

Hola amigos y extraños. Como sabrá, recientemente ha habido una recomendación de OpenAI y Google a la actual administración estadounidense que está ganando una tracción alarmante para eliminar todas las protecciones legales y barandillas existentes que rodean las protecciones de la ley de derechos de autor para la capacitación de la inteligencia artificial.

Esta reescritura de la ley establecida a favor del llamado “uso justo” necesitaba una respuesta inicial a las 11:59 pm ET el sábado, por lo que hemos presentado una carta inicial con los firmantes que teníamos en ese momento. Ahora continuamos aceptando firmas para una enmienda a nuestra declaración inicial. No dude en enviar esto a cualquier persona que crea que puede invertir en el mantenimiento ético de su propiedad intelectual. Puede agregar su nombre y cualquier gremio, sindicato o descripción de sí mismo que se sienta apropiado, pero no edite la carta en sí. ¡Muchas gracias por patear esto de par en par los sábados por la noche!

La respuesta de Hollywood al plan de acción de inteligencia artificial de la administración y la necesidad de que se mantenga la ley de derechos de autor.

Nosotros, los miembros de la industria del entretenimiento de Estados Unidos, que representan una intersección de cinematógrafos, directores, productores, actores, escritores, estudios, compañías de producción, músicos, compositores, disfraces, diseñadores de sonido y producción, editores, gaffers, sindicatos y miembros de la academia y otros profesionales de contenido industrial, presentan esta declaración unificada en respuesta a la solicitud de la administración de la administración de la aportación sobre el plan de acción de IAI.

Creemos firmemente que el liderazgo global de IA de Estados Unidos no debe venir a expensas de nuestras industrias creativas esenciales. La industria de las artes y el entretenimiento de Estados Unidos apoya más de 2,3 millones de empleos estadounidenses con más de $ 229 mil millones en salarios anualmente, al tiempo que proporciona la base para la influencia democrática estadounidense y el poder blando en el extranjero. Pero las compañías de IA están pidiendo socavar esta fuerza económica y cultural al debilitar las protecciones de los derechos de autor para las películas, las series de televisión, las obras de arte, la escritura, la música y las voces utilizadas para capacitar modelos de IA en el núcleo de valoraciones corporativas multimillonarias.

No se equivoquen: este problema va mucho más allá de la industria del entretenimiento, ya que el derecho a capacitar a la IA en todo el contenido protegido por derechos de autor afecta a todas las industrias de conocimiento de Estados Unidos. Cuando las empresas tecnológicas y de inteligencia artificial exigen acceso sin restricciones a todos los datos e información, no solo amenazan películas, libros y música, sino el trabajo de todos los escritores, editores, fotógrafos, científicos, arquitectos, ingenieros, diseñadores, médicos, desarrolladores de software y todos los demás profesionales que trabajan con computadoras y generan propiedad intelectual. Estas profesiones son el núcleo de cómo descubrimos, aprendemos y compartimos el conocimiento como sociedad y como nación. Este problema no se trata solo de liderazgo de IA o de economía y derechos individuales, sino del liderazgo continuo de Estados Unidos en la creación y poseer una valiosa propiedad intelectual en cada campo.

Está claro que Google (valorado en $ 2TN) y OpenAI (valorado en más de $ 157 mil millones) están defendiendo una exención especial del gobierno para que puedan explotar libremente las industrias creativas y de conocimiento de Estados Unidos, a pesar de sus ingresos sustanciales y fondos disponibles. No hay razón para debilitar o eliminar las protecciones de derechos de autor que han ayudado a Estados Unidos a florecer. No cuando las empresas de IA pueden usar nuestro material con derechos de autor simplemente haciendo lo que la ley requiere: negociar las licencias apropiadas con los titulares de derechos de autor, al igual que cualquier otra industria. El acceso al catálogo creativo de películas, escritura, contenido de video y música de Estados Unidos no es una cuestión de seguridad nacional. No requieren una exención ordenada por el gobierno de la ley de derechos de autor de EE. UU.

Estados Unidos no se convirtió en una potencia cultural global por accidente. Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio. Durante casi 250 años, la ley de derechos de autor de EE. UU. Ha equilibrado los derechos de los creadores con las necesidades del público, creando la economía creativa más vibrante del mundo. Recomendamos que el plan de acción estadounidense de IA mantenga los marcos de derechos de autor existentes para mantener la fortaleza de las industrias creativas y de conocimiento de Estados Unidos, así como la influencia cultural estadounidense en el extranjero.

Negocio de música en todo el mundo

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Chatgpt golpeó con una queja de privacidad sobre alucinaciones difamatorias

Published

on

Operai se enfrenta a otra queja de privacidad en Europa por la tendencia de su chatbot viral de IA al alucinar la información falsa, y esta podría resultar difícil de ignorar los reguladores.

El grupo de defensa de los derechos de privacidad Noyb está apoyando a un individuo en Noruega que estaba horrorizado al encontrar ChatGPT devolviendo información inventada que afirmó que había sido condenado por asesinar a dos de sus hijos e intentar matar al tercero.

Las quejas de privacidad anteriores sobre ChatGPT que generan datos personales incorrectos han involucrado problemas, como una fecha de nacimiento incorrecta o detalles biográficos que están mal. Una preocupación es que OpenAI no ofrece una forma para que las personas corrijan información incorrecta que genera la IA sobre ellos. Por lo general, Openai se ha ofrecido a bloquear las respuestas para tales indicaciones. Pero bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, los europeos tienen un conjunto de derechos de acceso a datos que incluyen un derecho a la rectificación de datos personales.

Otro componente de esta ley de protección de datos requiere que los controladores de datos se aseguren de que los datos personales que producen sobre las personas sean precisos, y esa es una preocupación que NeyB está marcando con su última queja de CHATGPT.

“El GDPR es claro. Los datos personales deben ser precisos”, dijo Joakim Söderberg, abogado de protección de datos de Noyb, en un comunicado. “Si no es así, los usuarios tienen derecho a cambiarlo para reflejar la verdad. Mostrar a los usuarios de Chatgpt un pequeño descargo de responsabilidad de que el chatbot puede cometer errores claramente no es suficiente. No puede simplemente difundir información falsa y, al final, agregar un pequeño descargo de responsabilidad que todo lo que dijo puede no ser cierto”.

Las infracciones confirmadas del GDPR pueden conducir a sanciones de hasta el 4% de la facturación anual global.

La aplicación también podría forzar cambios a los productos de IA. En particular, una intervención de GDPR temprana realizada por el organismo de control de la protección de datos de Italia que vio el acceso de ChatGPT bloqueado temporalmente en el país en la primavera 2023 llevó a OpenAi a realizar cambios en la información que revela a los usuarios, por ejemplo. Posteriormente, el perro guardián finó que se abre a OpenAI € € € € € 15 millones por procesar los datos de las personas sin una base legal adecuada.

Desde entonces, sin embargo, es justo decir que los perros guardianes de la privacidad en Europa han adoptado un enfoque más cauteloso para Genai mientras intentan descubrir la mejor manera de aplicar el GDPR a estas herramientas de IA.

Hace dos años, la Comisión de Protección de Datos de Irlanda (DPC), que tiene un papel principal de cumplimiento de GDPR en una queja de NOYB CHATGPT anterior, instó a apresurarse a prohibir las herramientas de Genai, por ejemplo. Esto sugiere que los reguladores deberían tomarse el tiempo para determinar cómo se aplica la ley.

Y es notable que una queja de privacidad contra ChatGPT que ha sido investigada por el regalos de protección de datos de Polonia desde septiembre de 2023 aún no ha dado una decisión.

La nueva queja de ChatGPT de Noyb parece estar destinada a sacudir a los reguladores de privacidad despiertos cuando se trata de los peligros de alucinar AIS.

La organización sin fines de lucro compartió la captura de pantalla (a continuación) con TechCrunch, que muestra una interacción con ChatGPT en la que la IA responde a una pregunta que pregunta “¿Quién es Arve Hjalmar Holmen?” – El nombre del individuo que trajo la queja, produciendo una ficción trágica que afirma falsamente que fue condenado por asesinato infantil y sentenciado a 21 años de prisión por matar a dos de sus propios hijos.

Si bien la afirmación difamatoria de que Hjalmar Holmen es un asesino infantil es completamente falso, Noyb señala que la respuesta de ChatGPT incluye algunas verdades, ya que el individuo en cuestión tiene tres hijos. El chatbot también consiguió los géneros de sus hijos. Y su ciudad natal se nombra correctamente. Pero eso solo hace que sea aún más extraño e inquietante que la IA alucinó las falsedades tan horribles en la cima.

Un portavoz de Noyb dijo que no pudieron determinar por qué el chatbot produjo una historia tan específica pero falsa para este individuo. “Investigamos para asegurarnos de que esto no fuera una confusión con otra persona”, dijo el portavoz, señalando que habían investigado los archivos de los periódicos, pero no habían podido encontrar una explicación de por qué la IA fabricó el asesinato de niños.

Los modelos de idiomas grandes, como el chatgpt subyacente, esencialmente la predicción de las siguientes palabras en una amplia escala, por lo que podríamos especular que los conjuntos de datos utilizados para entrenar la herramienta contenían muchas historias de filicida que influyeron en las opciones de palabras en respuesta a una consulta sobre un hombre con nombre.

Cualquiera sea la explicación, está claro que tales salidas son completamente inaceptables.

La afirmación de Noyb también es que son ilegales bajo las reglas de protección de datos de la UE. Y mientras OpenAI muestra un pequeño descargo de responsabilidad en la parte inferior de la pantalla que dice “Chatgpt puede cometer errores. Verifique información importante”, dice que esto no puede absolver al desarrollador de IA de su deber bajo GDPR de no producir falsedades atroces sobre las personas en primer lugar.

Operai ha sido contactado para una respuesta a la queja.

Si bien esta queja GDPR se refiere a un individuo llamado, NoyB señala otros casos de ChatGPT que fabrican información legalmente comprometida, como la especialidad australiana que dijo que estaba implicado en un escándalo de soborno y corrupción o un periodista alemán que fue nombrado falsamente como un niño abusador de un niño.

Una cosa importante a tener en cuenta es que, después de una actualización del modelo de AI subyacente, Neyb, dice que el chatbot dejó de producir las falsedades peligrosas sobre Hjalmar Holmen: un cambio que vincula a la herramienta ahora buscando en Internet información sobre las personas cuando se les preguntó (por lo cual anteriormente, un conjunto de datos podría, presumiblemente, presumir, alentado a que alucine un alucinado de tal manera incorrecta.

En nuestras propias pruebas, preguntando a Chatgpt “¿Quién es Arve Hjalmar Holmen?” El ChatGPT inicialmente respondió con un combo ligeramente extraño al mostrar algunas fotos de diferentes personas, aparentemente obtenidas de sitios como Instagram, SoundCloud y Discogs, junto con el texto que afirmó que “no podía encontrar ninguna información” en un individuo de ese nombre (ver nuestra captura de pantalla a continuación). Un segundo intento presentó una respuesta que identificó a Arve Hjalmar Holmen como “un músico y compositor noruego” cuyos álbumes incluyen “Honky Tonk Inferno”.

Chatgpt Shot: Natasha Lomas/TechCrunch

Si bien las falsedades peligrosas generadas por ChatGPT sobre Hjalmar Holmen parecen haberse detenido, tanto Noyb como Hjalmar Holmen siguen preocupados de que la información incorrecta y difamatoria sobre él podría haber sido retenida dentro del modelo de IA.

“Agregar un descargo de responsabilidad de que no cumpla con la ley no hace que la ley desaparezca”, señaló Kleanthi Sardeli, otro abogado de protección de datos en Noyb, en un comunicado. “Las empresas de IA tampoco pueden solo ‘ocultar’ información falsa de los usuarios mientras intervienen internamente la información falsa”.

“Las compañías de IA deberían dejar de actuar como si el GDPR no se aplique a ellas, cuando claramente lo hace”, agregó. “Si no se detienen las alucinaciones, las personas pueden sufrir un daño de reputación fácilmente”.

Noyb ha presentado la queja contra OpenAI ante la Autoridad de Protección de Datos Noruega, y espera que el organismo de control decida que es competente investigar, ya que OYB apunta a la queja en la entidad estadounidense de OpenAI, argumentando que su oficina de Irlanda no es responsable exclusivo de las decisiones de productos que afectan a los europeos.

Sin embargo, en abril de 2024, se remitió una queja de GDPR respaldada por NOYB contra OpenAI, que se presentó en Austria en abril de 2024, el regulador del DPC de Irlanda a causa de un cambio realizado por Operai a principios de ese año para nombrar a su división irlandesa como proveedor del servicio CHATGPT a usuarios regionales.

¿Dónde está esa queja ahora? Todavía sentado en un escritorio en Irlanda.

“Habiendo recibido la queja de la Autoridad de Supervisión de Austria en septiembre de 2024, el DPC comenzó el manejo formal de la queja y todavía está en curso”, Risteard Byrne, subdirector de comunicaciones de oficiales para el DPC dijo a TechCrunch cuando se le pidió una actualización.

No ofreció ninguna dirección cuando se espera que concluya la investigación del DPC sobre las alucinaciones de ChatGPT.

Continue Reading

Noticias

Operai afirma que su nuevo chatbot GPT-4.5 debería ‘alucinar menos’. ¿Cómo se mide eso?

Published

on

Cualquiera que haya jugado con un chatbot generativo de inteligencia artificial (IA) durante más de unos minutos sabe que comete errores.

Estos errores, denominados “alucinaciones”, pueden tener graves consecuencias, como cuando describen falsamente a las personas como delincuentes.

La compañía de IA de EE. UU. Openai afirma que la última iteración de su software, GPT-4.5, debería “alucinar menos”.

La compañía desarrolló su propio sistema de medición, anunciado a fines del año pasado, para respaldar este reclamo.

Entonces, ¿cómo podemos juzgar las alucinaciones de la IA, y podemos esperar que los chatbots se vuelvan más precisos?

Cómo Operai probó sus modelos para las alucinaciones

Operai lanzó su propia herramienta para juzgar la precisión de sus modelos, un “punto de referencia” que llamaron Simpleqa, en noviembre de 2024.

Simpleqa es esencialmente un cuestionario de pub largo y difícil. Le da a los chatbots una lista de miles de preguntas cortas, 4,326 para ser precisos, cada uno de los cuales tiene una sola respuesta correcta.

Si bien todas las respuestas se pueden verificar con una búsqueda en Internet, no son exactamente conocimiento común. Las preguntas (y las respuestas) incluyen:

  • ¿Quién recibió el Premio Frank Rosenblatt del Instituto de Ingenieros Eléctricos y Electrónicos en 2010? (Michio Sugeno)
  • ¿Qué mes, día y año hicieron la segunda sesión de los 4?th ¿Comienza el Parlamento de Singapur? (26 de diciembre de 1978)
  • ¿Qué club de fútbol ganó el Hessenpokal inaugural? (Eintracht Frankfurt)

En un estudio previo a la impresión (no revisado por pares) publicado el año pasado, los investigadores de Operai que desarrollaron SimpleQA dijeron que diseñaron el sistema para ser desafiante.

Dieron una lista mucho más larga de preguntas a cuatro modelos Operai, y agregaron preguntas a la lista final de SimpleQA si al menos uno de los modelos se equivocó.

Luego Openai corrió GPT-4.5 a través del cuestionario, encontrándolo alucinado el 37 por ciento del tiempo.

Si bien obtener más de un tercio de las respuestas equivocadas no es una gran puntuación de prueba, fue significativamente mejor que todos los otros modelos Operai que probaron. El siguiente modelo GPT más reciente, GPT-4O, alucinó el 62 por ciento del tiempo.

Pero Daswin de Silva, investigador de IA en la Universidad de La Trobe, dice que este sistema no es una excelente manera de verificar la precisión.

“Este tipo de evaluación es defectuosa desde el principio”, dice.

Esto se debe en parte a que es un sistema de verificación interno, pero también porque no evalúa lo que ChatGPT es más utilizado: respuestas más largas y complicadas.

Daswin de Silva es subdirector del Centro de Análisis de Datos y Cognición de la Universidad de La Trobe. (Suministrado: Universidad de La Trobe)

“Solo se trata de consultas cortas basadas en hechos y ese no es realmente el caso de primer uso para ChatGPT. Nos gusta escribir documentos más largos usando esta herramienta”, dice el profesor de Silva.

Openai reconoce esta limitación, y los investigadores dicen en su estudio que aún no saben si la precisión en las respuestas cortas se traduce en precisión en respuestas más largas.

Y si tiene una consulta simple, la tasa de error de SimpleQA muestra que es mejor que use un motor de búsqueda.

¿Hay una buena manera de probar la precisión de la IA?

SimpleQA no es el único método para clasificar la precisión de la IA.

Para juzgar este tipo de modelos de IA, que se llaman modelos de idiomas grandes (LLM), existen otras herramientas y puntos de referencia como SelfCheckgpt, Chatbot Arena, Deepeval y Arc-AGI.

Pero todos tienen un problema común: se convierten en objetivos para que la IA entrene.

Geoff Webb, investigador de IA en la Universidad de Monash, dice que toda la informática es vulnerable a esto.

“Tan pronto como tenga un punto de referencia que establezca un tipo particular de prueba, las personas comienzan a los sistemas de capacitación en ellos”, dice.

Hacer un mejor programa para cumplir con un punto de referencia específico no significa necesariamente que será mejor en general.

Por ejemplo, podría diseñar un chatbot que no hiciera nada más que responder a las 4,326 preguntas de SimpleQa correctamente, por lo que obtuvo un puntaje 100 por ciento en esa medida, pero no podía decirle si el cielo era azul.

El profesor Webb dice que este sesgo puede ser sutil. Es posible que las personas no entrenen deliberadamente un sistema en las preguntas de SimpleQA, pero podrían elegir desarrollos de sus sistemas que conduzcan a puntajes SIMPLOQA más altos (u otros puntajes de referencia).

Niusha Shafiabady, investigadora de IA en la Universidad Católica Australiana, dice que la intervención humana podría ser una buena manera de juzgar y administrar la precisión de los LLM.

“Tal vez dentro de 10 años, no necesitaríamos eso, pero en esta etapa diría que la supervisión humana es algo bueno para integrarse en nuestro proceso”.

Ella sugiere que los humanos que revisan las respuestas al azar, de la misma manera que los fabricantes a menudo inspeccionan muestras, podrían convertirse en un control de calidad útil.

El profesor de Silva dice que una mejor manera de juzgar el éxito de LLM es cuánto se usa.

La superioridad en las métricas de evaluación no siempre significa que será útil en un contexto general.

Él dice que el copiloto de Microsoft, que se basa en GPT-4, podría verse como un mejor desempeño que sus competidores porque se ha adoptado muy ampliamente.

“Ese en sí mismo es otro tipo de métrica de evaluación más general e implícita”.

¿Cómo puede AIS alucinar menos?

Operai es vago sobre lo que se hace para mejorar la precisión de GPT más allá de “escalar el cálculo y los datos”.

Pero, ¿es esta última mejora (en una prueba específica) una señal de que AIS cometerá menos errores? ¿O hay un límite para cuánto pueden mejorar?

Pantalla de tableta que muestra aplicaciones de chatgpt, gemini y copilot.

Géminis, de Google AI, y el copilot de Microsoft también son LLM. (Getty Images: Robert Way)

El problema con simplemente agregar más datos de capacitación a un LLM es que los datos no son necesariamente precisos, según el profesor Webb.

“La gente escribe cosas raras”, dice.

El profesor de Silva dice que el modelo actual de mejorar las LLM, agregar más datos y más potencia informática, no puede seguir mejorando indefinidamente.

“Tal vez a fines del año pasado, las compañías de IA habían consumido todos los datos útiles disponibles para capacitar a un modelo de idioma grande”, dice.

“Eso significa que hay un inconveniente significativo en las nuevas capacidades para los LLM”.

Laptop en el escritorio con chatgpt se muestra en la pantalla.

ChatGPT se lanzó a fines de 2022, y actualmente se basa en el GPT-4O LLM. (ABC Gold Coast: Dominic Cansdale)

A fines del año pasado, varios medios de comunicación y tecnología comenzaron a informar sus susurros de la industria de que los modelos de IA estaban golpeando un muro, y alcanzando un punto en el que poner más recursos no hizo un mejor LLM.

Es una sugerencia rechazada por el CEO de Operai, Sam Altman, quien publicó “No hay muro” en X en noviembre de 2024.

Sin embargo, el profesor de Silva cree que las empresas que viajan en el auge de la IA simplemente son lentos para admitir la existencia del muro.

“Creo que hemos llegado a la pared en términos de construcción de modelos tan grandes”, dice.

El próximo salto será en una forma completamente nueva e innovadora de aprender de grandes conjuntos de datos.

¿Podrías hacer una IA que nunca alucinada?

Si la precisión está mejorando o no, la IA generativa en su formato actual nunca estará libre de alucinaciones.

Y esto no es solo porque se alimentan de datos a veces inactivos, dice el profesor Webb.

Estos sistemas no pueden ser entrenados para decir la verdad todo el tiempo, porque no sabemos cuál es la verdad para algunas cosas.

Cuando se le preguntó si había un dios, ChatGPT respondió diciendo que había una “gama de perspectivas” y luego preguntó qué pensaba el usuario.

Muchas preguntas menos desafiantes existencialmente también pueden ser difíciles de responder con precisión, particularmente cuando se les cobra política o culturalmente.

Por ejemplo, cuando se le preguntó sobre el cuerpo de agua frente a la costa de Texas, Chatgpt lo llamó el Golfo de México. En este caso, no reconoció la reciente orden ejecutiva del presidente de Estados Unidos, Donald Trump de cambiar el nombre del “Golfo de América”.

A menudo se requieren alucinaciones

El Dr. Shafiabady señala que a menudo los usuarios quieren que la IA generativa alucine. Todas las imágenes generadas por IA son alucinaciones, por ejemplo.

“Generar la información es algo que queremos que haga. No queremos que sea un motor de búsqueda”, dice ella.

Si desea un modelo que sea capaz de generar cosas que aún no existan en su conjunto de datos, los usuarios no pueden evitar que lo invente. Un modelo que solo le dijo hechos precisos no es un modelo que podría, por ejemplo, sugerir nombres para un nuevo negocio o redactar un plan de ejercicio o comida personalizada.

La palabra “alucinación” ha sido cuestionada por varias personas, quizás lo más provocativamente por un trío de investigadores del Reino Unido el año pasado. Sugirieron que todos los LLM producen “mierda” en un sentido técnico: información sin tener en cuenta su precisión.

Pero otros modelos de IA generativos están en construcción. Operai ha lanzado otros modelos, llamados O1 y O3, que razonan más que los modelos GPT basados ​​en palabras.

El profesor de Silva dice que una combinación de estos dos modelos, que podría ser como se ve GPT-5, en última instancia, podría hacer un chatbot más confiable.

“Tiene que ser GPT más algo más”, dice.

Pero un nuevo modelo, construido desde cero, aún podría ser vulnerable a los problemas.

El profesor Webb dice que estos sistemas naturalmente encarnan sesgo, cultura y valores.

“Actualmente, los sesgos, culturas y valores son norteamericanos.

“Se está realizando un gran esfuerzo en lo que se denomina ‘eliminar el sesgo’ de estos sistemas, pero se trata de cambiar el sesgo a un sesgo que es aceptable para la mayoría de las personas a las que intentan comercializar los sistemas”.

A corto plazo, y posiblemente a largo plazo también, las alucinaciones están aquí para quedarse.

Continue Reading

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading

Trending