Connect with us

Noticias

India Media buscan unirse a la demanda contra Operai Chatbot

Published

on

PTI Sam Altman en Delhi el 5 de febreroPTI

El jefe de Operai, Sam Altman, estaba en Delhi el miércoles y dijo que India era un mercado importante para su empresa.

Las organizaciones de noticias más importantes de la India están tratando de unirse a una demanda contra OpenAI, la startup de los Estados Unidos detrás de ChatGPT, por presunto uso no autorizado de su contenido.

Las organizaciones de noticias incluyen algunas de las publicaciones más antiguas de la India como el Indian Express, The Hindu, The India Today Group, NDTV, multimillonario Gautam Adani, y más de una docena de otras.

Operai niega las acusaciones y le dijo a la BBC que usa “datos disponibles públicamente” que están en línea con “precedentes legales ampliamente aceptados”.

El miércoles, el CEO de Openai, Sam Altman, estaba en Delhi para discutir el plan de la India para un ecosistema de IA de bajo costo con el ministro de TI Ashwini Vaishnaw.

Dijo que India “debería ser uno de los líderes de la Revolución AI” y dijo que los comentarios anteriores de 2023, cuando dijo que las empresas indias lucharían para competir, habían sido sacados de contexto.

“India es un mercado increíblemente importante para la IA en general y para OpenAi en particular”, dijo los medios locales citando en el evento.

El caso legal presentado contra Operai en noviembre por Asian News International (ANI), la agencia de noticias más grande de la India, es el primero de su tipo en India.

ANI acusa a Chatgpt de usar su material con derechos de autor ilegalmente, que OpenAi niega, y está buscando daños de 20 millones de rupias ($ 230,000; £ 185,000).

El caso tiene importancia para ChatGpt dados sus planes para expandir en el país. Según una encuesta, India ya tiene el base de usuarios más grande de chatgpt.

Los chatbots como ChatGPT están entrenados en conjuntos de datos masivos recopilados por el arrastre por Internet. El contenido producido por Casi 450 canales de noticias y 17,000 periódicos en India tienen un gran potencial para esto.

Sin embargo, no hay claridad sobre qué material Material ChatGPT puede recolectar y usar legalmente para este propósito.

Operai enfrenta al menos una docena de demandas en todo el mundo presentadas por editores, artistas y organizaciones de noticias, que han acusado a Chatgpt de usar su contenido sin permiso.

El más destacado de ellos fue archivado por The New York Times En diciembre de 2023, en el que el periódico exigió “miles de millones de dólares” en daños a Openi y Microsoft, su patrocinador.

“Una decisión de cualquier tribunal también tendría algún valor persuasivo para otros casos similares en todo el mundo”, dice Vibhav Mithal, un abogado especializado en inteligencia artificial en el bufete de abogados indio Anand y Anand.

Mithal dijo que el veredicto en la demanda presentada por ANI podría “definir cómo operarán estos modelos de IA en el futuro” y “qué contenido de noticias con derechos de autor se puede usar para capacitar a los modelos generativos de IA [like ChatGPT]”.

Una decisión judicial a favor de ANI podría generar más casos legales, así como abrir la posibilidad de que las compañías de IA ingresen acuerdos compartidos con licencias con creadores de contenido, que algunas compañías ya han comenzó haciendo.

“Pero una decisión a favor de OpenAi conducirá a más libertad para usar datos protegidos con derechos de autor para entrenar modelos de IA”, dijo.

Getty Images Men lee noticias locales diariamente con noticias de primera plana además de un puesto en Amritsar el 22 de julio de 2024Getty Images

El contenido producido por casi 450 canales de noticias y 17,000 periódicos en India tiene un gran potencial para ChatGPT

¿Cuál es el caso de Ani?

ANI proporciona noticias a sus suscriptores que pagan y poseen derechos de autor exclusivos sobre un gran archivo de texto, imágenes y videos.

En su demanda presentada en el Tribunal Superior de Delhi, Ani dice que OpenAi usó su contenido para entrenar a ChatGPT sin permiso. Ani ha argumentado que esto llevó a que el chatbot mejorara y se ha beneficiado de OpenAi.

La agencia de noticias dijo que antes de presentar la demanda, le había dicho a Openai que su contenido se estaba utilizando ilegalmente y se le ofreció otorgar a la compañía una licencia para usar sus datos.

Ani dice que OpenAi rechazó la oferta y puso a la agencia de noticias en una lista de bloques interna para que sus datos ya no se recopilen. También le pidió a ANI que deshabilite ciertos rastreadores web para que ChatGPT no lo recogiera.

La agencia de noticias dice que a pesar de estas medidas, ChatGPT elige su contenido de los sitios web de sus suscriptores. Esto ha enriquecido a OpenAi “injustamente”, dice.

Ani también dice en su demanda que el chatbot produce su contenido textual para ciertas indicaciones. En algunos casos, dice Ani, ChatGPT ha atribuido falsamente declaraciones a la agencia de noticias, obstaculizando su credibilidad y engañando al público.

Además de buscar una compensación por daños, ANI le ha pedido a la corte que ordene a OpenAi que deje de almacenar y usar su trabajo.

En su respuesta, OpenAi dice que se opone al caso que se presenta en India ya que la compañía y sus servidores no se encuentran en el país y que el chatbot tampoco ha sido capacitado allí.

Las organizaciones de noticias buscan unirse a la demanda

En diciembre, la Federación de Editores Indios, que afirma representar al 80% de los editores indios, incluidas las Oficinas Indias de Penguin Random House y Oxford University Press, presentó una solicitud en la corte que decía que fueron “directamente afectados” por este caso y deberían estar permitido presentar sus argumentos también.

Un mes después, Digital News Publishers Association (DNPA), que representa a los principales medios de comunicación indios, y otros tres medios de comunicación presentaron una solicitud similar. Argumentaron que si bien OpenAi había celebrado acuerdos de licencia con editores internacionales de noticias como Associated Press y Financial Times, no se había seguido un modelo similar en la India.

DNPA le dijo al tribunal que el caso afectaría el sustento de los periodistas y toda la industria de noticias del país. Operai, sin embargo, ha argumentado que los chatbots no son un “sustituto” de las suscripciones de noticias y no se utilizan para tales fines.

El tribunal aún no ha admitido estas solicitudes de los editores y OpenAI ha argumentado que el tribunal no debería escucharlas.

Pero el juez aclaró que incluso si estas asociaciones pueden argumentar, el tribunal se restringirá a las afirmaciones de ANI ya que las otras partes no habían presentado sus propias demandas.

Mientras tanto, Openai le dijo a la BBC que está participando en “asociaciones y conversaciones constructivas” con organizaciones de noticias en todo el mundo, incluida la India, para “trabajar en colaboración”.

Getty Images Men mira la transmisión en vivo del discurso presupuestario del ministro de finanzas Nirmala Sitharaman en pantallas de televisión dentro de una tienda en SrinagarGetty Images

La Asociación de Editores de Noticias Digitales dice que el caso afectaría el sustento de los periodistas y toda la industria de noticias del país.

Donde se encuentra la regulación de IA en la India

Los analistas dicen que las demandas presentadas contra ChatGPT en todo el mundo podrían poner en foco aspectos de los chatbots que han escapado del escrutinio hasta ahora.

El Dr. Sivaramakrishnan R Guruvayur, cuya investigación se centra en el uso responsable de la inteligencia artificial, dice que los datos utilizados para entrenar chatbots son uno de esos aspectos.

El caso Ani-Openai llevará a la corte “a evaluar las fuentes de datos” de los chatbots, dijo.

Los gobiernos de todo el mundo han estado lidiando con cómo regular la IA. En 2023, Italia obstruido Chatgpt diciendo que la recopilación masiva de los datos personales del chatbot planteó problemas de privacidad.

La Unión Europea aprobado una ley para regular la IA el año pasado.

El gobierno indio también tiene indicado planes para regular la IA. Antes de las elecciones de 2024, el gobierno emitió un aviso de que las herramientas de IA que estaban “subestimados” o “poco confiables” deberían obtener el permiso del gobierno antes de su lanzamiento.

También solicitó a las herramientas de IA que no generen respuestas ilegales en la India o “amenazen la integridad del proceso electoral”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Acabo de probar Chatgpt vs. Géminis con 5 indicaciones: aquí está el ganador

Published

on

En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.

Ambos pesos pesados ​​están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.

Continue Reading

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Trending