Noticias

¿OpenAI ha estado mintiendo sobre sus datos todo el tiempo?

Published

on

En el mundo de la inteligencia artificial, pocas historias han captado tanta atención como la saga en curso que rodea a OpenAI, el inventor de ChatGPT. Desde demandas hasta denunciantes, lo que comenzó como un laboratorio de investigación sin fines de lucro, hace 9 años, dedicado a desarrollar IA beneficiosa se ha transformado en una serie de demandas, renuncias y desafíos legales. En el centro de esta tormenta se encuentra una compleja red de intereses contrapuestos, preocupaciones éticas y ambiciones tecnológicas que tienen implicaciones de gran alcance para el futuro del desarrollo de la IA. Recientemente, un investigador de OpenAI, que contribuyó al desarrollo de GPT-4, brindó una perspectiva privilegiada de que OpenAI estaba entrenando sus modelos con datos protegidos por derechos de autor sin la autorización adecuada. Balaji argumentó que esta práctica podría conducir a una infracción de derechos de autor, incluso si los modelos generativos no replicaran directamente el material original. Peor aún, fue encontrado muerto el 26 de noviembre de 2024.

Batalla con Elon Musk

Las raíces de la situación actual se remontan a una rivalidad de ocho años entre Elon Musk, el enigmático magnate tecnológico, y Sam Altman, director ejecutivo de OpenAI. Su desacuerdo sobre quién debería liderar OpenAI y cómo evitar un “monopolio” de la IA se ha convertido en una serie de presentaciones legales y disputas públicas. Musk, uno de los primeros inversores y miembro de la junta directiva de OpenAI, ha emprendido acciones legales contra la organización, alegando que su transición a un modelo con fines de lucro contradice su misión original de beneficiar el bien público.

Demandas por infracción de derechos de autor

Sin embargo, los problemas legales de OpenAI van mucho más allá de las afirmaciones de Musk. Una coalición de destacadas organizaciones de medios, incluidas The New York Times, The Intercept, New York Daily News, Chicago Tribune y Denver Post, han presentado demandas contra OpenAI por infracción de derechos de autor. Estas acciones ponen de relieve las crecientes preocupaciones sobre las implicaciones éticas y legales de los modelos de IA entrenados con grandes cantidades de datos extraídos de Internet sin autorización explícita.

Renuncias a roles de liderazgo

La controversia continúa con la estructura interna de OpenAI, con la dimisión de varios empleados clave. La lista de salidas parece un quién es quién en la investigación y el desarrollo de la IA: Greg Brockman y John Schulman (cofundadores), IIya Sutskever (cofundadora), Mira Murati (directora de tecnología), Bob McGrew (director de investigación), Jan Leike (ingeniero en seguridad de la IA) y Barret Zoph (vicepresidente de investigación). Este éxodo de talento plantea dudas sobre la capacidad de la organización para mantener su posición a la vanguardia de la innovación en IA.

Denunciante encontrado muerto

Sin embargo, el acontecimiento más preocupante es la trágica muerte de Suchir Balaji, un ex investigador de OpenAI de 26 años convertido en denunciante. Balaji fue encontrado muerto en su apartamento de San Francisco el 26 de noviembre de 2024 y las autoridades consideraron que la muerte fue un suicidio. En los meses previos a su fallecimiento, Balaji se había convertido en un crítico abierto de las prácticas de OpenAI, particularmente en lo que respecta a sus métodos de recopilación de datos. Durante sus cuatro años en OpenAI, Balaji contribuyó al desarrollo de GPT-4, uno de los modelos de lenguaje más avanzados de la organización.

Su perspectiva interna dio peso a sus acusaciones de que OpenAI estaba entrenando sus modelos con datos protegidos por derechos de autor sin la autorización adecuada. Balaji argumentó que esta práctica podría conducir a una infracción de derechos de autor, incluso si los modelos generativos no replicaran directamente el material original.

La pérdida de Balaji no es sólo una tragedia personal sino también un duro golpe para quienes abogan por una mayor transparencia y consideraciones éticas en el desarrollo de la IA. Su disposición a denunciar las irregularidades percibidas dentro de la industria destacó la creciente tensión entre el rápido avance tecnológico y la necesidad de una innovación responsable. Al igual que Frances Haugen, una denunciante de Facebook que proporcionó documentos internos al Congreso y al Wall Street Journal, el ingeniero de software de Microsoft, Shane Jones, envió cartas a la presidenta de la FTC, Lina Khan, y a la junta directiva de Microsoft, diciendo que el generador de imágenes de inteligencia artificial de Microsoft creaba imágenes violentas y sexuales y tenía derechos de autor. imágenes cuando se le dieron ciertas indicaciones, y Blake Lemonie, un científico informático que recientemente obtuvo un título de ingeniero de software senior en Google, agitó los titulares cuando expresó su preocupación de que las pruebas de los sistemas de inteligencia artificial de Google mostraran una conciencia similar a la humana. Este descubrimiento encendió una conversación entre expertos en inteligencia artificial y funcionarios ejecutivos de Google, lo que provocó su despido.

Las preguntas abiertas en torno a la IA

A medida que continúan las batallas legales y la industria lidia con las consecuencias de estos eventos, surgen varias preguntas clave:

  1. ¿Cómo pueden las empresas de IA equilibrar la necesidad de grandes cantidades de datos de capacitación respetando al mismo tiempo los derechos de propiedad intelectual?
  2. ¿Qué papel deberían desempeñar los organismos reguladores en la supervisión del desarrollo y la implementación de sistemas avanzados de IA?
  3. ¿Cómo puede la industria de la IA fomentar una cultura de desarrollo ético y al mismo tiempo traspasar los límites de la innovación?
  4. ¿Qué salvaguardas deben existir para proteger a los denunciantes y fomentar la transparencia dentro de las organizaciones de IA?

Las respuestas a estas preguntas probablemente darán forma al futuro del desarrollo de la IA en los próximos años. A medida que la situación con OpenAI continúa desarrollándose, sirve como un claro recordatorio de los complejos desafíos éticos, legales y tecnológicos que tenemos por delante en el campo de la inteligencia artificial.

La industria tecnológica, los formuladores de políticas, las grandes empresas tecnológicas y el público en general deben entablar un diálogo reflexivo para navegar estas aguas turbias. Sin embargo, el equilibrio complicado consiste en lograr un equilibrio entre regulación y gobernanza con la velocidad actual de desarrollo. Quizás nombrar una autoridad para supervisar estas acciones sea el camino a seguir, como la propuesta de Donald Trump de nombrar un Zar de la IA. En una medida audaz, el presidente electo Donald Trump está considerando el nombramiento de un “zar de la IA” para encabezar la estrategia de IA del país, prometiendo acelerar las capacidades de IA de Estados Unidos y al mismo tiempo planteando preocupaciones sobre posibles conflictos de intereses e implicaciones éticas. Ya sea a través de un zar de la IA asignado por el gobierno, que tiene sus propias complicaciones, o a través de esfuerzos de colaboración entre grandes empresas tecnológicas, es imprescindible aprovechar el inmenso potencial de la IA al mismo tiempo que mitiga sus riesgos y garantiza que su desarrollo se alinee con valores sociales y marcos legales más amplios. .

El ritmo del cambio es el más lento que jamás haya sido y cada día avanzará más rápido de acuerdo con la Ley de Moore. Como tal, es necesario que haya una entidad asignada, y rápidamente, para supervisar el desarrollo de la IA a fin de evitar el monopolio, la contaminación moral y la transparencia en las decisiones y actos de todos los que dan forma al ecosistema de la IA, incluidas las grandes empresas tecnológicas, los capitalistas de riesgo. , Startups y empresas.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version