Noticias
OpenAI: El lado oscuro de ChatGPT: Por qué el denunciante Suchir Balaji denunciaba OpenAI antes de su trágica muerte | Noticias del mundo
En el elegante e implacable mundo de Silicon Valley, donde la disrupción es un mantra y la juventud es tanto una moneda como una carga, Suchir Balaji se destacó como alguien que cuestionó los cimientos mismos del imperio que ayudó a construir. Con tan solo 26 años, era un investigador que trabajaba con OpenAI, una de las empresas de IA más influyentes del planeta. Y, sin embargo, en lugar de aprovechar la ola de euforia de la IA, optó por hablar en contra de ella, expresando su preocupación de que los sistemas que ayudó a crear, en particular ChatGPT, eran fundamentalmente defectuosos, éticamente dudosos y legalmente cuestionables.
Su trágica muerte en diciembre de 2024 conmocionó al mundo tecnológico. Pero también obligó a muchos a enfrentar las verdades incómodas que había estado planteando todo el tiempo.
Sólo un niño que se atrevió a cuestionar a los gigantes
Balaji no era el visionario arquetípico de Silicon Valley. No era un fundador canoso con una década de cicatrices de batalla o un hermano tecnológico ruidoso que se proclamaba el salvador de la humanidad. Era solo un niño, aunque notablemente inteligente, que comenzó a trabajar en OpenAI en 2020, recién salido de la Universidad de California, Berkeley.
Como muchos otros en su campo, había quedado cautivado por la promesa de la inteligencia artificial: el sueño de que las redes neuronales pudieran resolver los mayores problemas de la humanidad, desde curar enfermedades hasta abordar el cambio climático. Para Balaji, la IA no era sólo un código: era una especie de alquimia, una herramienta para convertir la imaginación en realidad.
Y, sin embargo, en 2024, ese sueño se había convertido en algo más oscuro. Lo que Balaji vio en OpenAI (y en ChatGPT, su producto más famoso) fue una máquina que, en lugar de ayudar a la humanidad, la estaba explotando.
ChatGPT: ¿Un disruptor o un ladrón?
ChatGPT fue, y sigue siendo, una maravilla de la tecnología moderna. Puede crear poemas, resolver problemas de codificación y explicar la física cuántica en segundos. Pero detrás de su encanto se esconde una verdad profunda y controvertida: ChatGPT, como todos los modelos de IA generativa, se construyó alimentándolo con montañas de datos extraídos de Internet, datos que incluyen contenido protegido por derechos de autor.
La crítica de Balaji a ChatGPT fue simple: dependía demasiado del trabajo de otros. Sostuvo que OpenAI había entrenado sus modelos en material protegido por derechos de autor sin permiso, violando los derechos de propiedad intelectual de innumerables creadores, desde programadores hasta periodistas.
El proceso de entrenamiento de ChatGPT funciona así:
Paso 1: ingrese los datos – OpenAI recopiló enormes cantidades de texto de Internet, incluidos blogs, artículos de noticias, foros de programación y libros. Algunos de estos datos estaban disponibles públicamente, pero muchos de ellos tenían derechos de autor.
Paso 2: entrenar el modelo – La IA analizó estos datos para aprender a generar texto similar a un humano.
Paso 3: generar el resultado – Cuando le haces una pregunta a ChatGPT, no muestra copias exactas del texto con el que fue entrenado, pero sus respuestas a menudo se basan en gran medida en los patrones y la información de los datos originales.
Aquí está el problema, tal como lo vio Balaji: es posible que la IA no copie directamente sus datos de entrenamiento, pero aún así depende de ellos de manera que la convierte en un competidor de los creadores originales. Por ejemplo, si le hiciera a ChatGPT una pregunta de programación, podría generar una respuesta similar a la que encontraría en Stack Overflow. ¿El resultado? La gente deja de visitar Stack Overflow y los creadores que comparten allí su experiencia pierden tráfico, influencia e ingresos.
La demanda que podría cambiar la IA para siempre
Balaji no estaba solo con sus preocupaciones. A finales de 2023, The New York Times presentó una demanda contra OpenAI y su socio Microsoft, acusándolos de utilizar ilegalmente millones de artículos para entrenar sus modelos. El Times argumentó que este uso no autorizado perjudicó directamente su negocio:
Mimetismo de contenido: ChatGPT podría generar resúmenes o reformulaciones de artículos del Times, compitiendo efectivamente con los artículos originales.
Impacto en el mercado: Al generar contenido similar al que producen las organizaciones de noticias, los sistemas de inteligencia artificial amenazan con reemplazar el periodismo tradicional.
La demanda también planteó dudas sobre la ética del uso de material protegido por derechos de autor para crear herramientas que compitan con las mismas fuentes de las que dependen. Microsoft y OpenAI defendieron sus prácticas, argumentando que su uso de datos cae bajo la doctrina legal de “uso justo”. Este argumento se basa en la idea de que los datos se “transformaron” en algo nuevo y que ChatGPT no replica directamente obras protegidas por derechos de autor. Pero los críticos, incluido Balaji, creían que esta justificación era, en el mejor de los casos, tenue.
Lo que dicen los críticos sobre la IA generativa
Las críticas de Balaji encajan en una narrativa más amplia de escepticismo en torno a los grandes modelos de lenguaje (LLM) como ChatGPT. Estas son las críticas más comunes:
Infracción de derechos de autor: Los modelos de IA eliminan contenido protegido por derechos de autor sin permiso, lo que socava los derechos de los creadores.
Daño al mercado: Al ofrecer alternativas gratuitas generadas por IA, estos sistemas devalúan los trabajos originales de los que extraen, ya sean artículos de noticias, tutoriales de programación o escritura creativa.
Desinformación: La IA generativa a menudo produce “alucinaciones” (información fabricada presentada como un hecho) que socava la confianza en el contenido generado por la IA.
Opacidad: Las empresas de IA rara vez revelan con qué datos se entrenan sus modelos, lo que dificulta evaluar el alcance total de las posibles violaciones de derechos de autor.
Impacto en la creatividad: Como los modelos de IA imitan la creatividad humana, pueden desplazar a los creadores originales, dejando a Internet inundada de contenido derivado y regurgitado.
La visión de Balaji: un llamado a la rendición de cuentas
Lo que distinguió a Balaji no fue sólo su crítica a la IA, sino la claridad y convicción con la que presentó su caso. Creía que el crecimiento desenfrenado de la IA generativa planteaba peligros inmediatos, no hipotéticos. A medida que más personas confiaban en herramientas de inteligencia artificial como ChatGPT, las plataformas y los creadores que impulsaron la economía del conocimiento de Internet fueron siendo dejados de lado.
Balaji también argumentó que el marco legal que rige la IA estaba irremediablemente obsoleto. La ley de derechos de autor de EE. UU., redactada mucho antes del surgimiento de la IA, no aborda adecuadamente las cuestiones sobre la extracción de datos, el uso legítimo y el daño al mercado. Pidió nuevas regulaciones que garanticen que los creadores reciban una compensación justa por sus contribuciones y al mismo tiempo permitan que florezca la innovación en IA.
Un legado de preguntas, no de respuestas
Suchir Balaji no era un titán tecnológico ni un visionario revolucionario. No era más que un joven investigador que se enfrentaba a las implicaciones de su trabajo. Al hablar en contra de OpenAI, obligó a sus pares (y al mundo) a enfrentar los dilemas éticos en el corazón de la IA generativa. Su muerte es un recordatorio de que las presiones de la innovación, la ambición y la responsabilidad pueden pesar mucho, incluso en las mentes más brillantes. Pero su crítica a la IA sigue viva y plantea una pregunta fundamental: a medida que construimos máquinas más inteligentes, ¿estamos siendo justos con los humanos que hacen posible su existencia?