Noticias
¿Por qué Operai y Google están presionando para un uso justo?

WASHINGTON, DC – 21 de enero: el CEO de Openai, Sam Altman (R), acompañado por el presidente de los Estados Unidos, Donald Trump, … [+]
Getty ImagesLas potencias de inteligencia artificial OpenAi y Google están presionando agresivamente al gobierno de los Estados Unidos para clasificar la capacitación de IA en datos con derechos de autor como “uso justo”. Su objetivo, enmarcado como una cuestión de seguridad nacional, está posicionado para asegurar una ventaja competitiva contra los rivales internacionales, particularmente China. Sin embargo, esta propuesta plantea preguntas legales, éticas y económicas profundas, ilustrada fuertemente por casos recientes de alto perfil que involucran compañías como meta y demandas recientes por parte de editores franceses.
El cabildeo estratégico de Openai y la ‘edad de inteligencia’
Openai y Google presentaron recientemente propuestas de políticas extensas en respuesta a una solicitud de comentarios públicos de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. La presentación es parte del plan de acción de inteligencia artificial más amplio del gobierno de los Estados Unidos, iniciado bajo una orden ejecutiva de la administración Trump. Sus propuestas argumentan que limitar la capacitación de IA en materiales con derechos de autor podría debilitar la ventaja tecnológica de Estados Unidos y reducir la innovación, posicionando la seguridad nacional como una justificación central para una amplia protección de uso justo. Sam Altman, CEO de Openai, etiqueta el período actual como una “edad de inteligencia”, lo que sugiere que las leyes restrictivas de derechos de autor podrían empoderar inadvertidamente a rivales geopolíticos como China. Argumenta que el liderazgo estadounidense en IA se correlaciona directamente con la seguridad nacional, la prosperidad económica y los ideales democráticos.
Google refuerza esta narración, enfatizando cómo las restricciones actuales de derechos de autor son excesivamente cautelosas, inspiradas en modelos europeos estrictos. La postura de Google es que el uso justo y las excepciones mineras de texto y datos son vitales, y afirman que las restricciones crean complejidad innecesaria, imprevisibilidad y retrasos, lo que finalmente obstaculiza la innovación tecnológica estadounidense.
Ambas compañías presentan una narrativa clara: si las empresas estadounidenses no pueden capacitar libremente los sistemas de IA, el liderazgo tecnológico estadounidense podría perderse, principalmente a China, donde las empresas operan con menos restricciones regulatorias.
El meta escándalo: una advertencia sobre los límites del uso justo
Las implicaciones de ampliar la interpretación del uso justo se destacan en la reciente controversia meta. Meta enfrentó acusaciones de torrenciar libros con derechos de autor, sin permiso, para capacitar a los modelos de IA, lo que llevó a los autores a lanzar una demanda histórica. Los documentos revelaron estrategias de ocultación deliberadas por Meta, incluido el uso de servicios web de Amazon para enmascarar sus acciones.
Los autores demandaron a Meta por infracción de derechos de autor, afirmando que estas acciones constituyeron una piratería directa, no un uso justo. La demanda de los autores introdujo un argumento particularmente condenatorio, invocando la “defensa de Bob Dylan”, que hace referencia irónicamente a las letras que ilustran el tratamiento inequitativo, donde las grandes corporaciones aparentemente evitan las leyes con impunidad.
Además, los editores franceses, dirigidos por la Unión Nacional de Publicaciones, la Unión Nacional de Autores y Compositores, y la Sociedad de Men of Letters, han emprendido acciones legales contra Meta. Estas organizaciones, que defienden los intereses de los autores y editores, presentaron una queja en un tribunal de París alegando que meta participó en infracción sistemática de derechos de autor y “parasitismo” económico mediante el uso de trabajos con derechos de autor para capacitar a sus modelos de IA. Este caso destaca la creciente resistencia global al uso no controlado de obras creativas en la capacitación de IA y establece un precedente para futuras batallas legales más allá de los Estados Unidos.
La realidad de la capacitación de IA: los datos, no el modelo, impulsa el valor
Las compañías de IA a menudo afirman que sus modelos no replican obras con derechos de autor, sino que “aprenden” de ellos extrayendo patrones, estructuras lingüísticas e ideas contextuales. Sin embargo, la función central de los modelos generativos es imitar estadísticamente el sistema que produjo los datos de entrenamiento. Esto significa que se puede solicitar a un modelo de idioma que escriba al estilo de un autor específico o imiten el trabajo de un artista porque ha codificado patrones del material original.
Desde una perspectiva técnica, el aprendizaje automático no es “aprendizaje” en la forma en que lo hace un humano, es principalmente un mecanismo de compresión de datos a gran escala. Durante el entrenamiento, los modelos de IA codifican patrones estadísticos de sus conjuntos de datos, reteniendo una parte significativa de esos patrones incluso después del ajuste fino. Esto permite que los modelos regeneran los datos de capacitación dentro de márgenes razonables de error, reproduciendo efectivamente los trabajos con derechos de autor de manera que requieren atribución o licencia.
Los críticos como Chomba Bupe, emprendedor tecnológico y experto en inteligencia de máquinas, argumentan que esto socava las afirmaciones de uso justo porque los modelos de IA no crean contenido verdaderamente novedoso, sino que recombinan versiones comprimidas de materiales con derechos de autor. Esto fortalece el argumento de que las compañías de IA deben compensar o buscar el consentimiento explícito de los creadores de contenido cuyas obras se incluyen en los conjuntos de datos de capacitación.
Además, las demandas en curso contra las empresas de IA podrían servir como una corrección necesaria para empujar a la industria hacia modelos de aprendizaje automático genuinamente inteligentes en lugar de generadores basados en compresión de datos disfrazados de inteligencia. Si los desafíos legales obligan a las empresas de IA a repensar su dependencia del contenido con derechos de autor, podría estimular la innovación para crear sistemas de IA más avanzados y de origen ético.
Doctrina de uso justo: incertidumbre legal y tensiones de la industria
Central para el argumento de Openai y Google es la doctrina legal del uso justo, lo que históricamente permite usos transformadores limitados de los materiales con derechos de autor. Las compañías de IA afirman que sus algoritmos no reproducen los trabajos con derechos de autor directamente para el consumo público, sino que analizan patrones, contexto y estructuras, creando resultados transformadores.
Sin embargo, las recientes decisiones de la corte histórica ponen en duda sobre esta interpretación. En particular, el caso de Thomson-Reuters y Westlaw demostraron que los resultados generados por IA podrían socavar significativamente los mercados establecidos, no simplemente complementarlos o mejorarlos. Además, Operai enfrenta múltiples demandas significativas, incluso de los principales editores como el New York Times, destacando la contención continua en torno a la aplicabilidad de uso justo en la era de la IA.
Confiar solo en uso justo como escudo legal es un modelo de negocio precario. Si su modelo de negocio se basa en obtener materias primas de forma gratuita, materiales que probablemente estén protegidos por los derechos de autor, entonces supone un pasivo desde el principio. Los inversores pueden ver este riesgo legal como un defecto estructural, especialmente dado el creciente número de demandas presentadas contra las empresas de IA.
Evaluación de reclamos de seguridad nacional: ¿Riesgo real o laguna reguladora?
Tanto Operai como Google enfatizan las preocupaciones de seguridad nacional, advirtiendo que las leyes de derechos de autor demasiado restrictivas podrían permitir a China superar las capacidades tecnológicas de los Estados Unidos. Con frecuencia citan los rápidos avances de IA de China, ejemplificados por Deepseek AI, que recientemente llamó la atención del presidente chino Xi Jinping.
Sin embargo, se puede argumentar que las justificaciones de seguridad nacional corren el riesgo de convertirse en una laguna reguladora conveniente. La invocación de riesgos geopolíticos podría servir como influencia para otorgar a las empresas de IA privilegios excesivamente amplios, potencialmente socavando las protecciones de la propiedad intelectual y los derechos de los creadores.
Recomendaciones: Encontrar un equilibrio sostenible
Una solución sostenible debe conciliar la innovación tecnológica con los intereses económicos de los creadores. Los formuladores de políticas deben desarrollar estándares federales claros que especifiquen parámetros de uso justo para la capacitación de IA, considerando soluciones como:
- Licencias y regalías: Acuerdos de licencia transparente que compensan a los creadores cuyo trabajo es parte integral de los conjuntos de datos de IA.
- Conjuntos de datos curados: Los conjuntos de datos gubernamentales o administrados por la industria aprobaron explícitamente para la capacitación de IA, asegurando una compensación justa.
- Excepciones reguladas: Definiciones legales claras que distinguen el uso transformador en contextos de capacitación de IA.
Estas políticas matizadas podrían fomentar la innovación sin sacrificar los derechos de los creadores.
El cabildeo de Openai y Google revela tensiones más amplias entre el rápido crecimiento tecnológico y la responsabilidad ética. Si bien las preocupaciones de seguridad nacional justifican una consideración cuidadosa, no deben justificar la regulación irresponsable o los compromisos éticos. Un enfoque equilibrado, preservar la innovación, proteger los derechos de los creadores y garantizar el desarrollo sostenible y ético de la IA, es fundamental para futuras competitividad global y justicia social.