Noticias

OpenAI gana a lo grande al desestimarse la demanda por derechos de autor de Raw Story

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


El Distrito Sur de Nueva York ha desestimado una demanda por violación de derechos de autor presentada por Raw Story Media, Inc. y AlterNet Media, Inc., medios de noticias alternativos en línea de izquierda, contra OpenAI, desestimando efectivamente las acusaciones de que la empresa de IA generativa violó los derechos de autor al utilizando contenido de noticias extraído en sus datos de entrenamiento.

Este despido podría verse como un momento importante en la batalla en curso sobre los derechos de autor y las herramientas de inteligencia artificial, particularmente bajo la Sección 1202(b) de la Ley de Derechos de Autor del Milenio Digital (DMCA), pero vale la pena señalar que otros casos tampoco han logrado establecer casos exitosos. reclamaciones bajo esta disposición.

Profundicemos en lo que sucedió, por qué el juez desestimó el caso y qué significa esto para el futuro de la IA, los derechos de autor y la legalidad de las empresas de tecnología para eliminar contenido de la web sin el permiso o compensación expreso de los creadores.

Comprensión de la Sección 1202(b) de la DMCA

La demanda giró en torno a la Sección 1202(b) de la DMCA, una disposición que tiene como objetivo proteger la “información de gestión de derechos de autor” (CMI).

Esto incluye los nombres de los autores, títulos y otros metadatos que identifican obras protegidas por derechos de autor. La sección 1202(b) prohíbe la eliminación o alteración de dicha información sin autorización, especialmente si hacerlo facilita la infracción de derechos de autor.

En este caso, Raw Story y AlterNet alegaron que OpenAI utilizó artículos de sus sitios web para entrenar ChatGPT y otros modelos sin preservar CMI, violando la Sección 1202(b).

OpenAI no es la única empresa de IA que probablemente haya eliminado ese material de la web: mientras que los proveedores de modelos de IA tienden a proteger de cerca sus conjuntos de datos de entrenamiento, la industria en general sin duda ha eliminado grandes extensiones de la web para entrenar sus diversos modelos (una práctica similar). a lo que hizo Google para rastrear e indexar los resultados de búsqueda en su principal producto de motor de búsqueda). De esta manera, algunos creadores ven el raspado de datos como el “pecado original” de la IA.

En este caso, los demandantes Raw Story y Alternet afirmaron que los resultados de la IA de OpenAI (respuestas generadas por los modelos) a veces se basaban en sus artículos y que la empresa violó conscientemente los derechos de autor después de que se eliminó el CMI.

Por qué el tribunal desestimó las afirmaciones de Raw Story

La jueza Colleen McMahon aceptó la moción de OpenAI de desestimar el caso por falta de legitimación activa. Específicamente, el juez determinó que los demandantes no podían demostrar que sufrieron un daño concreto y real por las acciones de OpenAI, un requisito esencial según el Artículo III de la Constitución de los EE. UU. para que cualquier demanda proceda.

El juez McMahon también consideró el panorama cambiante de las interfaces de modelos de lenguaje grande (LLM), y señaló que las actualizaciones de estos sistemas complican aún más la atribución y la trazabilidad. Enfatizó que las mejoras iterativas de la IA generativa hacen que sea menos probable que el contenido se reproduzca palabra por palabra, lo que hace que las afirmaciones de los demandantes sean aún más especulativas.

El juez señaló que “la probabilidad de que ChatGPT genere contenido plagiado de uno de los artículos de los demandantes parece remota”. Esto refleja una dificultad clave en este tipo de casos: la IA generativa está diseñada para sintetizar información en lugar de replicarla palabra por palabra. Los demandantes no presentaron pruebas convincentes de que sus obras específicas fueran directamente infringidas de una manera que condujera a un daño identificable.

El fallo se alinea con casos similares en los que los tribunales han tenido dificultades para aplicar la ley de derechos de autor tradicional a la IA generativa. Por ejemplo, el caso Doe 1 v. GitHub que involucró a Copilot de Microsoft también abordó reclamaciones bajo la Sección 1202(b). Allí, el tribunal determinó que el código generado por Copilot no era una “copia idéntica” del original, sino fragmentos que fueron reconfigurados, lo que dificultaba probar la violación de los requisitos de CMI.

Una creciente división en la Sección 1202(b)

La decisión de Raw Story destaca las incertidumbres más amplias que enfrentan los tribunales con respecto a la Sección 1202(b), especialmente con la IA generativa.

Actualmente no existe un consenso firme sobre cómo se aplica la Sección 1202(b) a una amplia gama de contenidos en línea. Por un lado, algunos tribunales han impuesto lo que se llama un requisito de “identidad”, lo que significa que los demandantes deben demostrar que las obras infractoras son una copia exacta del contenido original, menos el CMI. Otros, sin embargo, han permitido interpretaciones más flexibles.

Por ejemplo, el tribunal del Distrito Sur de Texas rechazó recientemente el requisito de identidad, afirmando que incluso las reproducciones parciales podrían considerarse violaciones si se elimina deliberadamente el CMI.

Mientras tanto, en la demanda presentada por Sarah Silverman y un grupo de autores, el tribunal sostuvo que el demandante no presentó pruebas suficientes de que OpenAI había eliminado activamente CMI de su contenido. Ese fallo, al igual que el de Raw Story, subraya la carga probatoria que enfrentan los demandantes.

Como explicó Maria Crusey en un artículo para Authors Alliance, “El aumento en las reclamaciones del artículo 1202(b) plantea preguntas desafiantes, a saber: ¿Cómo se aplica el artículo 1202(b) al uso de una obra protegida por derechos de autor como parte de un conjunto de datos que ¿Debe limpiarse, reestructurarse y procesarse de manera que separe la información de gestión de derechos de autor del contenido mismo?

Por qué esta sentencia es importante para la IA y los creadores de contenido

La desestimación de la demanda de Raw Story es más que una victoria para OpenAI: es un indicador de cómo los tribunales pueden manejar reclamaciones de derechos de autor similares en el panorama en rápida evolución de la IA generativa. Con OpenAI y su inversor Microsoft defendiéndose actualmente de una demanda similar presentada por Los New York Times, el fallo sólo puede ayudar a sentar algún precedente para desestimar este y futuros reclamos.

De hecho, el fallo sugiere que sin un daño claro y demostrable o una reproducción exacta, los demandantes pueden verse desafiados a llegar a los tribunales.

El fallo del juez McMahon también toca un punto más amplio sobre cómo la IA sintetiza datos en lugar de replicarlos directamente. ChatGPT de OpenAI no recuerda directamente artículos de Raw Story; en cambio, utiliza datos de entrenamiento para producir resultados novedosos que se asemejan a la escritura humana. Esto hace que sea inherentemente difícil demostrar violaciones de las leyes de derechos de autor actuales.

Para los creadores de contenido, esto plantea un desafío importante: cómo garantizar el crédito adecuado y evitar el uso no autorizado de su trabajo en conjuntos de datos de entrenamiento. Acuerdos de licencia como los que OpenAI ha firmado con grandes editores de noticias como Moda y cableado Su propietario, Condé Nast, podría convertirse en un nuevo estándar, brindando a las empresas una forma de utilizar legalmente contenido protegido por derechos de autor y al mismo tiempo compensar a sus creadores.

Entre un robot y un lugar difícil

Los tribunales todavía están averiguando cómo manejar la IA generativa, y fallos recientes sugieren que son reacios a extender las protecciones de la Sección 1202(b) a menos que los demandantes demuestren un daño real y específico. El contenido generado por IA se sintetiza en lugar de replicarse, lo que dificulta probar violaciones de derechos de autor.

Para los demandantes, esto significa demostrar que hubo daño es una batalla cuesta arriba. Los tribunales están señalando que las reclamaciones vagas no son suficientes: los demandantes necesitan pruebas contundentes de los daños. Para los desarrolladores y las empresas de tecnología, incluso si las probabilidades parecen favorables, nadie quiere una demanda. La transparencia, los registros de datos y el cumplimiento son esenciales para evitar problemas legales.

La jueza McMahon señaló que el caso podría volver a presentarse (“junto con una explicación de por qué la enmienda propuesta no sería inútil”, escribió), pero aún quedan obstáculos importantes.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version