Noticias
¿Deepseek copió la tecnología AI de OpenAI? | Noticias explicadas

Incluso cuando el creador de chatgpt Openai enfrenta un aluvión de casos de infracción de derechos de autor en algunos países, la compañía cree que su advenimiento Rival chino Deepseek Puede haber copiado de su tecnología de inteligencia artificial (IA). No solo Openai, sino uno de los principales asesores del presidente de los Estados Unidos, Donald Trump, también ha nivelado esta afirmación, sin presentar muchas pruebas.
La entrada de Deepseek en el espacio de IA, promocionado por ser de código abierto, su precisión y afirmaciones de que se basa en la fracción del costo como sus competidores estadounidenses, han causado una agitación en la industria de la tecnología. Ha enviado el stock de Nvidia en una espiral descendente, ya que su modelo fue capacitado en unites de procesamiento de gráficos inferiores (GPU) en comparación con lo que tienen acceso a OpenAI. Y su entrada ha reavivado la conversación sobre controles de exportación más estrictos.
Es en este contexto que OpenAi ha dicho que Deepseek puede haber utilizado una técnica llamada “destilación”, que permite que su modelo aprenda de un modelo previo al estado de ejercicio, en este caso ChatGPT. Si bien Deepseek ha sido acusado de robo de propiedad intelectual desde que recibió atención principal, algunos expertos de la industria han desestimado estas afirmaciones diciendo que se derivan de una comprensión inadecuada de cómo los modelos como Deepseek están capacitados.
La sospecha de Openai sobre Deepseek
OpenAI prohíbe la práctica de capacitar a un nuevo modelo de IA al consultar repetidamente un modelo más grande y pre-entrenado, una técnica comúnmente conocida como destilación, según sus términos de uso. Y la compañía sospecha que Deepseek puede haber intentado algo similar, lo que podría ser una violación de sus términos.
“Sabemos que los grupos de la RPC (China) están trabajando activamente para usar métodos, incluido lo que se conoce como destilación, para replicar los modelos AI avanzados de EE. UU.”, Dijo un portavoz de OpenAI en un comunicado. “Somos conscientes y revisando las indicaciones de que Deepseek puede haber destilado inapropiadamente nuestros modelos y compartirá información como sabemos más”.
David Sacks, asesor de IA de Trump, dijo a Fox News: “Hay evidencia sustancial de que lo que hizo Deepseek aquí es que destilaron el conocimiento de las modelos de OpenAi … y no creo que OpenAi esté muy contento con esto”.
Los actores de la industria contrarrestan las afirmaciones de Openai
La historia continúa debajo de este anuncio
Sin embargo, algunos no están de acuerdo con las afirmaciones de que Deepseek copió la tecnología de OpenAi y similares.
“Hay muchas ideas erróneas de que China” clonó “las salidas de OpenAi. Esto está lejos de ser cierto y refleja una comprensión incompleta de cómo estos modelos están entrenados en primer lugar … “Aravind Srinivas, CEO de Perpleity en una publicación sobre X.
“Deepseek R1 ha descubierto RL (aprendizaje de refuerzo) Finetuning. Escribieron un artículo completo sobre este tema llamado Deepseek R1 Zero, donde no se usó SFT (ajuste fino supervisado). Y luego lo combinó con un poco de SFT para agregar conocimiento del dominio con un buen muestreo de rechazo (también conocido como filtrado). La razón principal por la que es tan bueno es que aprendió razonamiento desde cero en lugar de imitar a otros humanos o modelos ”, agregó.
La idea de usar el aprendizaje de refuerzo (RL) se convirtió en un punto de enfoque para las compañías de IA en 2024. “Este nuevo paradigma implica comenzar con el tipo de modelos prenederos ordinarios, y luego como segunda etapa utilizando RL para agregar las habilidades de razonamiento”, explicó Dario. AMODEI, CEO de Anthrope, en una publicación de blog.
La historia continúa debajo de este anuncio
El ajuste fino supervisado (SFT) es un proceso en el aprendizaje automático donde un modelo previamente capacitado está capacitado (ajustado) en un conjunto de datos etiquetado específico para una tarea en particular. Este enfoque aprovecha el conocimiento general que el modelo ya ha adquirido durante su fase inicial de pre-entrenamiento y lo adapta para funcionar bien en una tarea más especializada.
Según un resumen adjunto con el modelo de Deepseek en su página de GitHub, la compañía dijo que aplicó el aprendizaje de refuerzo al modelo base sin depender del ajuste superior supervisado como un paso preliminar.
“Este enfoque permite que el modelo explore la cadena de pensamiento (cot) para resolver problemas complejos, lo que resulta en el desarrollo de Deepseek-R1-Zero. Deepseek-r1-cero demuestra capacidades como la autoverificación, la reflexión y la generación de cunas largas, marcando un hito significativo para la comunidad de investigación. En particular, es la primera investigación abierta para validar que las capacidades de razonamiento de los LLM se pueden incentivar puramente a través de RL, sin la necesidad de SFT. Este avance allana el camino para futuros avances en esta área. ”, Dijo el resumen.
Los propios problemas de derechos de autor de Openai
La historia continúa debajo de este anuncio
En todo el mundo, y específicamente en países como Estados Unidos e India, existe un creciente escepticismo de los editores de noticias sobre las preocupaciones de material con derechos de autor, como informes de noticias, utilizados por compañías como OpenAI para capacitar a sus modelos fundamentales, sin permiso o pago.
En noviembre pasado, la agencia de noticias Ani había demandado a OpenAi en el Tribunal Superior de Delhi, acusando a la compañía de usar ilegalmente material con derechos de autor indio para capacitar a sus modelos de IA. A principios de esta semana, una serie de editores de noticias digitales, incluido el Indian Express, han presentado una intervención en el caso.
La afirmación es que compañías como OpenAI han desarrollado grandes modelos de idiomas (LLM) al “capacitar” sobre grandes cantidades de texto, incluidas, sin licencia o permiso, obras protegidas por derechos de autor. Esta “utilización ilegal de materiales con derechos de autor beneficia exclusivamente a Openai y a sus inversores, en detrimento de los trabajos creativos en toda la industria de la India”, dijo la Asociación de Publishers de Noticias Digital (DNPA) en un comunicado.
Operai también enfrenta una serie de demandas similares en otras jurisdicciones. En diciembre de 2023, el New York Times demandó a la compañía y Microsoft, citando el uso “ilegal” de contenido con derechos de autor. La publicación ha alegado que los modelos de idiomas grandes de Openai y Microsoft, que alimentan el chatgpt y el copiloto, “pueden generar el resultado que recita el contenido textual, lo resume de cerca e imita su estilo expresivo”. Este “socavo[s] y daño[s]”La relación del Times con los lectores, al tiempo que la prive de” suscripción, licencias, publicidad e ingresos por afiliados “.