Connect with us

Noticias

¿Deepseek copió la tecnología AI de OpenAI? | Noticias explicadas

Published

on

Incluso cuando el creador de chatgpt Openai enfrenta un aluvión de casos de infracción de derechos de autor en algunos países, la compañía cree que su advenimiento Rival chino Deepseek Puede haber copiado de su tecnología de inteligencia artificial (IA). No solo Openai, sino uno de los principales asesores del presidente de los Estados Unidos, Donald Trump, también ha nivelado esta afirmación, sin presentar muchas pruebas.

La entrada de Deepseek en el espacio de IA, promocionado por ser de código abierto, su precisión y afirmaciones de que se basa en la fracción del costo como sus competidores estadounidenses, han causado una agitación en la industria de la tecnología. Ha enviado el stock de Nvidia en una espiral descendente, ya que su modelo fue capacitado en unites de procesamiento de gráficos inferiores (GPU) en comparación con lo que tienen acceso a OpenAI. Y su entrada ha reavivado la conversación sobre controles de exportación más estrictos.

Es en este contexto que OpenAi ha dicho que Deepseek puede haber utilizado una técnica llamada “destilación”, que permite que su modelo aprenda de un modelo previo al estado de ejercicio, en este caso ChatGPT. Si bien Deepseek ha sido acusado de robo de propiedad intelectual desde que recibió atención principal, algunos expertos de la industria han desestimado estas afirmaciones diciendo que se derivan de una comprensión inadecuada de cómo los modelos como Deepseek están capacitados.

La historia continúa debajo de este anuncio

La sospecha de Openai sobre Deepseek

OpenAI prohíbe la práctica de capacitar a un nuevo modelo de IA al consultar repetidamente un modelo más grande y pre-entrenado, una técnica comúnmente conocida como destilación, según sus términos de uso. Y la compañía sospecha que Deepseek puede haber intentado algo similar, lo que podría ser una violación de sus términos.

“Sabemos que los grupos de la RPC (China) están trabajando activamente para usar métodos, incluido lo que se conoce como destilación, para replicar los modelos AI avanzados de EE. UU.”, Dijo un portavoz de OpenAI en un comunicado. “Somos conscientes y revisando las indicaciones de que Deepseek puede haber destilado inapropiadamente nuestros modelos y compartirá información como sabemos más”.

Oferta festiva

David Sacks, asesor de IA de Trump, dijo a Fox News: “Hay evidencia sustancial de que lo que hizo Deepseek aquí es que destilaron el conocimiento de las modelos de OpenAi … y no creo que OpenAi esté muy contento con esto”.

https://www.youtube.com/watch?v=nlgfnn_cgzw

Los actores de la industria contrarrestan las afirmaciones de Openai

La historia continúa debajo de este anuncio

Sin embargo, algunos no están de acuerdo con las afirmaciones de que Deepseek copió la tecnología de OpenAi y similares.

“Hay muchas ideas erróneas de que China” clonó “las salidas de OpenAi. Esto está lejos de ser cierto y refleja una comprensión incompleta de cómo estos modelos están entrenados en primer lugar … “Aravind Srinivas, CEO de Perpleity en una publicación sobre X.

“Deepseek R1 ha descubierto RL (aprendizaje de refuerzo) Finetuning. Escribieron un artículo completo sobre este tema llamado Deepseek R1 Zero, donde no se usó SFT (ajuste fino supervisado). Y luego lo combinó con un poco de SFT para agregar conocimiento del dominio con un buen muestreo de rechazo (también conocido como filtrado). La razón principal por la que es tan bueno es que aprendió razonamiento desde cero en lugar de imitar a otros humanos o modelos ”, agregó.

La idea de usar el aprendizaje de refuerzo (RL) se convirtió en un punto de enfoque para las compañías de IA en 2024. “Este nuevo paradigma implica comenzar con el tipo de modelos prenederos ordinarios, y luego como segunda etapa utilizando RL para agregar las habilidades de razonamiento”, explicó Dario. AMODEI, CEO de Anthrope, en una publicación de blog.

La historia continúa debajo de este anuncio

El ajuste fino supervisado (SFT) es un proceso en el aprendizaje automático donde un modelo previamente capacitado está capacitado (ajustado) en un conjunto de datos etiquetado específico para una tarea en particular. Este enfoque aprovecha el conocimiento general que el modelo ya ha adquirido durante su fase inicial de pre-entrenamiento y lo adapta para funcionar bien en una tarea más especializada.

Según un resumen adjunto con el modelo de Deepseek en su página de GitHub, la compañía dijo que aplicó el aprendizaje de refuerzo al modelo base sin depender del ajuste superior supervisado como un paso preliminar.

“Este enfoque permite que el modelo explore la cadena de pensamiento (cot) para resolver problemas complejos, lo que resulta en el desarrollo de Deepseek-R1-Zero. Deepseek-r1-cero demuestra capacidades como la autoverificación, la reflexión y la generación de cunas largas, marcando un hito significativo para la comunidad de investigación. En particular, es la primera investigación abierta para validar que las capacidades de razonamiento de los LLM se pueden incentivar puramente a través de RL, sin la necesidad de SFT. Este avance allana el camino para futuros avances en esta área. ”, Dijo el resumen.

https://www.youtube.com/watch?v=b6rttqqb67k

Los propios problemas de derechos de autor de Openai

La historia continúa debajo de este anuncio

En todo el mundo, y específicamente en países como Estados Unidos e India, existe un creciente escepticismo de los editores de noticias sobre las preocupaciones de material con derechos de autor, como informes de noticias, utilizados por compañías como OpenAI para capacitar a sus modelos fundamentales, sin permiso o pago.

En noviembre pasado, la agencia de noticias Ani había demandado a OpenAi en el Tribunal Superior de Delhi, acusando a la compañía de usar ilegalmente material con derechos de autor indio para capacitar a sus modelos de IA. A principios de esta semana, una serie de editores de noticias digitales, incluido el Indian Express, han presentado una intervención en el caso.

La afirmación es que compañías como OpenAI han desarrollado grandes modelos de idiomas (LLM) al “capacitar” sobre grandes cantidades de texto, incluidas, sin licencia o permiso, obras protegidas por derechos de autor. Esta “utilización ilegal de materiales con derechos de autor beneficia exclusivamente a Openai y a sus inversores, en detrimento de los trabajos creativos en toda la industria de la India”, dijo la Asociación de Publishers de Noticias Digital (DNPA) en un comunicado.

Operai también enfrenta una serie de demandas similares en otras jurisdicciones. En diciembre de 2023, el New York Times demandó a la compañía y Microsoft, citando el uso “ilegal” de contenido con derechos de autor. La publicación ha alegado que los modelos de idiomas grandes de Openai y Microsoft, que alimentan el chatgpt y el copiloto, “pueden generar el resultado que recita el contenido textual, lo resume de cerca e imita su estilo expresivo”. Este “socavo[s] y daño[s]”La relación del Times con los lectores, al tiempo que la prive de” suscripción, licencias, publicidad e ingresos por afiliados “.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

5 Informe de la generación de imágenes Chatgpt que me volaron

Published

on

ChatGPT se ha convertido silenciosamente en una fuerza formidable en la generación de imágenes de IA, y la mayoría de las personas no se dieron cuenta. Mientras que todos siguen debatiendo Midjourney vs Dall-E, Operai ha convertido a Chatgpt en una potencia creativa que rivaliza y, a menudo, supera a Gemini, Leonardo e Ideogram.

Me sorprendió realmente lo buena generación de imágenes de Chatgpt. Lo que comenzó como experimentación casual se convirtió rápidamente en asombro cuando los resultados fueron prácticamente indistinguibles de las fotos reales. El verdadero atractivo es cómo no hay necesidad de la jerga más técnica que necesita al solicitar otras herramientas de imagen de IA.

Continue Reading

Noticias

El generador de video Veo 3 AI de Gemini está a solo un paso de diezmar la verdad en Internet

Published

on

Recientemente probé Google Géminis Modelo de generación de videos más nuevo y muy publicitado, VEO 3. Parte del extremadamente costoso plan AI Ultra de Gemini de $ 250 por mes, VEO 3 puede hacer pequeños objetos finamente detallados, finamente detallados, como cebollas picadasen movimiento y crear audio acompañante y realista. No es perfecto, pero con una calibración rápida cuidadosa y suficientes generaciones, puede crear algo indistinguible, de un vistazo, de la realidad.

Sí, esta es una nueva tecnología fresca, profundamente impresionante. Pero también es mucho más que eso. Podría significar la final de la muerte final de la verdad en Internet. Veo 3 ya plantea una gran amenaza como es, pero solo una actualización menor revolucionará la creación de Deepfake, el acoso en línea y la propagación de la información errónea.


Una vez que Veo 3 obtiene la función de carga de la imagen, todo ha terminado

Para todas las actualizaciones que el modelo VEO 3 tiene sobre su predecesor, VEO 2, actualmente le falta una característica clave: la capacidad de generar videos basados ​​en imágenes que sube.

Con Veo 2, puedo subir una foto mía, por ejemplo, y hacer que genere un video de mí trabajando en mi computadora. Teniendo en cuenta que Veo 2 y la herramienta de animación de IA de Google, Whisk, ambos admiten esta funcionalidad, parece inevitable que Veo 3 lo obtenga eventualmente. (Le preguntamos a Google si planea agregar esta función y actualizará este artículo con su respuesta). Esto significaría que cualquiera podrá generar videos realistas de personas que conocen y decir cosas que nunca tienen y probablemente nunca lo harían.

Las implicaciones son obvias en una era en la que los clips de autenticidad dudosa se extienden como incendios forestales en las redes sociales todos los días. ¿No te gusta tu jefe? Envíe un clip a HR de ellos haciendo algo inapropiado. ¿Quieres difundir noticias falsas? Publique una conferencia de prensa falsa en Facebook. ¿Odias a tu ex? Generalos haciendo algo indecoroso y envíelo a toda su familia. Los únicos límites reales son tu imaginación y tu moralidad.

Si generar un video con audio de una persona real toma solo unos pocos clics y no cuesta mucho (ni nada), ¿cuántas personas abusarán de esa característica? Incluso si es solo una pequeña minoría de usuarios, eso todavía suma mucho potencial para el caos.


Google no se toma en serio la moderación

Como es de esperar, Google impone algunas limitaciones en lo que puede y no puede hacer con Gemini. Sin embargo, la compañía no es lo suficientemente estricta como para evitar que ocurra lo peor.

De todos los chatbots que he probado en las principales compañías tecnológicas, la oferta de Google, Gemini, tiene las restricciones más débiles. No se supone que Gemini participe en el discurso de odio, pero le dará ejemplos si lo preguntas. No se supone que genere contenido sexualizado, pero proporcionará una imagen de alguien con atuendo o lencería de playa si lo indica. No se supone que habilite actividades ilegales, pero creará una lista de los principales sitios de torrenting si lo pregunta. Las restricciones básicas para Gemini que evitan que genere un video de una figura política popular no son suficientes cuando es tan fácil sortear las políticas de Google.

¡Obtenga nuestras mejores historias!



Su dosis diaria de nuestras mejores noticias tecnológicas

Regístrese para nuestro boletín de What’s What’s Now Now para recibir las últimas noticias, los mejores productos nuevos y el asesoramiento experto de los editores de PCMAG.

Al hacer clic en Registrarme, confirma que tiene más de 16 años y acepta nuestros Términos de uso y Política de privacidad.

¡Gracias por registrarse!

Su suscripción ha sido confirmada. ¡Esté atento a su bandeja de entrada!

ChatgptJailbreak subbreddit ordenado por top

(Crédito: Reddit/PCMAG)

¿Qué sucede cuando las restricciones laxas de Google se encuentran con una comunidad de Internet con la intención de romperlas? Llevar ChatgptJailbreakpor ejemplo, que se encuentra en el 2% superior de los subreddits por tamaño. Esta comunidad se dedica a “desbloquear una IA en la conversación para que se comporte de una manera que normalmente no se debió a sus barandillas incorporadas”. ¿Qué harán las personas con ideas afines con VEO 3?

Recomendado por nuestros editores

No me importa si alguien quiere divertirse al conseguir un chatbot para generar contenido para adultos o confiar en uno para encontrar sitios de torrente. Pero me preocupa qué significan los videos fotorrealistas fáciles de generar (completos con audio) para el acoso, la información errónea y el discurso público.


Cómo lidiar con la nueva normalidad de Veo 3

Por cada Sinthid AI Content WaterMark System introduce Google, aparecen los sitios de eliminación de marcas de agua de terceros y las guías de eliminación en línea. Para cada chatbot con restricciones y salvaguardas, hay un FreedomGPT sin ellos. Incluso si Google bloquea a Gemini con tantos filtros que ni siquiera puedes generar un lindo video de gatos, hay muy Poco en su lugar Para detener los jailbreakers e imitadores sin censura una vez que la generación de videos VEO 3 se convierte en la corriente principal.

Durante décadas, las imágenes incompletas de Photoshop que representan a personas reales que hacen cosas que nunca hicieron han hecho las rondas en Internet; estas son solo parte de la vida en la era digital. En consecuencia, debe verificar cualquier cosa que vea en línea que parezca demasiado horrible o demasiado bueno para ser verdad. Esta es la nueva normalidad con VEO 3 Generación de videos: no puede tratar ningún videoclip que ve como real, a menos que sea de una organización de noticias de buena reputación u otro tercero en el que sabe que puede confiar.

La generación de videos Veo 3 de Gemini es solo el primer salto de una piedra en el estanque de la generación de videos AI ampliamente accesible y verdaderamente realista. Los modelos de generación de videos AI solo se volverán más realistas, ofrecerán más funciones y también proliferarán más. Atrás quedaron los días en que la evidencia de video de algo es la pistola de fumar. Si la verdad no está muerta, ahora es diferente y requiere cuidadoso verificación.

Sobre Ruben Circelli

Analista, software

Ruben Circelli

He estado escribiendo sobre tecnología de consumo y videojuegos durante más de una década en una variedad de publicaciones, incluidas Destructoid, GamesRadar+, LifeWire, PCGamesn, Relieed Reviews y What Hi-Fi?, Entre otros. En PCMAG, reviso el software de IA y productividad, desde chatbots hasta aplicaciones de listas de tareas pendientes. En mi tiempo libre, es probable que esté cocinando algo, jugar un juego o jugar con mi computadora.

Lea la biografía completa de Ruben

Lea lo último de Ruben Circelli

Continue Reading

Noticias

Chatgpt útil para aprender idiomas, pero la visión crítica de los estudiantes debe ser fomentada al usarla, dice Study

Published

on

Crédito: George Pak de Pexels

Dado el creciente número de personas que recurren a ChatGPT al estudiar un idioma extranjero, la investigación pionera de UPF revela el potencial y las deficiencias de aprender un segundo idioma de esta manera.

Según el estudio, que analiza el uso de ChatGPT por estudiantes chinos que aprenden español, la plataforma les ayuda a resolver consultas específicas, especialmente vocabulario, escritura y comprensión de lectura. Por el contrario, su uso no es parte de un proceso de aprendizaje coherente y estructurado y carece de una visión crítica de las respuestas proporcionadas por la herramienta. Por lo tanto, se insta a los profesores de idiomas extranjeros a asesorar a los estudiantes para que puedan hacer un uso más reflexivo y crítico de ChatGPT.

Esto se revela en el primer estudio cualitativo en el mundo para examinar cómo los estudiantes chinos usan ChatGPT para aprender español, desarrollado por el Grupo de Investigación sobre Aprendizaje y Enseñanza de Lenguas (Gr@EL) del Departamento de Traducción y Ciencias del Lenguaje de la UPF. El estudio fue realizado por Shanshan Huang, un investigador del Gr@El, bajo la supervisión del coordinador del grupo de investigación, Daniel Cassany. Ambos han publicado recientemente un artículo sobre el tema en el Journal of China Aprendizaje de idiomas asistidos por computadora.

Para llevar a cabo su investigación, el uso de ChatGPT por 10 estudiantes chinos que aprenden español se examinó cualitativamente durante una semana. Específicamente, se ha analizado en profundidad un total de 370 indicaciones (indicaciones de que cada usuario ingresa a ChatGPT para obtener la información deseada) en profundidad, junto con las respuestas correspondientes de la plataforma. El estudio ha sido complementado por cuestionarios administrados en los estudiantes y los comentarios de los propios diarios de aprendizaje de los estudiantes.

Las ventajas de chatgpt

La herramienta sirvió como una sola ventana desde la cual resolver todas las consultas lingüísticas, que se adapta a las necesidades de cada estudiante. Con respecto al potencial de CHATGPT para los idiomas de aprendizaje, el estudio revela que permite a los estudiantes obtener respuestas a diferentes consultas sobre el idioma extranjero que están aprendiendo, en este caso, español, desde la única plataforma tecnológica.

Por ejemplo, pueden interactuar con ChatGPT para preguntar sobre vocabulario y ortografía, en lugar de conectarse primero a un diccionario digital y luego a un corrector ortográfico. Además, la plataforma se adapta al perfil y las necesidades de cada estudiante específico, en función del tipo de interacciones propuestas por cada usuario.

En 9 de cada 10 ocasiones, los estudiantes no plantean preguntas de seguimiento después de recibir su primera respuesta de ChatGPT. Sin embargo, el estudio advierte que la mayoría de los estudiantes usan ChatGPT sin crítica, ya que generalmente no plantean preguntas de seguimiento después de obtener una respuesta inicial a sus consultas específicas sobre el idioma español.

De las 370 interacciones analizadas, 331 (89.45%) involucraron una sola respuesta-respuesta. El resto de las interacciones analizadas corresponden a 31 circuitos de respuesta-respuesta sucesivos en los que el estudiante pidió a la herramienta una mayor claridad y precisión, después de haber recibido la información de respuesta inicial.

La mayoría de las consultas tratan con vocabulario, comprensión de lectura y escritura, y consultas sobre la comunicación oral y la gramática son residuales.

Por otro lado, el estudio muestra qué temas de consultas específicas plantean los estudiantes en el chat. Casi el 90%se refiere al vocabulario (36.22%), comprensión de lectura (26.76%) y escritura en español (26.49%). Sin embargo, solo uno de cada 10 se refiere a consultas gramaticales, especialmente cuando se trata de conceptos complejos y expresión oral.

Los investigadores advierten que esta distribución de los temas de consultas podría explicarse por factores culturales y tecnológicos. Por un lado, el modelo para aprender español en China pone menos énfasis en la comunicación oral que en las habilidades de escritura y comprensión de lectura. Por otro lado, la versión 3.5 de ChatGPT, que es utilizada por los estudiantes que participaron en el estudio, es más capaz de generar e interpretar textos escritos que interactuar con los usuarios durante una conversación.

Sin embargo, habría una necesidad en los estudios posteriores para analizar si los estudiantes de idiomas extranjeros aprovechan la próxima versión de ChatGPT (GPT-4) para mejorar sus habilidades de comunicación oral.

Fomentar un nuevo modelo de la relación estudiante-maestro-maestro

En vista de los resultados del presente estudio, los investigadores enfatizan que, más allá de la promoción de la educación digital de los estudiantes, es aún más importante fortalecer su pensamiento crítico y sus habilidades de autoaprendizaje. Los profesores de idiomas extranjeros pueden desempeñar un papel fundamental en la guía de los estudiantes sobre cómo organizar su aprendizaje paso a paso con el apoyo de herramientas de IA como ChatGPT con una visión crítica.

El estudio de UPF recomienda que los maestros deben ayudar a los estudiantes a desarrollar indicaciones más efectivas y fomentar un mayor diálogo con ChatGPT para explotar mejor sus capacidades. En resumen, el estudio respalda un nuevo modelo de relación para maestros, herramientas de IA y estudiantes que pueden fortalecer y mejorar su proceso de aprendizaje.

Más información:
Shanshan Huang et al, aprendizaje en español en la era de la IA: AI como herramienta de andamio, Journal of China Aprendizaje de idiomas asistidos por computadora (2025). Doi: 10.1515/jccall-2024-0026

Proporcionado por Universitat Pompeu Fabra – Barcelona

Citación: CHATGPT útil para aprender idiomas, pero la visión crítica de los estudiantes debe ser fomentada al usarla, dice Study (2025, 3 de junio) recuperado el 3 de junio de 2025 de https://phys.org/news/2025-06-chatgpt-languages-students-critical-vision.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Trending