Noticias
9to5Neural: Operador de ChatGPT, Claude Citas, Trump Ai EO
Bienvenido 9to5Neural. AI se mueve rápidamente. Te ayudamos a seguir el ritmo. En nuestra edición inaugural, estamos explorando el inicio de la próxima frontera para OpenAi, la solución reflexiva de Anthrope a una crítica de IA común y la orden ejecutiva presidencial de IA Ping-pong. Empecemos a darle sentido a lo último en noticias de AI.
Chatgpt se pone a trabajar con el operador
Operai lanzó recientemente la edición de 18k Gold Apple Watch de ChatGPT. ChatGPT Pro es una suscripción de $ 200/mes que hace que Tim Cook desee que Apple tuviera ese tipo de ingresos recurrentes por cliente.
A partir de hoy, ChatGPT Pro también les da a los entusiastas de la IA una nueva razón importante para suscribirse más allá de los límites de solicitud más altos.
Conocer al operador. Operai lo llama “una vista previa de investigación de un agente que puede usar su propio navegador para realizar tareas para usted”. Desde la creación de memes hasta ordenar comestibles y completar formularios, el operador de Dubs Operai uno de sus primeros agentes que ejecutará tareas que le da.
Hoy estamos lanzando Operator, un agente que puede ir a la web para realizar tareas por usted. Usando su propio navegador, puede mirar una página web e interactuar con él escribiendo, haciendo clic y desplazándose. Actualmente es una vista previa de investigación, lo que significa que tiene limitaciones y evolucionará en función de los comentarios de los usuarios.
El operador no siempre estará detrás de un muro de pago de $ 200/mes. Operai planea abrir el acceso a esta herramienta de IA para usuarios pagados de Plus, Team y Enterprise en el futuro. Por ahora, el operador está disponible para todos los clientes de ChatGPT Pro en los EE. UU. En Operator.chatgpt.com.
Operai dice que el operador funciona con su nueva tecnología de agente de uso de computadora (CUA).
Powering Operator es un agente de uso informático (CUA), un modelo que combina las capacidades de visión de GPT-4O con un razonamiento avanzado a través del aprendizaje de refuerzo. CUA está entrenado para interactuar con las interfaces gráficas de usuario (GUI): los botones, los menús y los campos de texto que las personas ven en una pantalla, tal como lo hacen los humanos. Esto le da la flexibilidad para realizar tareas digitales sin usar API específicas de SO o Web. […]
Si bien el CUA sigue siendo temprano y tiene limitaciones, establece nuevos resultados de referencia de última generación, logrando una tasa de éxito del 38.1% en OsWorld para tareas completas de uso de la computadora, y 58.1% en Webarena y 87% en WebVoyager para Web Baseded Web. tareas. Estos resultados destacan la capacidad de CUA para navegar y operar en diversos entornos utilizando un solo espacio de acción general.
Supongo que este es tan bueno como cualquier otro para anunciar que estoy renunciando 9to5Neural para pasar más tiempo con mi familia.
Todas las futuras ediciones de 9to5Neural será traído a usted por el operador. Tengo plena fe en el agente que usa la computadora para traducir las noticias de IA para la humanidad en el futuro.
Espera, no, hablé demasiado pronto. Aparentemente hay un problema con nuestra suscripción ChatGPT Pro. ¡Estoy de vuelta en la silla de montar!
Pero en serio, el operador es claramente un gran problema. Miraremos hacia atrás en enero de 2025 como un hito en el avance de AI. La tecnología de agente de usuario de la computadora también puede satisfacer a los escépticos de IA que siguen preguntando cuándo se acerca el chatgpt-5.
¿La otra gran historia de Operai esta semana? Stargate. O como dijo Sam Altman en X: “Grande. hermoso. edificios “.
¿Qué es Stargate? Básicamente un gran cerebro de computadora en Texas. Operai detalló la iniciativa esta semana:
El proyecto Stargate es una nueva compañía que tiene la intención de invertir $ 500 mil millones en los próximos cuatro años construyendo una nueva infraestructura de IA para OpenAI en los Estados Unidos. Comenzaremos a implementar $ 100 mil millones de inmediato. Esta infraestructura asegurará el liderazgo estadounidense en IA, creará cientos de miles de empleos estadounidenses y generará un beneficio económico masivo para todo el mundo. Este proyecto no solo apoyará la reindustrialización de los Estados Unidos, sino que también proporcionará una capacidad estratégica para proteger la seguridad nacional de Estados Unidos y sus aliados.
Los financiadores de renta variable iniciales en Stargate son SoftBank, OpenAI, Oracle y MGX. Softbank y OpenAI son los socios principales de Stargate, con SoftBank que tiene responsabilidad financiera y OpenAi que tiene responsabilidad operativa. El hijo de Masayoshi será el presidente.
Arm, Microsoft, Nvidia, Oracle y OpenAI son los socios de tecnología iniciales clave. La construcción está actualmente en marcha, comenzando en Texas, y estamos evaluando sitios potenciales en todo el país para más campus a medida que finalizamos los acuerdos definitivos.
Como parte de Stargate, Oracle, Nvidia y OpenAi colaborarán de cerca para construir y operar este sistema informático.
Detrás de cada ambiciosa firma de IA hay un multimillonario ambicioso, por supuesto, y los multimillonarios están luchando en X sobre las finanzas de Stargate.
Elon Musk, cuya firma XAI no tiene participación en Stargate, respondió al anuncio en X, diciendo “en realidad no tienen el dinero”. Musk agregó que tiene la buena autoridad de que SoftBank tiene “muy menos de $ 10B asegurado”.
Altman, por otro lado, confía en que las partes involucradas tienen fondos asegurados.
Mientras tanto, el jefe de Operai dice que cayó en la trampa de personajes no jugable con respecto a Trump (ahora que Trump ha hecho que su personaje sea jugable, refiriéndose a Stargate).
Francamente, soy mucho más optimista sobre las perspectivas del operador de ChatGPT que en las complejidades de relaciones de los multimillonarios.
Claude trae recibos con citas
Mientras tanto, Anthrope, que siempre ha tenido un enfoque más medido para la seguridad de la IA, está lanzando una nueva herramienta prometedora para su chatbot Claude llamado citas.
Hoy, estamos lanzando citas, una nueva característica de API que permite que Claude fundamente sus respuestas en los documentos de origen. Claude ahora puede proporcionar referencias detalladas a las oraciones y pasajes exactos que utiliza para generar respuestas, lo que lleva a resultados más verificables y confiables. […]
Anteriormente, los desarrolladores se basaban en indicaciones complejas que instruyen a Claude que incluya información de origen, lo que a menudo resulta en un rendimiento inconsistente y una inversión significativa en el tiempo en ingeniería y pruebas rápidas. Con las citas, los usuarios ahora pueden agregar documentos de origen a la ventana de contexto, y al consultar el modelo, Claude cita automáticamente las afirmaciones en su salida que se infieren de esas fuentes.
Nuestras evaluaciones internas muestran que las capacidades de citas incorporadas de Claude superan a la mayoría de las implementaciones personalizadas, aumentando la precisión de recuerdo hasta en un 15%.
Anthrope apunta a casos de uso relevantes que incluyen consultas de atención al cliente y tareas de resumen de documentos.
¿La mejor toma? Kyle B. Russel en X, no se necesitan citas:
Claude 3.5 Sonnet y Claude 3.5 Haiku están listos para las citas a partir de hoy, y Anthrope tiene documentación lista para su exploración.
New Ai EO triunfa la última AI EO
Después de ese breve descanso de la política presidencial, volvamos a la política estadounidense sobre IA.
El presidente Trump continuó su carrera de firma de la orden ejecutiva de maratón el jueves, revocando la orden ejecutiva de la administración Biden sobre la política de IA con la orden ejecutiva de la administración Trump sobre la política de IA.
En caso de que lo haya olvidado, el EO de Biden en IA se centró en la seguridad de la inteligencia artificial, los estándares de infraestructura, la mitigación de la interrupción laboral y el contenido de IA de la marca de agua para la transparencia. En resumen, la orden ejecutiva de Biden:
- Enfatizó el desarrollo seguro, seguro y confiable de la inteligencia artificial (IA).
- Estándares obligatorios para infraestructura crítica, mejoras de ciberseguridad y supervisión de proyectos financiados por el gobierno federal.
- Abordó los desafíos sociales, incluida la mitigación de las interrupciones laborales, el avance de la equidad y la protección de los derechos civiles.
- Requerido contenido generado por IA para incluir marcas de agua para la transparencia y distinguirlo del material creado por humanos.
Según el informe AP, la orden ejecutiva de AI de Trump revoca las políticas gubernamentales pasadas que “actúan como barreras para la innovación de IA estadounidense”, y agrega que Estados Unidos debe “desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas”, según la orden ejecutiva.
Además de la amplia Directiva de Política, el AI EO del presidente Trump autoriza el “desarrollo de un plan de acción de IA dentro de los 180 días”, según el AP, que estará encabezado por un asesor especial para AI y Crypto David Sacks, el ex ejecutivo de Paypal designado por Triunfo.
En el futuro, las compañías tecnológicas ya no necesitarán revelar con el gobierno el desarrollo de modelos de IA que cruzan un cierto umbral de potencia.
Competencia profunda de Deepseek R1
Mientras tanto, la competencia de IA no solo está sucediendo entre las empresas estadounidenses. Esta semana, la firma china de IA Deepseek lanzó su familia Model R1 a la naturaleza.
Lo único de R1 es que el modelo puede ejecutarse localmente con rendimiento comparable al modelo ChatGPT 4O de OpenAI. Los modelos locales tienden a seguir a los modelos que operan fuera de máquina, lo que hace que valga la pena ver este modelo de desarrollo y que valga la pena ver.
La captura? R1 naturalmente tiene una visión aprobada por el estado de la historia mundial cuando se trata de temas como la protesta de Tiananmen Square de 1989 y la masacre o la independencia de Taiwán. Ya sabes, en caso de que las apuestas para quién gana la carrera de IA ya no estuviera clara.
Más sobre lo último en desarrollos de IA en la próxima edición de 9to5Neural – ¡Solo en 9to5mac!
Los mejores accesorios para iPhone
FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.
Noticias
DeepSeek: ¿Es este el momento ChatGPT de China y una llamada de atención para EE. UU.? | Noticias de tecnología
Durante años, Estados Unidos de América ha sido el líder indiscutible en inteligencia artificial, especialmente porque alberga grandes empresas de tecnología como OpenAI, Anthropic, Google, Meta y más.
Sin embargo, enero de 2025 cambió las cosas y China amenaza este dominio. El sentido de urgencia en la administración Trump es palpable. El cambio en la narrativa comenzó hace unas semanas, cuando el laboratorio chino de inteligencia artificial DeepSeek presentó su modelo de lenguaje de gran tamaño DeepSeek-V3. La conclusión más importante aquí fue que DeepSeek-V3 se construyó utilizando una fracción del costo requerido para ensamblar los modelos de vanguardia de OpenAI, Meta, etc.
La hazaña tecnológica de DeepSeek ha sorprendido a todos, desde Silicon Valley hasta el mundo entero. El laboratorio chino ha creado algo monumental: ha introducido un potente modelo de IA de código abierto que rivaliza con lo mejor que ofrecen las empresas estadounidenses. Dado que las empresas de IA requieren miles de millones de dólares en inversiones para entrenar modelos de IA, la innovación de DeepSeek es una clase magistral sobre el uso óptimo de recursos limitados. Esto indica que, además de las inversiones, también se necesita previsión para innovar en el sentido más estricto. También demuestra cómo la necesidad puede impulsar la innovación de maneras inesperadas.
El surgimiento de China como un actor fuerte en IA se produce en un momento en que los controles de exportación de Estados Unidos le han restringido el acceso a los chips de IA de NVIDIA más avanzados. Estos controles también han limitado el alcance de las empresas tecnológicas chinas para competir con sus homólogos occidentales más grandes. En consecuencia, estas empresas recurrieron a aplicaciones posteriores en lugar de crear modelos propietarios. El hardware avanzado es vital para crear productos y servicios de inteligencia artificial, y el avance de DeepSeek muestra cómo las restricciones impuestas por Estados Unidos pueden no haber sido tan efectivas como se pretendía.
En estas circunstancias, la fama de DeepSeek es una historia en sí misma. Según se informa, la empresa china de IA acaba de gastar 5,6 millones de dólares para desarrollar el modelo DeepSeek-V3, lo que es sorprendentemente bajo en comparación con los millones inyectados por OpenAI, Google y Microsoft. Según se informa, OpenAI, liderada por Sam Altman, gastó la friolera de 100 millones de dólares para entrenar su modelo GPT-4. Por otro lado, DeepSeek entrenó su modelo de ruptura utilizando GPU que se consideraban de última generación en EE. UU. De todos modos, los resultados logrados por DeepSeek rivalizan con los de modelos mucho más caros como GPT-4 y Meta’s Llama.
DeepSeek tiene su sede en HangZhou en China y tiene al empresario Lian Wenfeng como director ejecutivo. Wenfeng, que también es cofundador del fondo de cobertura cuantitativo High-Flyer, lleva mucho tiempo trabajando en proyectos de IA. Según se informa, en 2021 compró miles de GPU NVIDIA, lo que muchos consideraron otra peculiaridad de un multimillonario. Sin embargo, en 2023 lanzó DeepSeek con el objetivo de trabajar en Inteligencia General Artificial. En una de sus entrevistas a los medios chinos, Wenfeng dijo que su decisión fue motivada por la curiosidad científica y no por el lucro. Según se informa, cuando creó DeepSeek, Wenfeng no buscaba ingenieros experimentados. Quería trabajar con estudiantes de doctorado de las principales universidades de China que tuvieran aspiraciones. Al parecer, muchos de los miembros del equipo habían publicado en revistas importantes y habían recibido numerosos premios. El espíritu y el sistema de creencias de Wenfeng se reflejan en la naturaleza de código abierto de DeepSeek, que se ha ganado la admiración de la comunidad mundial de IA.
Estableciendo un nuevo punto de referencia para la innovación
Incluso cuando las empresas de inteligencia artificial en EE. UU. aprovechaban el poder del hardware avanzado como las GPU NVIDIA H100, DeepSeek dependía de GPU H800 menos potentes. Esto solo podría haber sido posible implementando algunas técnicas ingeniosas para maximizar la eficiencia de estas GPU de generación anterior. Además de las GPU de generaciones anteriores, los diseños técnicos como la atención latente de cabezales múltiples (MLA) y la combinación de expertos abaratan los modelos de DeepSeek, ya que estas arquitecturas requieren menos recursos informáticos para entrenar.
DeepSeek-V3 ahora ha superado modelos más grandes como GPT-4 de OpenAI, Claude 3.5 Sonnet de Anthropic y Llama 3.3 de Meta en varios puntos de referencia, que incluyen codificación, resolución de problemas matemáticos e incluso detección de errores en el código. Incluso cuando la comunidad de IA se aferraba a DeepSeek-V3, el laboratorio de IA lanzó otro modelo de razonamiento, DeepSeek-R1, la semana pasada. El R1 ha superado al último modelo O1 de OpenAI en varios puntos de referencia, incluidos matemáticas, codificación y conocimientos generales.
DeepSeek está ganando atención mundial en un momento en que OpenAI se estaba reestructurando para convertirse en una organización con fines de lucro. El laboratorio chino de IA ha lanzado sus modelos de IA como de código abierto, en marcado contraste con OpenAI, y amplifica su impacto global. Al ser de código abierto, los desarrolladores tienen acceso a los pesos de DeepSeeks, lo que les permite desarrollar el modelo e incluso perfeccionarlo con facilidad. Esta naturaleza de código abierto de los modelos de IA de China probablemente podría significar que la tecnología de IA china eventualmente se integraría en el ecosistema tecnológico global, algo que hasta ahora solo Estados Unidos ha podido lograr.
¿Qué está en juego en el escenario global?
El éxito desbocado de DeepSeek también genera algunas preocupaciones sobre las implicaciones más amplias del avance de la IA en China. Si bien es de código abierto, permite la colaboración global; su desarrollo, basado en regulaciones estatales chinas, podría potencialmente obstaculizar su expansión.
Críticos y expertos han dicho que tales sistemas de IA probablemente reflejarían opiniones autoritarias y censurarían la disidencia. Esto es algo que ha sido una gran preocupación en lo que respecta al debate sobre permitir TikTok de ByteDance en los EE. UU. Aunque quedaron muy impresionados, algunos miembros de la comunidad de IA han cuestionado el precio de 6 millones de dólares para construir el DeepSeek-V3. Además, muchos desarrolladores han señalado que el modelo pasa por alto las preguntas sobre Taiwán y el incidente de la Plaza de Tiananmen.
Ahora, más que nunca, hay dudas sobre si la IA reflejaría valores democráticos y apertura, especialmente si ha sido desarrollada por naciones dirigidas por gobiernos autoritarios.
¿Por qué está nervioso Estados Unidos?
En el segundo día como presidente de los Estados Unidos, Donald Trump anunció el Proyecto Stargate, una iniciativa masiva de 500 mil millones de dólares que reúne a los titanes tecnológicos OpenAI, Oracle y SoftBank. En su discurso, Trump dijo explícitamente que Estados Unidos pretende tener una ventaja sobre China. El proyecto Stargate tiene como objetivo crear una infraestructura de inteligencia artificial de última generación en los EE. UU. con más de 100.000 puestos de trabajo en el país. Trump destacó que quiere que Estados Unidos sea el líder mundial en inteligencia artificial. “Este proyecto garantiza que Estados Unidos seguirá siendo el líder mundial en inteligencia artificial y tecnología, en lugar de permitir que competidores como China obtengan la ventaja”, dijo Trump.
El apresurado anuncio del poderoso Proyecto Stargate indica la desesperación de Estados Unidos por mantener su posición superior. Si bien DeepSeek puede haber estimulado o no cualquiera de estos desarrollos, los modelos de inteligencia artificial del laboratorio chino que crean olas en la comunidad de desarrolladores e inteligencia artificial en todo el mundo son suficientes para enviar señales.
Además, el avance de China con DeepSeek desafía la noción arraigada de que Estados Unidos ha estado encabezando la ola de IA, impulsada por grandes tecnológicas como Google, Anthropic y OpenAI, que se basaban en inversiones masivas e infraestructura de última generación. El liderazgo indiscutible de los EE. UU. en IA mostró al mundo lo importante que es tener acceso a recursos masivos y hardware de vanguardia para garantizar el éxito. DeepSeek está de alguna manera socavando la suposición de que las empresas de inteligencia artificial con sede en Estados Unidos tienen ventaja sobre las empresas de inteligencia artificial de otros países. Hasta el año pasado, muchos habían afirmado que los avances en IA de China estaban años por detrás de los de Estados Unidos.
El laboratorio chino de IA también ha demostrado cómo los LLM se están convirtiendo cada vez más en productos básicos. Esto probablemente podría amenazar la ventaja competitiva que tienen los gigantes tecnológicos estadounidenses sobre sus homólogos del resto del mundo. La narrativa de que el liderazgo de la IA en Estados Unidos es invencible se ha hecho añicos, y DeepSeek está demostrando que la innovación en la IA no se trata simplemente de financiar o tener acceso a la mejor infraestructura. Esto también pone de relieve la necesidad de que Estados Unidos se adapte e innove más rápido si quiere mantener su liderazgo.
Noticias
Deepseek R1 apuesta audaz sobre el aprendizaje de refuerzo: cómo superó a OpenAi al 3% del costo
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
El lanzamiento del lunes de Deepseek R1 ha enviado ondas de choque a través de la comunidad de IA, interrumpiendo suposiciones sobre lo que se requiere para lograr un rendimiento de IA de vanguardia. Hacer coincidir con el O1 de OpenAI con solo 3% -5% del costo, este modelo de código abierto no solo ha cautivado a los desarrolladores, sino que también desafía a las empresas a repensar sus estrategias de IA.
El modelo se ha disparado al modelo de mayor tendencia que se descarga en Huggingface (109,000, a partir de este escrito), a medida que los desarrolladores se apresuran a probarlo y buscan comprender lo que significa para su desarrollo de IA. Los usuarios están comentando que la función de búsqueda adjunta de Deepseek (que puede encontrar en el sitio de Deepseek) ahora es superior a competidores como OpenAI y Perplexity, y solo está rivalizada por la investigación de Gemini Defunde de Google.
Las implicaciones para las estrategias empresariales de IA son profundas: con costos reducidos y acceso abierto, las empresas ahora tienen una alternativa a modelos patentados costosos como OpenAI. El lanzamiento de Deepseek podría democratizar el acceso a las capacidades de AI de vanguardia, lo que permite a las organizaciones más pequeñas competir de manera efectiva en la carrera armamentista de IA.
Esta historia se centra exactamente en cómo Deepseek manejó esta hazaña y en qué significa para la gran cantidad de usuarios de modelos de IA. Para las empresas que desarrollan soluciones impulsadas por la IA, el avance de Deepseek desafía los supuestos del dominio de OpenAI, y ofrece un plan para la innovación rentable. Es el “cómo” Deepseek hizo lo que hizo que debería ser el más educativo aquí.
El avance de Deepseek: moverse hacia el aprendizaje de refuerzo puro
En noviembre, Deepseek fue noticia con su anuncio de que había logrado el rendimiento superando el O1 de OpenAI, pero en ese momento solo ofrecía un modelo limitado de previsión R1-Lite. Con el lanzamiento completo del lunes de R1 y el documento técnico que lo acompaña, la compañía reveló una sorprendente innovación: una desviación deliberada del proceso convencional de ajuste fino (SFT) ampliamente utilizado en la capacitación de modelos de idiomas grandes (LLM).
SFT, un paso estándar en el desarrollo de la IA, implica modelos de capacitación en conjuntos de datos seleccionados para enseñar razonamiento paso a paso, a menudo denominado cadena de pensamiento (COT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, Deepseek desafió esta suposición omitiendo SFT por completo, optando en su lugar para confiar en el aprendizaje de refuerzo (RL) para entrenar el modelo.
Este movimiento audaz obligó a Deepseek-R1 a desarrollar habilidades de razonamiento independientes, evitando la fragilidad a menudo introducida por conjuntos de datos prescriptivos. Mientras que surgen algunos defectos, lo que lleva al equipo a reintroducir una cantidad limitada de SFT durante las etapas finales de construcción del modelo, los resultados confirmaron el avance fundamental: el aprendizaje de refuerzo solo podría generar ganancias de rendimiento sustanciales.
La compañía consiguió gran parte del uso de código abierto, una forma convencional y no sorprendente
Primero, algunos antecedentes sobre cómo Deepseek llegó a donde lo hizo. Deepseek, un spin-off de 2023 de la cuantificación de alto nivel de fondos de cobertura chinos, comenzó desarrollando modelos de IA para su chatbot patentado antes de liberarlos para uso público. Poco se sabe sobre el enfoque exacto de la compañía, pero se abre rápidamente obtuvo sus modelos, y es extremadamente probable que la compañía se basara en los proyectos abiertos producidos por Meta, por ejemplo, el modelo LLAMA, y la biblioteca ML Pytorch.
Para capacitar a sus modelos, la cuantía de alto vuelo obtuvo más de 10,000 GPU NVIDIA antes de las restricciones de exportación de EE. UU., Y según los informes, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAi, Google y Anthrope, que funcionan con más de 500,000 GPU cada uno.
La capacidad de Deepseek para lograr resultados competitivos con recursos limitados destaca cómo el ingenio y el ingenio pueden desafiar el paradigma de alto costo de capacitar a los LLM de vanguardia.
A pesar de la especulación, se desconoce el presupuesto completo de Deepseek
Según los informes, Deepseek capacitó a su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de NVIDIA Jim Fan. Si bien la compañía no ha divulgado los datos de capacitación exactos que utilizó (nota al margen: los críticos dicen que esto significa que Deepseek no es verdaderamente de código abierto), las técnicas modernas hacen que la capacitación en la web y los conjuntos de datos abiertos sean cada vez más accesibles. Estimar el costo total de la capacitación Deepseek-R1 es un desafío. Mientras que ejecutar 50,000 GPU sugiere gastos significativos (potencialmente cientos de millones de dólares), las cifras precisas siguen siendo especulativas.
Sin embargo, lo que está claro es que Deepseek ha sido muy innovador desde el principio. El año pasado, surgieron informes sobre algunas innovaciones iniciales que estaba haciendo, en torno a cosas como la mezcla de expertos y atención latente de múltiples cabezas.
Cómo Deepseek-R1 llegó al “Momento AHA”
El viaje a la iteración final de Deepseek-R1 comenzó con un modelo intermedio, Deepseek-R1-Zero, que fue entrenado con aprendizaje de refuerzo puro. Al confiar únicamente en RL, Deepseek incentivó a este modelo a pensar de forma independiente, recompensando tanto las respuestas correctas como los procesos lógicos utilizados para llegar a ellas.
Este enfoque condujo a un fenómeno inesperado: el modelo comenzó a asignar un tiempo de procesamiento adicional a problemas más complejos, lo que demuestra la capacidad de priorizar las tareas en función de su dificultad. Los investigadores de Deepseek describieron esto como un “momento de AHA”, donde el modelo en sí identificó y articuló nuevas soluciones a problemas desafiantes (ver captura de pantalla a continuación). Este hito subrayó el poder del aprendizaje de refuerzo para desbloquear las capacidades de razonamiento avanzado sin depender de los métodos de capacitación tradicionales como SFT.
Los investigadores concluyen: “Subraya el poder y la belleza del aprendizaje de refuerzo: en lugar de enseñar explícitamente el modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos correctos y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas”.
Más que rl
Sin embargo, es cierto que el modelo necesitaba más que solo RL. El artículo continúa hablando sobre cómo a pesar de la RL creando comportamientos de razonamiento inesperados y poderosos, este modelo intermedio Deepseek-R1-Zero enfrentó algunos desafíos, incluida la mala legibilidad y la mezcla de idiomas (comenzando en chino y cambiando al inglés, por ejemplo ). Así que solo entonces el equipo decidió crear un nuevo modelo, que se convertiría en el modelo final de Deepseek-R1. Este modelo, nuevamente basado en el modelo base V3, se inyectó primero con SFT limitado, centrado en una “pequeña cantidad de datos de cuna largos” o lo que se llamaba datos de inicio frío, para solucionar algunos de los desafíos. Después de eso, se puso a través del mismo proceso de aprendizaje de refuerzo de R1-Zero. Luego, el periódico habla sobre cómo R1 pasó por algunas rondas finales de ajuste.
Las ramificaciones
Una pregunta es por qué el lanzamiento ha habido tanta sorpresa. No es como si los modelos de código abierto sean nuevos. Los modelos de código abierto tienen una gran lógica e impulso detrás de ellos. Su costo gratuito y maleabilidad es la razón por la que informamos recientemente que estos modelos van a ganar en la empresa.
El modelo 3 de peso abierto de Meta, por ejemplo, explotó en popularidad el año pasado, ya que fue ajustado por los desarrolladores que querían sus propios modelos personalizados. Del mismo modo, ahora Deepseek-R1 ya se está utilizando para destilar su razonamiento en una variedad de otros modelos mucho más pequeños, la diferencia es que Deepseek ofrece un rendimiento líder en la industria. Esto incluye ejecutar pequeñas versiones del modelo en teléfonos móviles, por ejemplo.
Deepseek-r1 no solo funciona mejor que la alternativa de código abierto líder, Llama 3. Muestra toda su cadena de pensamiento de sus respuestas de manera transparente. La llama de Meta no ha recibido instrucciones de hacer esto como un incumplimiento; Se necesita una solicitud agresiva de Llama para hacer esto.
La transparencia también ha proporcionado un ojo negro de relaciones públicas a OpenAi, que hasta ahora ha ocultado sus cadenas de pensamiento de los usuarios, citando razones competitivas y no confundir a los usuarios cuando un modelo se equivoca. La transparencia permite a los desarrolladores identificar y abordar los errores en el razonamiento de un modelo, agilizando las personalizaciones para cumplir con los requisitos empresariales de manera más efectiva.
Para los tomadores de decisiones empresariales, el éxito de Deepseek subraya un cambio más amplio en el panorama de IA: las prácticas de desarrollo más delgadas y más eficientes son cada vez más viables. Las organizaciones pueden necesitar reevaluar sus asociaciones con proveedores de IA patentados, considerando si los altos costos asociados con estos servicios están justificados cuando las alternativas de código abierto pueden ofrecer resultados comparables, si no superiores.
Sin duda, no hay plomo masivo
Si bien la innovación de Deepseek es innovadora, de ninguna manera ha establecido una ventaja dominante del mercado. Debido a que publicó su investigación, otras compañías modelo aprenderán de ella y se adaptarán. Meta y Mistral, la compañía modelo de código abierto francesa, pueden ser un latido detrás, pero probablemente solo pasarán unos meses antes de que se pongan al día. Como dijo el investigador principal de Meta, Yann Lecun: “La idea es que todos se ganen de las ideas de todos los demás. Nadie ‘supera’ a nadie y ningún país ‘pierde’ a otro. Nadie tiene el monopolio de las buenas ideas. Todos están aprendiendo de todos los demás “. Entonces es la ejecución lo que importa.
En última instancia, son los consumidores, nuevas empresas y otros usuarios los que más ganarán, porque las ofertas de Deepseek continuarán impulsando el precio de usar estos modelos cerca de cero (nuevamente, aparte del costo de ejecutar modelos con inferencia). Esta rápida mercantilización podría plantear desafíos, de hecho, dolor masivo, para los principales proveedores de IA que han invertido mucho en infraestructura patentada. Como muchos comentaristas lo han dicho, incluido Chamath Palihapitiya, un inversor y ex ejecutivo de Meta, esto podría significar que se desperdiciarán años de Opex y Capex por OpenAi y otros.
Existe un comentario sustancial sobre si es ético usar el modelo Deepseek-R1 debido a los sesgos inculcados por las leyes chinas, por ejemplo, que no debe responder preguntas sobre la brutal represión del gobierno chino en Tiananmen Square. A pesar de las preocupaciones éticas en torno a los sesgos, muchos desarrolladores ven estos sesgos como casos de borde poco frecuente en aplicaciones del mundo real, y pueden mitigarse a través del ajuste. Además, apuntan a diferentes pero análogos sesgos que tienen modelos de Operai y otras compañías. La llama de Meta se ha convertido en un modelo abierto popular a pesar de que sus conjuntos de datos no se hacen públicos, y a pesar de los prejuicios ocultos, y las demandas se presentan en su contra como resultado.
Las preguntas abundan en torno al ROI de las grandes inversiones por OpenAI
Todo esto plantea grandes preguntas sobre los planes de inversión perseguidos por Operai, Microsoft y otros. El proyecto Stargate de $ 500 mil millones de OpenAI refleja su compromiso de construir centros de datos masivos para alimentar sus modelos avanzados. Respaldado por socios como Oracle y SoftBank, esta estrategia se basa en la creencia de que lograr la inteligencia general artificial (AGI) requiere recursos de cómputo sin precedentes. Sin embargo, la demostración de Deepseek de un modelo de alto rendimiento a una fracción de los desafíos de costos de la sostenibilidad de este enfoque, lo que plantea dudas sobre la capacidad de OpenAI para ofrecer rendimientos de una inversión tan monumental.
El emprendedor y comentarista Arnaud Bertrand capturó esta dinámica, contrastando la innovación frugal y descentralizada de China con la dependencia de los Estados Unidos de la infraestructura centralizada e intensiva en recursos: “Se trata del mundo que se da cuenta de que China ha acelerado, y en algunas áreas superada: EE. UU. En tecnología y tecnología y la tecnología. Innovación, a pesar de los esfuerzos para evitar exactamente eso “. De hecho, ayer otra compañía china, Bytedance, anunció DouBao-1.5-Pro, que incluye un modo de “pensamiento profundo” que supera el O1 de OpenAI en el punto de referencia del AIME.
¿Quieres sumergirte más profundamente en cómo Deepseek-R1 está remodelando el desarrollo de la IA? Echa un vistazo a nuestra discusión en profundidad en YouTube, donde exploro este avance con el desarrollador de ML Sam Witteveen. Juntos, desglosamos los detalles técnicos, las implicaciones para las empresas y lo que esto significa para el futuro de la IA:
Noticias
Deepseek-r1 vs. OpenAI’s O1: un nuevo paso en código abierto y modelos propietarios
AI ha entrado en una era del surgimiento de modelos de idiomas grandes y innovadores y modelos multimodales. El desarrollo tiene dos lados, uno con código abierto y el otro es modelos de propiedad. Deepseek-r1un modelo de IA de código abierto desarrollado por Deepseek-AI, una compañía de investigación china, ejemplifica esta tendencia. Su surgimiento ha desafiado el dominio de modelos patentados como el O1 de OpenAi, provocando discusiones sobre la eficiencia de rentabilidad, la innovación de código abierto y el liderazgo tecnológico global en la IA. Vamos a profundizar en el desarrollo, las capacidades y las implicaciones de Deepseek-R1 al compararlo con el sistema O1 de OpenAI, considerando las contribuciones de ambos espacios.
Deepseek-R1 es el gran resultado de los esfuerzos innovadores de Deepseek-AI en LLM de código abierto para mejorar las capacidades de razonamiento a través del aprendizaje de refuerzo (RL). El desarrollo del modelo se aparta significativamente de los métodos tradicionales de capacitación de IA que dependen en gran medida del ajuste fino supervisado (SFT). En su lugar, Deepseek-R1 emplea una tubería de varias etapas que combina datos en frío, RL y datos supervisados para crear un modelo capaz de razonamiento avanzado.
El proceso de desarrollo
Deepseek-R1 aprovecha un proceso único de capacitación en varias etapas para lograr capacidades de razonamiento avanzado. Se basa en su predecesor, Deepseek-R1-Zero, que empleó a Pure RL sin depender de SFT. Si bien Deepseek-R1-Zero demostró capacidades notables en los puntos de referencia de razonamiento, enfrentó desafíos como la mala legibilidad e inconsistencias del lenguaje. Deepseek-r1 adoptó un enfoque más estructurado para abordar estas limitaciones, integrando Datos de arranque en frío, RL orientado al razonamiento y SFT.
El desarrollo comenzó con la recolección de miles de ejemplos de alta calidad de largas cadenas de pensamiento (COT), una base para ajustar el modelo de base profunda-V3. Esta fase de arranque en frío enfatizó la legibilidad y la coherencia, asegurando que las salidas fueran fáciles de usar. El modelo se sometió a un proceso RL orientado al razonamiento utilizando la optimización de políticas relativas del grupo (GRPO). Este algoritmo innovador mejora la eficiencia del aprendizaje al estimar las recompensas en función de los puntajes grupales en lugar de usar un modelo crítico tradicional. Esta etapa mejoró significativamente las capacidades de razonamiento del modelo, particularmente en las tareas matemáticas, codificación y lógica intensiva. Después de la convergencia de RL, Deepseek-R1 se sometió a SFT utilizando un conjunto de datos de aproximadamente 800,000 muestras, incluidas las tareas de razonamiento y no conductores. Este proceso amplió las capacidades de uso general del modelo y mejoró su rendimiento en los puntos de referencia. Además, las capacidades de razonamiento se destilaron en modelos más pequeños, como Qwen y Llama, lo que permite el despliegue de IA de alto rendimiento en formas computacionalmente eficientes.
Excelencia técnica y rendimiento de referencia
Deepseek-R1 se ha establecido como un modelo de IA formidable, sobresaliendo en puntos de referencia en múltiples dominios. Algunos de sus puntos destacados de rendimiento clave incluyen:
- Matemáticas: el modelo logró un puntaje PASS@1 de 97.3% en el punto de referencia Math-500, comparable al O1-1217 de OpenAI. Este resultado subraya su capacidad para manejar tareas complejas de resolución de problemas.
- Codificación: en la plataforma CodeForces, Deepseek-R1 logró una calificación ELO de 2029, colocándola en el percentil superior de los participantes. También superó a otros modelos en puntos de referencia como SWE Verified y LivecodeBench, solidificando su posición como una herramienta confiable para el desarrollo de software.
- Los puntos de referencia de razonamiento: Deepseek-R1 logró un pase@1, anotando 71.5% en GPQA Diamond y 79.8% en AIME 2024, lo que demuestra sus capacidades de razonamiento avanzado. Su uso novedoso del razonamiento de COT y RL lograron estos resultados.
- Tareas creativas: Deepseek-R1 se destacó en tareas creativas y de preguntas generales más allá de los dominios técnicos, logrando una tasa de victorias del 87.6% en Alpacaeval 2.0 y 92.3% en Arenahard.
Las características clave de Deepseek-R1 incluyen:
- Arquitectura: Deepseek-R1 utiliza una mezcla de diseño de expertos (MOE) con 671 mil millones de parámetros, activando solo 37 mil millones de parámetros por pase hacia adelante. Esta estructura permite un cálculo y escalabilidad eficientes, lo que lo hace adecuado para la ejecución local en hardware de grado consumidor.
- Metodología de capacitación: a diferencia de los modelos tradicionales que dependen del ajuste fino supervisado, Deepseek-R1 emplea un enfoque de capacitación basado en RL. Esto permite que el modelo desarrolle de forma autónoma las capacidades de razonamiento avanzado, incluido el razonamiento y la autoverificación de COT.
- Métricas de rendimiento: los puntos de referencia iniciales indican que Deepseek-R1 sobresale en varias áreas:
- Math-500 (pase@1): 97.3%, superando el O1 de OpenAI que alcanzó el 96.4%.
- Calificación de CodeForces: Cerrar competencia con las mejores calificaciones de OpenAI (2029 vs. 2061).
- C-EVAL (puntos de referencia chinos): Lograr una precisión récord del 91.8%.
- Se informa que Deepseek-R1 ofrece un rendimiento comparable al O1 de OpenAI a un costo aproximadamente 95% más bajo, lo que podría alterar significativamente el panorama económico del desarrollo y el despliegue de IA.
Los modelos O1 de OpenAI son conocidos por sus habilidades de razonamiento de vanguardia y resolución de problemas. Se desarrollaron enfocándose en SFT y RL a gran escala para refinar sus capacidades de razonamiento. La serie O1 se destaca en el razonamiento COT, que implica desglosar tareas complejas y detalladas en pasos manejables. Este enfoque ha llevado a un rendimiento excepcional de matemáticas, codificación y razonamiento científico.
Una fortaleza principal de la serie O1 es su enfoque en la seguridad y el cumplimiento. OpenAI ha implementado rigurosos protocolos de seguridad, incluidos ejercicios externos de equipo rojo y evaluaciones éticas, para minimizar los riesgos asociados con los resultados nocivos. Estas medidas aseguran que los modelos se alineen con las pautas éticas, lo que los hace adecuados para aplicaciones de alto riesgo. Además, la serie O1 es altamente adaptable, sobresaliendo en diversas aplicaciones que van desde la escritura creativa y la IA conversacional hasta la resolución de problemas de múltiples pasos.
Características clave del O1 de OpenAI:
- Variantes del modelo: la familia O1 incluye tres versiones:
- O1: La versión completa con capacidades avanzadas.
- O1-Mini: un modelo más pequeño y más eficiente optimizado para la velocidad mientras mantiene un rendimiento fuerte.
- Modo O1 Pro: la variante más potente, que utiliza recursos informáticos adicionales para un rendimiento mejorado.
- Capacidades de razonamiento: los modelos O1 están optimizados para tareas de razonamiento complejas y demuestran mejoras significativas sobre los modelos anteriores. Son particularmente fuertes en aplicaciones STEM, donde pueden desempeñarse en niveles comparables a los estudiantes de doctorado en tareas de referencia desafiantes.
- Puntos de referencia de rendimiento:
- En el American Invitational Mathematics (AIME), el modo O1 Pro obtuvo un 86%, superando significativamente el O1 estándar, que obtuvo un 78%, mostrando sus capacidades matemáticas.
- En los puntos de referencia de codificación como CodeForces, los modelos O1 lograron una alta clasificación, lo que indica un fuerte rendimiento de codificación.
- Capacidades multimodales: los modelos O1 pueden manejar entradas de texto e imágenes, lo que permite un análisis e interpretación exhaustivos de datos complejos. Esta funcionalidad multimodal mejora su aplicación en varios dominios.
- Comprobación de facto: la verificación auto-facto mejora la precisión y la confiabilidad, particularmente en dominios técnicos como la ciencia y las matemáticas.
- Razonamiento de la cadena de pensamiento: los modelos O1 utilizan el aprendizaje de refuerzo a gran escala para participar en procesos de razonamiento complejos antes de generar respuestas. Este enfoque les ayuda a refinar sus resultados y reconocer errores de manera efectiva.
- Características de seguridad: Mitigación de sesgo mejorada y una mejor adhesión de la política de contenido asegurar que las respuestas generadas por los modelos O1 sean seguras y apropiadas. Por ejemplo, logran una puntuación no uniforme de 0.92 en la desafiante evaluación de rechazo.
Un análisis comparativo: Deepseek-R1 vs. OpenAI O1
Fortalezas de Deepseek-R1
- Accesibilidad de código abierto: el marco de código abierto de Deepseek-R1 democratiza el acceso a capacidades avanzadas de IA, fomentando la innovación dentro de la comunidad de investigación.
- Eficiencia de rentabilidad: el desarrollo de Deepseek-R1 aprovechó técnicas rentables, permitiendo su despliegue sin las barreras financieras a menudo asociadas con modelos patentados.
- Excelencia técnica: GRPO y RL orientado al razonamiento han equipado Deepseek-R1 con habilidades de razonamiento de vanguardia, particularmente en matemáticas y codificación.
- Destilación para modelos más pequeños: al destilar sus capacidades de razonamiento en modelos más pequeños, Deepseek-R1 expande su usabilidad. Ofrece un alto rendimiento sin demandas computacionales excesivas.
Fortalezas de OpenAi O1
- Medidas de seguridad integrales: los modelos O1 de OpenAI priorizan la seguridad y el cumplimiento, haciéndolos confiables para aplicaciones de alto riesgo.
- Capacidades generales: si bien Deepseek-R1 se centra en las tareas de razonamiento, los modelos O1 de OpenAI se destacan en diversas aplicaciones, incluida la escritura creativa, la recuperación de conocimiento e IA conversacional.
El debate de código abierto versus patentado
La aparición de Deepseek-R1 ha reavivado el debate sobre los méritos del desarrollo de IA de código abierto versus IA patentado. Los defensores de los modelos de código abierto argumentan que aceleran la innovación al agrupar la experiencia y los recursos colectivos. Además, promueven la transparencia, que es vital para la implementación ética de IA. Por otro lado, los modelos propietarios a menudo reclaman un rendimiento superior debido a su acceso a datos y recursos patentados. La competencia entre estos dos paradigmas representa un microcosmos de los desafíos más amplios en el panorama de la IA: equilibrar la innovación, la gestión de costos, la accesibilidad y las consideraciones éticas. Después del lanzamiento de Deepseek-R1, Marc Andreessen tuiteó en X, “Deepseek R1 es uno de los avances más sorprendentes e impresionantes que he visto, y como código abierto, un regalo profundo para el mundo”.
Conclusión
La aparición de Deepseek-R1 marca un momento transformador para la industria de IA de código abierto. Su naturaleza de código abierto, su rentabilidad y capacidades de razonamiento avanzado desafían el dominio de los sistemas propietarios y redefinen las posibilidades de innovación de IA. En paralelo, los modelos O1 de OpenAI establecen puntos de referencia de seguridad y capacidad general. Juntos, estos modelos reflejan la naturaleza dinámica y competitiva del panorama de IA.
Fuentes
Además, no olvides seguirnos Gorjeo y únete a nuestro Canal de telegrama y LinkedIn GRsalpicar. No olvides unirte a nuestro 70k+ ml de subreddit.
🚨 [Recommended Read] Nebius AI Studio se expande con modelos de visión, nuevos modelos de idiomas, incrustaciones y Lora (Promocionado)
Sana Hassan, una pasante de consultoría en MarktechPost y estudiante de doble grado en IIT Madras, le apasiona aplicar tecnología e IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una nueva perspectiva a la intersección de la IA y las soluciones de la vida real.
📄 Conoce ‘altura’: la única herramienta de gestión de proyectos autónomos (patrocinada)
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos9 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos9 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales9 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups7 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Noticias6 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo