Connect with us

Noticias

Deepseek R1 apuesta audaz sobre el aprendizaje de refuerzo: cómo superó a OpenAi al 3% del costo

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El lanzamiento del lunes de Deepseek R1 ha enviado ondas de choque a través de la comunidad de IA, interrumpiendo suposiciones sobre lo que se requiere para lograr un rendimiento de IA de vanguardia. Hacer coincidir con el O1 de OpenAI con solo 3% -5% del costo, este modelo de código abierto no solo ha cautivado a los desarrolladores, sino que también desafía a las empresas a repensar sus estrategias de IA.

El modelo se ha disparado al modelo de mayor tendencia que se descarga en Huggingface (109,000, a partir de este escrito), a medida que los desarrolladores se apresuran a probarlo y buscan comprender lo que significa para su desarrollo de IA. Los usuarios están comentando que la función de búsqueda adjunta de Deepseek (que puede encontrar en el sitio de Deepseek) ahora es superior a competidores como OpenAI y Perplexity, y solo está rivalizada por la investigación de Gemini Defunde de Google.

Las implicaciones para las estrategias empresariales de IA son profundas: con costos reducidos y acceso abierto, las empresas ahora tienen una alternativa a modelos patentados costosos como OpenAI. El lanzamiento de Deepseek podría democratizar el acceso a las capacidades de AI de vanguardia, lo que permite a las organizaciones más pequeñas competir de manera efectiva en la carrera armamentista de IA.

Esta historia se centra exactamente en cómo Deepseek manejó esta hazaña y en qué significa para la gran cantidad de usuarios de modelos de IA. Para las empresas que desarrollan soluciones impulsadas por la IA, el avance de Deepseek desafía los supuestos del dominio de OpenAI, y ofrece un plan para la innovación rentable. Es el “cómo” Deepseek hizo lo que hizo que debería ser el más educativo aquí.

El avance de Deepseek: moverse hacia el aprendizaje de refuerzo puro

En noviembre, Deepseek fue noticia con su anuncio de que había logrado el rendimiento superando el O1 de OpenAI, pero en ese momento solo ofrecía un modelo limitado de previsión R1-Lite. Con el lanzamiento completo del lunes de R1 y el documento técnico que lo acompaña, la compañía reveló una sorprendente innovación: una desviación deliberada del proceso convencional de ajuste fino (SFT) ampliamente utilizado en la capacitación de modelos de idiomas grandes (LLM).

SFT, un paso estándar en el desarrollo de la IA, implica modelos de capacitación en conjuntos de datos seleccionados para enseñar razonamiento paso a paso, a menudo denominado cadena de pensamiento (COT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, Deepseek desafió esta suposición omitiendo SFT por completo, optando en su lugar para confiar en el aprendizaje de refuerzo (RL) para entrenar el modelo.

Este movimiento audaz obligó a Deepseek-R1 a desarrollar habilidades de razonamiento independientes, evitando la fragilidad a menudo introducida por conjuntos de datos prescriptivos. Mientras que surgen algunos defectos, lo que lleva al equipo a reintroducir una cantidad limitada de SFT durante las etapas finales de construcción del modelo, los resultados confirmaron el avance fundamental: el aprendizaje de refuerzo solo podría generar ganancias de rendimiento sustanciales.

La compañía consiguió gran parte del uso de código abierto, una forma convencional y no sorprendente

Primero, algunos antecedentes sobre cómo Deepseek llegó a donde lo hizo. Deepseek, un spin-off de 2023 de la cuantificación de alto nivel de fondos de cobertura chinos, comenzó desarrollando modelos de IA para su chatbot patentado antes de liberarlos para uso público. Poco se sabe sobre el enfoque exacto de la compañía, pero se abre rápidamente obtuvo sus modelos, y es extremadamente probable que la compañía se basara en los proyectos abiertos producidos por Meta, por ejemplo, el modelo LLAMA, y la biblioteca ML Pytorch.

Para capacitar a sus modelos, la cuantía de alto vuelo obtuvo más de 10,000 GPU NVIDIA antes de las restricciones de exportación de EE. UU., Y según los informes, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAi, Google y Anthrope, que funcionan con más de 500,000 GPU cada uno.

La capacidad de Deepseek para lograr resultados competitivos con recursos limitados destaca cómo el ingenio y el ingenio pueden desafiar el paradigma de alto costo de capacitar a los LLM de vanguardia.

A pesar de la especulación, se desconoce el presupuesto completo de Deepseek

Según los informes, Deepseek capacitó a su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de NVIDIA Jim Fan. Si bien la compañía no ha divulgado los datos de capacitación exactos que utilizó (nota al margen: los críticos dicen que esto significa que Deepseek no es verdaderamente de código abierto), las técnicas modernas hacen que la capacitación en la web y los conjuntos de datos abiertos sean cada vez más accesibles. Estimar el costo total de la capacitación Deepseek-R1 es un desafío. Mientras que ejecutar 50,000 GPU sugiere gastos significativos (potencialmente cientos de millones de dólares), las cifras precisas siguen siendo especulativas.

Sin embargo, lo que está claro es que Deepseek ha sido muy innovador desde el principio. El año pasado, surgieron informes sobre algunas innovaciones iniciales que estaba haciendo, en torno a cosas como la mezcla de expertos y atención latente de múltiples cabezas.

Cómo Deepseek-R1 llegó al “Momento AHA”

El viaje a la iteración final de Deepseek-R1 comenzó con un modelo intermedio, Deepseek-R1-Zero, que fue entrenado con aprendizaje de refuerzo puro. Al confiar únicamente en RL, Deepseek incentivó a este modelo a pensar de forma independiente, recompensando tanto las respuestas correctas como los procesos lógicos utilizados para llegar a ellas.

Este enfoque condujo a un fenómeno inesperado: el modelo comenzó a asignar un tiempo de procesamiento adicional a problemas más complejos, lo que demuestra la capacidad de priorizar las tareas en función de su dificultad. Los investigadores de Deepseek describieron esto como un “momento de AHA”, donde el modelo en sí identificó y articuló nuevas soluciones a problemas desafiantes (ver captura de pantalla a continuación). Este hito subrayó el poder del aprendizaje de refuerzo para desbloquear las capacidades de razonamiento avanzado sin depender de los métodos de capacitación tradicionales como SFT.

Fuente: Papel Deepseek-R1. No dejes que este gráfico te intimida. La conclusión clave es la línea roja, donde el modelo literalmente usó la frase “Momento AHA”. Los investigadores se aferraron a esto como un ejemplo sorprendente de la capacidad del modelo para repensar los problemas en un tono antropomórfico. Para los investigadores, dijeron que era su propio “momento de aha”.

Los investigadores concluyen: “Subraya el poder y la belleza del aprendizaje de refuerzo: en lugar de enseñar explícitamente el modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos correctos y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas”.

Más que rl

Sin embargo, es cierto que el modelo necesitaba más que solo RL. El artículo continúa hablando sobre cómo a pesar de la RL creando comportamientos de razonamiento inesperados y poderosos, este modelo intermedio Deepseek-R1-Zero enfrentó algunos desafíos, incluida la mala legibilidad y la mezcla de idiomas (comenzando en chino y cambiando al inglés, por ejemplo ). Así que solo entonces el equipo decidió crear un nuevo modelo, que se convertiría en el modelo final de Deepseek-R1. Este modelo, nuevamente basado en el modelo base V3, se inyectó primero con SFT limitado, centrado en una “pequeña cantidad de datos de cuna largos” o lo que se llamaba datos de inicio frío, para solucionar algunos de los desafíos. Después de eso, se puso a través del mismo proceso de aprendizaje de refuerzo de R1-Zero. Luego, el periódico habla sobre cómo R1 pasó por algunas rondas finales de ajuste.

Las ramificaciones

Una pregunta es por qué el lanzamiento ha habido tanta sorpresa. No es como si los modelos de código abierto sean nuevos. Los modelos de código abierto tienen una gran lógica e impulso detrás de ellos. Su costo gratuito y maleabilidad es la razón por la que informamos recientemente que estos modelos van a ganar en la empresa.

El modelo 3 de peso abierto de Meta, por ejemplo, explotó en popularidad el año pasado, ya que fue ajustado por los desarrolladores que querían sus propios modelos personalizados. Del mismo modo, ahora Deepseek-R1 ya se está utilizando para destilar su razonamiento en una variedad de otros modelos mucho más pequeños, la diferencia es que Deepseek ofrece un rendimiento líder en la industria. Esto incluye ejecutar pequeñas versiones del modelo en teléfonos móviles, por ejemplo.

Deepseek-r1 no solo funciona mejor que la alternativa de código abierto líder, Llama 3. Muestra toda su cadena de pensamiento de sus respuestas de manera transparente. La llama de Meta no ha recibido instrucciones de hacer esto como un incumplimiento; Se necesita una solicitud agresiva de Llama para hacer esto.

La transparencia también ha proporcionado un ojo negro de relaciones públicas a OpenAi, que hasta ahora ha ocultado sus cadenas de pensamiento de los usuarios, citando razones competitivas y no confundir a los usuarios cuando un modelo se equivoca. La transparencia permite a los desarrolladores identificar y abordar los errores en el razonamiento de un modelo, agilizando las personalizaciones para cumplir con los requisitos empresariales de manera más efectiva.

Para los tomadores de decisiones empresariales, el éxito de Deepseek subraya un cambio más amplio en el panorama de IA: las prácticas de desarrollo más delgadas y más eficientes son cada vez más viables. Las organizaciones pueden necesitar reevaluar sus asociaciones con proveedores de IA patentados, considerando si los altos costos asociados con estos servicios están justificados cuando las alternativas de código abierto pueden ofrecer resultados comparables, si no superiores.

Sin duda, no hay plomo masivo

Si bien la innovación de Deepseek es innovadora, de ninguna manera ha establecido una ventaja dominante del mercado. Debido a que publicó su investigación, otras compañías modelo aprenderán de ella y se adaptarán. Meta y Mistral, la compañía modelo de código abierto francesa, pueden ser un latido detrás, pero probablemente solo pasarán unos meses antes de que se pongan al día. Como dijo el investigador principal de Meta, Yann Lecun: “La idea es que todos se ganen de las ideas de todos los demás. Nadie ‘supera’ a nadie y ningún país ‘pierde’ a otro. Nadie tiene el monopolio de las buenas ideas. Todos están aprendiendo de todos los demás “. Entonces es la ejecución lo que importa.

En última instancia, son los consumidores, nuevas empresas y otros usuarios los que más ganarán, porque las ofertas de Deepseek continuarán impulsando el precio de usar estos modelos cerca de cero (nuevamente, aparte del costo de ejecutar modelos con inferencia). Esta rápida mercantilización podría plantear desafíos, de hecho, dolor masivo, para los principales proveedores de IA que han invertido mucho en infraestructura patentada. Como muchos comentaristas lo han dicho, incluido Chamath Palihapitiya, un inversor y ex ejecutivo de Meta, esto podría significar que se desperdiciarán años de Opex y Capex por OpenAi y otros.

Existe un comentario sustancial sobre si es ético usar el modelo Deepseek-R1 debido a los sesgos inculcados por las leyes chinas, por ejemplo, que no debe responder preguntas sobre la brutal represión del gobierno chino en Tiananmen Square. A pesar de las preocupaciones éticas en torno a los sesgos, muchos desarrolladores ven estos sesgos como casos de borde poco frecuente en aplicaciones del mundo real, y pueden mitigarse a través del ajuste. Además, apuntan a diferentes pero análogos sesgos que tienen modelos de Operai y otras compañías. La llama de Meta se ha convertido en un modelo abierto popular a pesar de que sus conjuntos de datos no se hacen públicos, y a pesar de los prejuicios ocultos, y las demandas se presentan en su contra como resultado.

Las preguntas abundan en torno al ROI de las grandes inversiones por OpenAI

Todo esto plantea grandes preguntas sobre los planes de inversión perseguidos por Operai, Microsoft y otros. El proyecto Stargate de $ 500 mil millones de OpenAI refleja su compromiso de construir centros de datos masivos para alimentar sus modelos avanzados. Respaldado por socios como Oracle y SoftBank, esta estrategia se basa en la creencia de que lograr la inteligencia general artificial (AGI) requiere recursos de cómputo sin precedentes. Sin embargo, la demostración de Deepseek de un modelo de alto rendimiento a una fracción de los desafíos de costos de la sostenibilidad de este enfoque, lo que plantea dudas sobre la capacidad de OpenAI para ofrecer rendimientos de una inversión tan monumental.

El emprendedor y comentarista Arnaud Bertrand capturó esta dinámica, contrastando la innovación frugal y descentralizada de China con la dependencia de los Estados Unidos de la infraestructura centralizada e intensiva en recursos: “Se trata del mundo que se da cuenta de que China ha acelerado, y en algunas áreas superada: EE. UU. En tecnología y tecnología y la tecnología. Innovación, a pesar de los esfuerzos para evitar exactamente eso “. De hecho, ayer otra compañía china, Bytedance, anunció DouBao-1.5-Pro, que incluye un modo de “pensamiento profundo” que supera el O1 de OpenAI en el punto de referencia del AIME.

¿Quieres sumergirte más profundamente en cómo Deepseek-R1 está remodelando el desarrollo de la IA? Echa un vistazo a nuestra discusión en profundidad en YouTube, donde exploro este avance con el desarrollador de ML Sam Witteveen. Juntos, desglosamos los detalles técnicos, las implicaciones para las empresas y lo que esto significa para el futuro de la IA:

https://www.youtube.com/watch?v=BJZJ5LTIQE0

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué es Deepseek? Nuevos rivales de inteligencia artificial chino Chatgpt, OpenAi

Published

on

Línea superior

Una nueva compañía de IA china llamada Deepseek disparó a la cima de las listas de aplicaciones y se sacudió las acciones de Global Tech el lunes después de que obtuvo calificaciones de alto rendimiento a la par con los principales rivales estadounidenses a pesar de que aparentemente carecen del acceso a los chips de vanguardia, impulsados ​​por las afirmaciones de la compañía desarrolladas Sus modelos a una fracción del costo necesario para las plataformas estadounidenses.

Hechos clave

La startup de Deepseek tiene menos de dos años, fue fundada en 2023 por el empresario chino de 40 años Liang Wenfeng, y lanzó sus modelos de código abierto para descargar en los Estados Unidos a principios de enero, donde desde entonces ha aumentado al La parte superior de los gráficos de descarga de iPhone, superando la aplicación para el chatgpt de Openai.

El último producto de Deepseek, un modelo de razonamiento avanzado llamado R1, se ha comparado favorablemente con los mejores productos de Operai y Meta, al tiempo que parece ser más eficiente, con costos más bajos para entrenar y desarrollar modelos y posiblemente haberse hecho sin depender de la IA más poderosa. Aceleradores que son más difíciles de comprar en China debido a los controles de exportación de los Estados Unidos.

Los modelos R1 y V3 de la compañía se clasifican en el Top 10 en el chatbot Arena, una plataforma de rendimiento organizada por la Universidad de California, Berkeley, y la compañía dice que está obteniendo casi tan bien o superando modelos rivales en tareas matemáticas, conocimiento general y cuestión de preguntas y preguntas -y-y-respuesta de referencia de rendimiento.

Deepseek dijo que la capacitación de uno de sus últimos modelos costó $ 5.6 millones, lo que sería mucho menos que el director ejecutivo de $ 100 millones a $ 1 mil millones de una IA estimó que cuesta construir un modelo el año pasado, aunque el analista de Bernstein, Stacy Rasgon, luego llamó a las cifras de Deepseek muy engañosas.

A pesar de las preguntas que quedan sobre el verdadero costo y el proceso para construir los productos de Deepseek, todavía enviaron el mercado de valores a un pánico: Microsoft (menos de 3.7%a las 11:30 a.m. ET), Tesla (1.3%), Nvidia (15%) y Broadcom (16%) se resbaló el lunes después de una venta de una venta de una venta de SE VOLVER por el éxito de Deepseek, y el NASDAQ pesado por la tecnología disminuyó un 3,5% en el camino a su tercer día de los últimos dos años.

Obtenga alertas de mensajes de texto de Breaking News: Estamos lanzando alertas de mensajes de texto para que siempre sepa las historias más grandes que dan forma a los titulares del día. Envíe “alertas” de texto a (201) 335-0739 o registrarse aquí.

Cita crucial

“Deepseek R1 es el momento Sputnik de AI”, dijo el domingo el inversor multimillonario Marc Andressen.

Gran número

1.6 millones. Esa es cuántas veces se había descargado la aplicación Mobile Deepseek hasta el sábado, informó Bloomberg, la aplicación No. 1 en las tiendas de iPhone en Australia, Canadá, China, Singapur, Estados Unidos y el Reino Unido

¿Cómo uso Deepseek?

Deepseek es gratuito en Web, APP y API, pero requiere que los usuarios creen una cuenta.

¿Cómo se compara Deepseek con OpenAi y Chatgpt?

Deepseek-R1 es más similar al modelo O1 de OpenAI, que cuesta a los usuarios $ 200 por mes. Ambos son modelos de idiomas grandes con capacidades de razonamiento avanzado, diferentes de los chatbots de preguntas y respuestas de forma corta como el chatgtp de Openai. R1 y O1 se especializan en desglosar las solicitudes en una cadena de “pensamientos” lógicos y examinar cada uno individualmente. R1 ha logrado el rendimiento a la par con O1 en varios puntos de referencia y, según los informes, superó su rendimiento en la prueba Math-500. Chatbot Arena actualmente clasifica a R1 como empatado en el tercer mejor modelo de IA que existe, con O1 en cuarto lugar.

¿Es el código abierto Deepseek-R1?

Sí. Deepseek-R1 está disponible para que cualquiera pueda acceder, usar, estudiar, modificar y compartir, y no está restringido por licencias propietarias.

¿Quién posee Deepseek?

Deepseek opera de forma independiente, pero es financiado únicamente por High-Flyer, un fondo de cobertura de $ 8 mil millones también fundado por Wenfeng. La compañía lanzó su primer producto en noviembre de 2023, un modelo diseñado para la codificación de tareas, y sus lanzamientos posteriores, todos notables por sus bajos costos, obligaron a otros gigantes tecnológicos chinos a reducir sus precios del modelo de IA para seguir siendo competitivos. En una entrevista el año pasado, Wenfeng dijo que la compañía no tiene como objetivo obtener ganancias excesivas y precios de sus productos solo un poco por encima de sus costos.

¿Deepseek es realmente tan barato?

No todos están comprando las afirmaciones de que Deepseek hizo R1 con un presupuesto reducido y sin la ayuda de chips de IA de fabricación estadounidense. El CEO de Scale AI, Alexandr Wang, dijo a CNBC el jueves (sin evidencia) Deepseek construyó su producto utilizando aproximadamente 50,000 chips Nvidia H100 que no puede mencionar porque violaría los controles de exportación estadounidenses que prohíben la venta de tales chips a las empresas chinas. El multimillonario Elon Musk apoyó la teoría y dijo que era “obviamente” cierto en una publicación sobre X. Rasgon expresó pensamientos similares en una nota el lunes, escribiendo que Deepseek no cuantificaba los recursos que utilizaba para desarrollar el modelo R1 en sus informes y que “Las modelos se ven fantásticas … no creemos que sean milagros”. También dijo que la estimación de costos de $ 5 millones puede representar con precisión lo que Deepseek pagó para alquilar cierta infraestructura para capacitar a sus modelos, pero excluye la investigación anterior, experimentos, algoritmos, datos y costos asociados con la construcción de sus productos.

Que ver

Qué gran éxito Nvidia, el fabricante de chips de inteligencia artificial muy buscado, lleva el lunes. La compañía está rastreando hacia una pérdida del 11%, o $ 400 mil millones, que sería la mayor pérdida de valor de un solo día para cualquier empresa. Ese registro ya está en manos de Nvidia, que cayó casi un 10% en septiembre para perder $ 280 mil millones en valor de mercado.

Fondo clave

China y los Estados Unidos son los principales jugadores en la carrera armamentista de inteligencia artificial que parecía ser dirigida principalmente por las empresas estadounidenses OpenAi (respaldadas por Microsoft), Meta y Alphabet. La semana pasada, el presidente Donald Trump respaldó el plan de infraestructura Stargate de $ 500 mil millones de OpenAI para superar a sus compañeros y, al anunciar su apoyo, habló específicamente sobre la importancia del dominio estadounidense sobre China en el espacio de la IA. La inteligencia artificial está impulsada en gran medida por chips semiconductores de alta tecnología y de alto dólar que proporcionan la potencia de procesamiento necesaria para realizar cálculos complejos y manejar grandes cantidades de datos de manera eficiente. Y aunque no todos los fabricantes de chips semiconductores más grandes son estadounidenses, muchos, incluidos Nvidia, Intel y Broadcom, están diseñados en los Estados Unidos. En 2022, Estados Unidos comenzó a limitar las exportaciones de semiconductores a China en un intento de obstaculizar la capacidad del país para avanzar en la IA por solicitudes militares u otras amenazas de seguridad nacional.

Lectura adicional

ForbesNvidia stock hunde 15%, la mayor pérdida de la historia, como la alarma de los aguas profundas se sacude, cariñoForbesPanic de Deepseek: aquí está por qué las existencias tecnológicas se están aplastando a medida que Nasdaq cambia el peor día de 2025ForbesDeepseek Rattles Tech Stocks: la startup china contra los desafíos de OpenAI US AI LeadForbesEl rival chino de chatgpt Deepseek está haciendo olas en Silicon Valley a pesar de los bordillos de EE. UU.

Continue Reading

Noticias

Esto es lo que debes saber

Published

on

El lunes, la startup china de inteligencia artificial DeepSeek tomó el codiciado lugar de su rival OpenAI como la aplicación gratuita más descargada en los EE. UU. Manzana‘s App Store, destronando a ChatGPT para el asistente de inteligencia artificial de DeepSeek. Las acciones tecnológicas mundiales se vendieron y estaban en camino de eliminar miles de millones en capitalización de mercado.

Líderes tecnológicos, analistas, inversores y desarrolladores dicen que la exageración (y el consiguiente temor de quedarse atrás en el siempre cambiante ciclo exagerado de la IA) puede estar justificada. Especialmente en la era de la carrera armamentista generativa de la IA, donde tanto los gigantes tecnológicos como las nuevas empresas compiten para asegurarse de no quedarse atrás en un mercado que se prevé superará el billón de dólares en ingresos dentro de una década.

¿Qué es DeepSeek?

DeepSeek fue fundada en 2023 por Liang Wenfeng, cofundador de High-Flyer, un fondo de cobertura cuantitativo centrado en la IA. Según se informa, la startup de IA surgió de la unidad de investigación de IA del fondo de cobertura en abril de 2023 para centrarse en grandes modelos de lenguaje y alcanzar la inteligencia artificial general, o AGI, una rama de la IA que iguala o supera al intelecto humano en una amplia gama de tareas, que OpenAI y sus rivales dicen que lo están persiguiendo rápidamente. DeepSeek sigue siendo propiedad total de High-Flyer y financiado por ella, según analistas de Jefferies.

Los rumores en torno a DeepSeek comenzaron a cobrar fuerza a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el o1 de OpenAI. Es de código abierto, lo que significa que cualquier desarrollador de IA puede usarlo, y se ha disparado a la cima de las tiendas de aplicaciones y tablas de clasificación de la industria, y los usuarios elogian su rendimiento y capacidades de razonamiento.

Al igual que otros chatbots chinos, tiene sus limitaciones cuando se le pregunta sobre ciertos temas: cuando se le pregunta sobre algunas de las políticas del líder chino Xi Jinping, por ejemplo, DeepSeek supuestamente aleja al usuario de líneas de preguntas similares.

Otra parte clave de la discusión: el R1 de DeepSeek se construyó a pesar de que Estados Unidos limitó las exportaciones de chips a China tres veces en tres años. Las estimaciones difieren sobre cuánto cuesta exactamente el R1 de DeepSeek o cuántas GPU se incluyen en él. Los analistas de Jefferies estimaron que una versión reciente tenía un “coste de capacitación de sólo 5,6 millones de dólares (suponiendo un costo de alquiler de 2 dólares por hora y 800 horas). Eso es menos del 10% del costo de Meta‘s Llama.” Pero independientemente de las cifras específicas, los informes coinciden en que el modelo fue desarrollado a una fracción del costo de los modelos rivales por OpenAI, Anthropic, Google y otros.

Como resultado, el sector de la IA está inundado de preguntas, entre ellas si el creciente número de rondas de financiación astronómicas y valoraciones de miles de millones de dólares de la industria es necesaria, y si una burbuja está a punto de estallar.

Lea más informes de CNBC sobre IA

Acciones de NVIDIA cayó un 11%, con el fabricante de chips ASML bajó más del 6%. El Nasdaq cayó más del 2% y cuatro gigantes tecnológicos… Meta, microsoft, Manzana y ASML están listos para informar sus ganancias esta semana.

Los analistas de Raymond James detallaron algunas de las preguntas que afectan a la industria de la IA este mes y escribieron: “¿Cuáles son las implicaciones para la inversión? ¿Qué dice sobre los modelos de código abierto versus los propietarios? ¿Invertir dinero en GPU es realmente una panacea? ¿Existen restricciones a las exportaciones de Estados Unidos? ¿Cuáles son las implicaciones más amplias de [DeepSeek]? Bueno, podrían ser espantosos o no ser un evento, pero tengan la seguridad de que la industria está llena de incredulidad y especulación”.

Los analistas de Bernstein escribieron en una nota el lunes que “según las muchas (ocasionalmente histéricas) tomas calientes que vimos [over the weekend,] las implicaciones van desde ‘Eso es realmente interesante’ hasta ‘Esta es la sentencia de muerte del complejo de infraestructura de IA tal como lo conocemos'”.

Cómo están respondiendo las empresas estadounidenses

Algunos directores ejecutivos de tecnología estadounidenses están luchando por responder antes de que los clientes cambien a ofertas potencialmente más baratas de DeepSeek, y se informa que Meta está iniciando cuatro “salas de guerra” relacionadas con DeepSeek dentro de su departamento de IA generativa.

microsoft El director ejecutivo Satya Nadella escribió en X que el fenómeno DeepSeek era solo un ejemplo de la paradoja de Jevons: “A medida que la IA se vuelva más eficiente y accesible, veremos cómo su uso se dispara, convirtiéndola en un bien del que simplemente no podemos tener suficiente”. “. El director ejecutivo de OpenAI, Sam Altman, tuiteó una cita que atribuyó a Napoleón y escribió: “Una revolución no se puede hacer ni detener. Lo único que se puede hacer es que uno de sus hijos le dé una dirección a fuerza de victorias”.

Yann LeCun, científico jefe de IA de Meta, escribió en LinkedIn que el éxito de DeepSeek es indicativo del cambio de rumbo en el sector de la IA para favorecer la tecnología de código abierto.

LeCun escribió que DeepSeek se ha beneficiado de parte de la tecnología propia de Meta, es decir, sus modelos Llama, y ​​que la startup “ideó nuevas ideas y las construyó sobre el trabajo de otras personas. Debido a que su trabajo está publicado y es de código abierto, todos pueden sacar provecho de ello. Ese es el poder de la investigación abierta y del código abierto”.

Alexandr Wang, director ejecutivo de Scale AI, dijo a CNBC la semana pasada que el último modelo de IA de DeepSeek fue “revolucionario” y que su versión R1 es aún más poderosa.

“Lo que hemos descubierto es que DeepSeek… tiene el mejor rendimiento, o aproximadamente está a la par de los mejores modelos estadounidenses”, dijo Wang, añadiendo que la carrera de IA entre EE.UU. y China es una “guerra de IA”. La empresa de Wang proporciona datos de entrenamiento a actores clave de la IA, incluidos OpenAI, Google y Meta.

A principios de esta semana, el presidente Donald Trump anunció una empresa conjunta con OpenAI, Oracle y SoftBank para invertir miles de millones de dólares en infraestructura de IA en Estados Unidos. El proyecto, Stargate, fue presentado en la Casa Blanca por Trump, el director ejecutivo de SoftBank, Masayoshi Son, el cofundador de Oracle, Larry Ellison, y el director ejecutivo de OpenAI, Sam Altman. Los socios tecnológicos iniciales clave incluirán a Microsoft, Nvidia y Oracle, así como a la empresa de semiconductores Arm. Dijeron que invertirían 100.000 millones de dólares para empezar y hasta 500.000 millones de dólares en los próximos cuatro años.

IA evolucionando

La noticia de la destreza de DeepSeek también llega en medio del creciente revuelo en torno a los agentes de IA (modelos que van más allá de los chatbots para completar tareas complejas de varios pasos para un usuario) que tanto los gigantes tecnológicos como las nuevas empresas están persiguiendo. Meta, Google, Amazon, Microsoft, OpenAI y Anthropic han expresado su objetivo de crear IA agente.

Anthropic, la startup de IA respaldada por Amazon y fundada por ex ejecutivos de investigación de OpenAI, intensificó su desarrollo tecnológico durante el año pasado y, en octubre, la startup dijo que sus agentes de IA podían usar computadoras como humanos para completar tareas complejas. La capacidad de uso de computadoras de Anthropic permite que su tecnología interprete lo que hay en la pantalla de una computadora, seleccione botones, ingrese texto, navegue por sitios web y ejecute tareas a través de cualquier software y navegación por Internet en tiempo real, dijo la startup.

La herramienta puede “usar computadoras básicamente de la misma manera que nosotros”, dijo a CNBC Jared Kaplan, director científico de Anthropic, en una entrevista en ese momento. Dijo que puede realizar tareas con “decenas o incluso cientos de pasos”.

OpenAI lanzó una herramienta similar la semana pasada, introduciendo una función llamada Operador que automatizará tareas como planificar vacaciones, completar formularios, hacer reservas en restaurantes y pedir alimentos.

El microsoft-La startup respaldada lo describe como “un agente que puede ir a la web para realizar tareas por usted” y agregó que está capacitado para interactuar con “los botones, menús y campos de texto que la gente usa a diario” en la web. También puede hacer preguntas de seguimiento para personalizar aún más las tareas que realiza, como información de inicio de sesión para otros sitios web. Los usuarios pueden tomar el control de la pantalla en cualquier momento.

Continue Reading

Noticias

Esto es lo que debes saber: NBC 6 South Florida

Published

on

  • El zumbido alrededor de la startup de IA China Deepseek comenzó a recoger a Steam a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el O1 de Openai.
  • El lunes, Deepseek se hizo cargo del lugar codiciado de su rival Openai para la aplicación gratuita más descargada en los EE. UU. En la App Store de Apple, destronando a Chatgpt para el asistente de IA de Deepseek.
  • Global Tech Stocks se vendió, con el gigante de chip de IA Nvidia cayendo un 10%.

El lunes, la startup de inteligencia artificial china Deepseek se hizo cargo del lugar codiciado de su rival Openai como la aplicación gratuita más desactivada en los EE. UU. En la tienda de aplicaciones de Apple, destronando Chatgpt para el asistente de IA de Deepseek. Las acciones de Global Tech se vendieron y estaban en camino de acabar con miles de millones en el límite de mercado.

Los líderes tecnológicos, analistas, inversores y desarrolladores dicen que el bombo, y el consiguiente temor de quedarse atrás en el ciclo de bombo de IA en constante cambio, pueden estar justificados. Especialmente en la era de la carrera armamentista generativa de IA, donde los gigantes tecnológicos y las startups están corriendo para garantizar que no se queden atrás en un mercado previsto para superar los ingresos de $ 1 billón en una década.

¿Qué es Deepseek?

Deepseek fue fundada en 2023 por Liang Wenfeng, cofundador de High-Flyer, un fondo cuantitativo de cobertura centrado en la IA. Según los informes, la startup de IA surgió de la Unidad de Investigación de AI del fondo de cobertura en abril de 2023 para centrarse en modelos de idiomas grandes y alcanzar la inteligencia general artificial, o AGI, una rama de IA que iguala o supere el intelecto humano en una amplia gama de tareas, que se abren. Y sus rivales dicen que están persiguiendo rápidamente. Deepseek sigue siendo propiedad y financiado por High-Flyer, según analistas de Jefferies.

El zumbido alrededor de Deepseek comenzó a recoger a Steam a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el O1 de OpenAI. Es de código abierto, lo que significa que cualquier desarrollador de IA puede usarlo, y se ha disparado a la cima de las tiendas de aplicaciones y las tablas de clasificación de la industria, con los usuarios elogios de su rendimiento y capacidades de razonamiento.

Al igual que otros chatbots chinos, tiene sus limitaciones cuando se les pregunta sobre ciertos temas: cuando se le pregunta sobre algunas de las políticas del líder chino Xi Jinping, por ejemplo, Deepseek aleja al usuario de líneas similares de preguntas.

Otra parte clave de la discusión: R1 de Deepseek se construyó a pesar de las exportaciones de chips de EE. UU. A China tres veces en tres años. Las estimaciones difieren exactamente en la cantidad de R1 de Deepseek, o en cuántas GPU entró. Los analistas de Jefferies estimaron que una versión reciente tenía un “costo de capacitación de solo US $ 5,6 millones (suponiendo un costo de alquiler de US $ 2/h800 horas). Eso es menos del 10% del costo de la LLAMA de Meta”. Pero independientemente de los números específicos, los informes acuerdan que el modelo se desarrolló a una fracción del costo de los modelos rivales por OpenAI, Anthrope, Google y otros.

Como resultado, el sector de la IA está inundado de preguntas, incluido si es necesario el creciente número de rondas de financiación astronómica y las valoraciones de mil millones de dólares, y si una burbuja está a punto de estallar.

Las acciones de NVIDIA cayeron un 11%, con el fabricante de chips ASML más del 6%. El NASDAQ cayó por 2%, y cuatro gigantes tecnológicos: Meta, Microsoft, Apple y ASML están listos para informar las ganancias esta semana.

Los analistas de Raymond James detallaron algunas de las preguntas que afectan a la industria de la IA este mes, escribiendo: “¿Cuáles son las implicaciones de inversión? ¿Qué dice sobre los modelos de origen abierto versus patentado? ¿Está arrojando dinero a las GPU realmente una panacea? trabajando? ¿Cuáles son las implicaciones más amplias de [DeepSeek]? Bueno, podrían ser terribles o un no evento, pero tengan la seguridad de que la industria está llena de incredulidad y especulación “.

Los analistas de Bernstein escribieron en una nota el lunes que “según las muchas tomas (ocasionalmente histéricas) que vimos que vimos [over the weekend,] El rango de implicaciones en cualquier lugar desde ‘eso es realmente interesante’ hasta ‘Esta es la luz de muerte del complejo de infraestructura de IA tal como lo conocemos’ “.

Cómo están respondiendo las empresas estadounidenses

Algunos CEO de tecnología estadounidense están trepando por responder antes de que los clientes cambien a ofertas potencialmente más baratas de Deepseek, y Según los informes, Meta inicia cuatro “salas de guerra” relacionadas con Deepseek dentro de su departamento generativo de IA.

El CEO de Microsoft, Satya Nadella, escribió en X que el fenómeno de Deepseek era solo un ejemplo de la paradoja de Jevons, escribiendo, “A medida que AI se vuelve más eficiente y accesible, veremos su uso Skyroocket, convirtiéndolo en una mercancía, simplemente no podemos obtener suficiente de.” El CEO de Operai, Sam Altman, tuiteó una cita que atribuyó a Napoleón, escribiendo: “Una revolución no se puede hacer ni detener.

Yann Lecun, el jefe científico de AI de Meta, escribió en LinkedIn que el éxito de Deepseek es indicativo de cambiar las mareas en el sector de IA para favorecer la tecnología de código abierto.

Lecun escribió que Deepseek se ha beneficiado de algunas de la propia tecnología de Meta, es decir, sus modelos de llama, y ​​que la startup “se les ocurrió nuevas ideas y las construyó en la parte superior del trabajo de otras personas. Debido a que su trabajo es publicado y de código abierto, todos pueden Se beneficia de él.

Alexandr Wang, CEO de Scale AI, le dijo a CNBC la semana pasada que el último modelo de IA de Deepseek fue “devastador de la tierra” y que su lanzamiento de R1 es aún más poderoso.

“Lo que hemos encontrado es que Deepseek … es el mejor desempeño, o aproximadamente a la par con los mejores modelos estadounidenses”, dijo Wang, y agregó que la carrera de IA entre los Estados Unidos y China es una “guerra de IA”. La compañía de Wang proporciona datos de capacitación a jugadores clave de IA, incluidos OpenAI, Google y Meta.

A principios de esta semana, presidente Donald Trump anunció una empresa conjunta con OpenAI, Oracle y Softbank para invertir miles de millones de dólares en infraestructura de IA de EE. UU. El proyecto, Stargate, fue presentado en la Casa Blanca por Trump, el CEO de SoftBank, Masayoshi,, cofundador Larry Ellison, y el CEO de Operai, Sam Altman. Los socios de tecnología iniciales clave incluirán Microsoft, Nvidia y Oracle, así como el brazo de la compañía de semiconductores. Dijeron que invertirían $ 100 mil millones para comenzar y hasta $ 500 mil millones en los próximos cuatro años.

AI evolucionando

La noticia de la destreza de Deepseek también se produce en medio de la creciente exageración en torno a los agentes de IA, modelos que van más allá de los chatbots para completar tareas complejas de varios pasos para un usuario, que los gigantes tecnológicos y las startups están persiguiendo. Meta, Google, Amazon, Microsoft, Openai y Anthrope han expresado su objetivo de construir IA de agente.

Anthrope, la startup de IA respaldada por Amazon fundada por ex ejecutivos de investigación de Openai, aumentó su desarrollo de tecnología durante el año pasado, y en octubre, la startup dijo que sus agentes de IA pudieron usar computadoras como humanos para completar tareas complejas. La capacidad de uso de la computadora de Anthrope permite que su tecnología interprete lo que está en la pantalla de una computadora, seleccione botones, ingrese texto, navegue por los sitios web y ejecute tareas a través de cualquier software y navegación en Internet en tiempo real, dijo la startup.

La herramienta puede “usar computadoras básicamente de la misma manera que lo hacemos”, dijo Jared Kaplan, director científico de Anthrope, a CNBC en una entrevista en ese momento. Dijo que puede hacer tareas con “decenas o incluso cientos de pasos”.

Openai lanzó una herramienta similar la semana pasada, presentando una característica llamada operador que automatizará tareas como planificar vacaciones, completar formularios, hacer reservas de restaurantes y ordenar comestibles.

La startup respaldada por Microsoft lo describe como “un agente que puede ir a la web para realizar tareas para usted”, y agregó que está capacitado para interactuar con “los botones, los menús y los campos de texto que las personas usan a diario” en la web . También puede hacer preguntas de seguimiento para personalizar aún más las tareas que completa, como la información de inicio de sesión para otros sitios web. Los usuarios pueden tomar el control de la pantalla en cualquier momento.

Continue Reading

Trending