Connect with us

Noticias

China de código abierto AI Deepseek R1 coincide con el O1 de Openai con un costo 98% más bajo

Published

on

Los investigadores chinos de IA han logrado lo que muchos pensaban que estaban a años de distancia: un modelo de IA de código abierto gratuito que puede igualar o superar el rendimiento de los sistemas de razonamiento más avanzados de OpenAI. Lo que hace que esto sea aún más notable fue cómo lo hicieron: al dejar que la IA se enseñe a través de prueba y error, similar a cómo aprenden los humanos.

“Deepseek-r1-cero, un modelo entrenado a través de un aprendizaje de refuerzo a gran escala (RL) sin ajustar (SFT) supervisado como un paso preliminar, demuestra notables capacidades de razonamiento”. El trabajo de investigación dice.

El “aprendizaje de refuerzo” es un método en el que un modelo es recompensado por tomar buenas decisiones y castigado por tomar malas, sin saber cuál es cuál. Después de una serie de decisiones, aprende a seguir un camino que fue reforzado por esos resultados.

Inicialmente, durante la fase supervisada de ajuste fino, un grupo de humanos le dice al modelo el resultado deseado que desean, dándole un contexto para saber qué es bueno y qué no. Esto lleva a la siguiente fase, el aprendizaje de refuerzo, en el que un modelo proporciona diferentes resultados y los humanos clasifican los mejores. El proceso se repite una y otra vez hasta que el modelo sepa cómo proporcionar resultados satisfactorios constantemente.

Imagen: Deepseek

Deepseek R1 es una dirección en el desarrollo de IA porque los humanos tienen una parte mínima en la capacitación. A diferencia de otros modelos que están capacitados en grandes cantidades de datos supervisados, Deepseek R1 aprende principalmente a través del aprendizaje de refuerzo mecánico, lo que esencialmente resuelve las cosas experimentando y recibiendo comentarios sobre lo que funciona.

“A través de RL, Deepseek-R1-Zero emerge naturalmente con numerosos comportamientos de razonamiento poderosos e interesantes”, dijeron los investigadores en su artículo. El modelo incluso desarrolló capacidades sofisticadas como la autoverificación y la reflexión sin ser programado explícitamente para hacerlo.

A medida que el modelo pasó por su proceso de entrenamiento, naturalmente aprendió a asignar más “tiempo de pensamiento” a problemas complejos y desarrolló la capacidad de captar sus propios errores. Los investigadores destacaron un “A-ha momento” Cuando el modelo aprendió a reevaluar sus enfoques iniciales de los problemas, algo que no estaba explícitamente programado para hacer.

Los números de rendimiento son impresionantes. En el punto de referencia de Matemáticas AIME 2024, Deepseek R1 alcanzó una tasa de éxito del 79.8%, superando el modelo de razonamiento O1 de OpenAI. En las pruebas de codificación estandarizadas, demostró el rendimiento del “nivel de expertos”, logrando una calificación ELO de 2.029 en CodeForces y superó al 96.3% de los competidores humanos.

Imagen: Deepseek

Pero lo que realmente distingue a Deepseek R1 es su costo, o la falta de él. El modelo ejecuta consultas a solo $ 0.14 por millón de tokens en comparación con los $ 7.50 de OpenAi, lo que lo hace 98% más barato. Y a diferencia de los modelos propietarios, el código y los métodos de entrenamiento de Deepseek R1 son de código abierto por completo bajo la licencia MIT, lo que significa que cualquiera puede tomar el modelo, usarlo y modificarlo sin restricciones.

Imagen: Deepseek

Los líderes de IA reaccionan

El lanzamiento de Deepseek R1 ha desencadenado una avalancha de respuestas de los líderes de la industria de la IA, y muchos destacan la importancia de un modelo de código abierto que coinciden con líderes propietarios en capacidades de razonamiento.

El principal investigador de Nvidia, el Dr. Jim Fan, entregó quizás el comentario más puntiagudo, atrayendo un paralelo directo a la misión original de OpenAI. “Estamos viviendo en una línea de tiempo en la que una empresa no estadounidense mantiene viva la misión original de Operai, una investigación fronteriza realmente abierta que empodera a todos”, señaló Fan, alabando la transparencia sin precedentes de Deepseek.

Fan gritó la importancia del enfoque de aprendizaje de refuerzo de Deepseek: “Ellos son quizás los primeros [open source software] proyecto que muestra un gran crecimiento sostenido de [a reinforcement learning] volante. También elogió el intercambio directo de Deepseek de “algoritmos crudos y curvas de aprendizaje de matplotlib” en comparación con los anuncios impulsados ​​por exageración más comunes en la industria.

El investigador de Apple, Awni Hannun, mencionó que las personas pueden ejecutar una versión cuantificada del modelo localmente en sus Mac.

Tradicionalmente, los dispositivos Apple han sido débiles en la IA debido a su falta de compatibilidad con el software CUDA de Nvidia, pero eso parece estar cambiando. Por ejemplo, el investigador de IA Alex Cheema fue capaz de ejecutar el modelo completo después de aprovechar la potencia de 8 mini unidades de Apple Mac que se ejecutan juntas, que todavía es más barata que los servidores necesarios para ejecutar los modelos de IA más potentes actualmente disponibles.

Dicho esto, los usuarios pueden ejecutar versiones más ligeras de Deepseek R1 en sus Mac con buenos niveles de precisión y eficiencia.

Sin embargo, las reacciones más interesantes se produjeron después de reflexionar sobre qué tan cerca está la industria de código abierto a los modelos patentados, y el impacto potencial que este desarrollo puede tener para OpenAi como líder en el campo de los modelos de IA de razonamiento.

El fundador de Stability Ai, Emad Mostaque, tomó una postura provocativa, lo que sugiere que el lanzamiento ejerce presión sobre los competidores mejor financiados: “¿Te imaginas ser un laboratorio fronterizo que se recauda como mil millones de dólares y ahora no puedes lanzar tu último modelo porque no puede hacerlo? ¿Beat Deepseek? “

Siguiendo el mismo razonamiento pero con una argumentación más seria, el empresario tecnológico Arnaud Bertrand explicó que la aparición de un modelo competitivo de código abierto puede ser potencialmente perjudicial para OpenAi, ya que eso hace que sus modelos sean menos atractivos para los usuarios eléctricos que de otro modo podrían estar dispuestos a gastar un mucho dinero por tarea.

“Es esencialmente como si alguien hubiera lanzado un móvil a la par con el iPhone, pero lo vendía por $ 30 en lugar de $ 1000. Es tan dramático “.

El CEO de Perplexity AI, Arvind Srinivas, enmarcó el lanzamiento en términos de su impacto en el mercado: “Deepseek ha replicado en gran medida O1 Mini y lo ha obtenido abierto”. En una observación de seguimiento, señaló el rápido ritmo de progreso: “Es un poco salvaje ver que el razonamiento se comercializa tan rápido”.

Srinivas dijo que su equipo trabajará para llevar las capacidades de razonamiento de Deepseek R1 a la perplejidad profesional en el futuro.

Práctico

Hicimos algunas pruebas rápidas para comparar el modelo con OpenAI O1, comenzando con una pregunta bien conocida para este tipo de puntos de referencia: “¿Cuántas RS hay en la palabra Strawberry?”

Por lo general, los modelos luchan por proporcionar la respuesta correcta porque no funcionan con palabras: trabajan con tokens, representaciones digitales de conceptos.

GPT-4O falló, OpenAi O1 tuvo éxito, y también lo hizo Deepseek R1.

Sin embargo, O1 fue muy conciso en el proceso de razonamiento, mientras que Deepseek aplicó una gran producción de razonamiento. Curiosamente, la respuesta de Deepseek se sintió más humana. Durante el proceso de razonamiento, el modelo parecía hablar consigo mismo, usando argot y palabras poco comunes en máquinas pero más ampliamente utilizadas por los humanos.

Por ejemplo, mientras reflexiona sobre el número de Rs, el modelo se dijo a sí mismo: “Está bien, déjame resolver (esto)”. También usó “Hmmm”, mientras debatía, e incluso dijo cosas como “Espera, no. Espera, descoméalo “.

El modelo finalmente alcanzó los resultados correctos, pero pasó mucho tiempo razonando y escupiendo fichas. En condiciones de precios típicas, esto sería una desventaja; Pero dado el estado actual de las cosas, puede generar más fichas que OpenAI O1 y aún así ser competitivo.

Otra prueba para ver qué tan bien eran los modelos en el razonamiento de los “espías” e identificar a los perpetradores en una historia corta. Elegimos una muestra del conjunto de datos Big-Bench en GitHub. (La historia completa está disponible aquí e involucra un viaje escolar a una ubicación remota y nevada, donde los estudiantes y los maestros enfrentan una serie de desapariciones extrañas y el modelo debe descubrir quién era el acosador).

Ambos modelos lo pensaron por más de un minuto. Sin embargo, Chatgpt se estrelló antes de resolver el misterio:

Pero Deepseek dio la respuesta correcta después de “pensar” en ello durante 106 segundos. El proceso de pensamiento era correcto, e incluso el modelo era capaz de corregirse después de llegar a conclusiones incorrectas (pero aún lo suficientemente lógicas).

La accesibilidad de versiones más pequeñas impresionó particularmente a los investigadores. Para el contexto, un modelo de 1.5B es tan pequeño que teóricamente podría ejecutarlo localmente en un poderoso teléfono inteligente. E incluso una versión cuantificada de Deepseek R1 que Small pudo pararse cara a cara contra GPT-4O y Claude 3.5 Sonnet, según el científico de datos de Hugging Face, Vaibhav Srivastav.

Hace solo una semana, Skynove de UC Berkeley lanzó Sky T1, un modelo de razonamiento también capaz de competir contra Operai O1 Preview.

Aquellos interesados ​​en ejecutar el modelo localmente pueden descargarlo desde GitHub o Huggingf Face. Los usuarios pueden descargarlo, ejecutarlo, eliminar la censura o adaptarlo a diferentes áreas de experiencia al ajustarlo.

O si desea probar el modelo en línea, vaya a abrazar el chat o el portal web de Deepseek, que es una buena alternativa a ChatGPT, especialmente ya que es gratuita, de código abierto y la única interfaz de chatbot AI con un modelo creado para razonamiento además de chatgpt.

Editado por Andrew Hayward

Generalmente inteligente Hoja informativa

Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Deepseek: ¿La mejor alternativa de chatgpt o un semillero de reclamos dudosos?

Published

on

Aparentemente, Internet tiene una nueva IA favorita, y no es el último modelo de ChatGPT de la industria intocable OpenAi.

Alzando a la cima de la App Store de Apple, la inteligencia artificial china Chatbot Deepseek se ha convertido en la aplicación gratuita mejor calificada para la productividad después de un terreno de popularidad después del lanzamiento del modelo de “razonamiento” de Deepseek-R1 el 20 de enero, superando el chatgpt de OpenAi en el proceso.

Continue Reading

Noticias

¿Qué es Deepseek? Nuevos rivales de inteligencia artificial chino Chatgpt, OpenAi

Published

on

Línea superior

Una nueva compañía de IA china llamada Deepseek disparó a la cima de las listas de aplicaciones y se sacudió las acciones de Global Tech el lunes después de que obtuvo calificaciones de alto rendimiento a la par con los principales rivales estadounidenses a pesar de que aparentemente carecen del acceso a los chips de vanguardia, impulsados ​​por las afirmaciones de la compañía desarrolladas Sus modelos a una fracción del costo necesario para las plataformas estadounidenses.

Hechos clave

La startup de Deepseek tiene menos de dos años, fue fundada en 2023 por el empresario chino de 40 años Liang Wenfeng, y lanzó sus modelos de código abierto para descargar en los Estados Unidos a principios de enero, donde desde entonces ha aumentado al La parte superior de los gráficos de descarga de iPhone, superando la aplicación para el chatgpt de Openai.

El último producto de Deepseek, un modelo de razonamiento avanzado llamado R1, se ha comparado favorablemente con los mejores productos de Operai y Meta, al tiempo que parece ser más eficiente, con costos más bajos para entrenar y desarrollar modelos y posiblemente haberse hecho sin depender de la IA más poderosa. Aceleradores que son más difíciles de comprar en China debido a los controles de exportación de los Estados Unidos.

Los modelos R1 y V3 de la compañía se clasifican en el Top 10 en el chatbot Arena, una plataforma de rendimiento organizada por la Universidad de California, Berkeley, y la compañía dice que está obteniendo casi tan bien o superando modelos rivales en tareas matemáticas, conocimiento general y cuestión de preguntas y preguntas -y-y-respuesta de referencia de rendimiento.

Deepseek dijo que la capacitación de uno de sus últimos modelos costó $ 5.6 millones, lo que sería mucho menos que el director ejecutivo de $ 100 millones a $ 1 mil millones de una IA estimó que cuesta construir un modelo el año pasado, aunque el analista de Bernstein, Stacy Rasgon, luego llamó a las cifras de Deepseek muy engañosas.

A pesar de las preguntas que quedan sobre el verdadero costo y el proceso para construir los productos de Deepseek, todavía enviaron el mercado de valores a un pánico: Microsoft (menos de 3.7%a las 11:30 a.m. ET), Tesla (1.3%), Nvidia (15%) y Broadcom (16%) se resbaló el lunes después de una venta de una venta de una venta de SE VOLVER por el éxito de Deepseek, y el NASDAQ pesado por la tecnología disminuyó un 3,5% en el camino a su tercer día de los últimos dos años.

Obtenga alertas de mensajes de texto de Breaking News: Estamos lanzando alertas de mensajes de texto para que siempre sepa las historias más grandes que dan forma a los titulares del día. Envíe “alertas” de texto a (201) 335-0739 o registrarse aquí.

Cita crucial

“Deepseek R1 es el momento Sputnik de AI”, dijo el domingo el inversor multimillonario Marc Andressen.

Gran número

1.6 millones. Esa es cuántas veces se había descargado la aplicación Mobile Deepseek hasta el sábado, informó Bloomberg, la aplicación No. 1 en las tiendas de iPhone en Australia, Canadá, China, Singapur, Estados Unidos y el Reino Unido

¿Cómo uso Deepseek?

Deepseek es gratuito en Web, APP y API, pero requiere que los usuarios creen una cuenta.

¿Cómo se compara Deepseek con OpenAi y Chatgpt?

Deepseek-R1 es más similar al modelo O1 de OpenAI, que cuesta a los usuarios $ 200 por mes. Ambos son modelos de idiomas grandes con capacidades de razonamiento avanzado, diferentes de los chatbots de preguntas y respuestas de forma corta como el chatgtp de Openai. R1 y O1 se especializan en desglosar las solicitudes en una cadena de “pensamientos” lógicos y examinar cada uno individualmente. R1 ha logrado el rendimiento a la par con O1 en varios puntos de referencia y, según los informes, superó su rendimiento en la prueba Math-500. Chatbot Arena actualmente clasifica a R1 como empatado en el tercer mejor modelo de IA que existe, con O1 en cuarto lugar.

¿Es el código abierto Deepseek-R1?

Sí. Deepseek-R1 está disponible para que cualquiera pueda acceder, usar, estudiar, modificar y compartir, y no está restringido por licencias propietarias.

¿Quién posee Deepseek?

Deepseek opera de forma independiente, pero es financiado únicamente por High-Flyer, un fondo de cobertura de $ 8 mil millones también fundado por Wenfeng. La compañía lanzó su primer producto en noviembre de 2023, un modelo diseñado para la codificación de tareas, y sus lanzamientos posteriores, todos notables por sus bajos costos, obligaron a otros gigantes tecnológicos chinos a reducir sus precios del modelo de IA para seguir siendo competitivos. En una entrevista el año pasado, Wenfeng dijo que la compañía no tiene como objetivo obtener ganancias excesivas y precios de sus productos solo un poco por encima de sus costos.

¿Deepseek es realmente tan barato?

No todos están comprando las afirmaciones de que Deepseek hizo R1 con un presupuesto reducido y sin la ayuda de chips de IA de fabricación estadounidense. El CEO de Scale AI, Alexandr Wang, dijo a CNBC el jueves (sin evidencia) Deepseek construyó su producto utilizando aproximadamente 50,000 chips Nvidia H100 que no puede mencionar porque violaría los controles de exportación estadounidenses que prohíben la venta de tales chips a las empresas chinas. El multimillonario Elon Musk apoyó la teoría y dijo que era “obviamente” cierto en una publicación sobre X. Rasgon expresó pensamientos similares en una nota el lunes, escribiendo que Deepseek no cuantificaba los recursos que utilizaba para desarrollar el modelo R1 en sus informes y que “Las modelos se ven fantásticas … no creemos que sean milagros”. También dijo que la estimación de costos de $ 5 millones puede representar con precisión lo que Deepseek pagó para alquilar cierta infraestructura para capacitar a sus modelos, pero excluye la investigación anterior, experimentos, algoritmos, datos y costos asociados con la construcción de sus productos.

Que ver

Qué gran éxito Nvidia, el fabricante de chips de inteligencia artificial muy buscado, lleva el lunes. La compañía está rastreando hacia una pérdida del 11%, o $ 400 mil millones, que sería la mayor pérdida de valor de un solo día para cualquier empresa. Ese registro ya está en manos de Nvidia, que cayó casi un 10% en septiembre para perder $ 280 mil millones en valor de mercado.

Fondo clave

China y los Estados Unidos son los principales jugadores en la carrera armamentista de inteligencia artificial que parecía ser dirigida principalmente por las empresas estadounidenses OpenAi (respaldadas por Microsoft), Meta y Alphabet. La semana pasada, el presidente Donald Trump respaldó el plan de infraestructura Stargate de $ 500 mil millones de OpenAI para superar a sus compañeros y, al anunciar su apoyo, habló específicamente sobre la importancia del dominio estadounidense sobre China en el espacio de la IA. La inteligencia artificial está impulsada en gran medida por chips semiconductores de alta tecnología y de alto dólar que proporcionan la potencia de procesamiento necesaria para realizar cálculos complejos y manejar grandes cantidades de datos de manera eficiente. Y aunque no todos los fabricantes de chips semiconductores más grandes son estadounidenses, muchos, incluidos Nvidia, Intel y Broadcom, están diseñados en los Estados Unidos. En 2022, Estados Unidos comenzó a limitar las exportaciones de semiconductores a China en un intento de obstaculizar la capacidad del país para avanzar en la IA por solicitudes militares u otras amenazas de seguridad nacional.

Lectura adicional

ForbesNvidia stock hunde 15%, la mayor pérdida de la historia, como la alarma de los aguas profundas se sacude, cariñoForbesPanic de Deepseek: aquí está por qué las existencias tecnológicas se están aplastando a medida que Nasdaq cambia el peor día de 2025ForbesDeepseek Rattles Tech Stocks: la startup china contra los desafíos de OpenAI US AI LeadForbesEl rival chino de chatgpt Deepseek está haciendo olas en Silicon Valley a pesar de los bordillos de EE. UU.

Continue Reading

Noticias

Esto es lo que debes saber

Published

on

El lunes, la startup china de inteligencia artificial DeepSeek tomó el codiciado lugar de su rival OpenAI como la aplicación gratuita más descargada en los EE. UU. Manzana‘s App Store, destronando a ChatGPT para el asistente de inteligencia artificial de DeepSeek. Las acciones tecnológicas mundiales se vendieron y estaban en camino de eliminar miles de millones en capitalización de mercado.

Líderes tecnológicos, analistas, inversores y desarrolladores dicen que la exageración (y el consiguiente temor de quedarse atrás en el siempre cambiante ciclo exagerado de la IA) puede estar justificada. Especialmente en la era de la carrera armamentista generativa de la IA, donde tanto los gigantes tecnológicos como las nuevas empresas compiten para asegurarse de no quedarse atrás en un mercado que se prevé superará el billón de dólares en ingresos dentro de una década.

¿Qué es DeepSeek?

DeepSeek fue fundada en 2023 por Liang Wenfeng, cofundador de High-Flyer, un fondo de cobertura cuantitativo centrado en la IA. Según se informa, la startup de IA surgió de la unidad de investigación de IA del fondo de cobertura en abril de 2023 para centrarse en grandes modelos de lenguaje y alcanzar la inteligencia artificial general, o AGI, una rama de la IA que iguala o supera al intelecto humano en una amplia gama de tareas, que OpenAI y sus rivales dicen que lo están persiguiendo rápidamente. DeepSeek sigue siendo propiedad total de High-Flyer y financiado por ella, según analistas de Jefferies.

Los rumores en torno a DeepSeek comenzaron a cobrar fuerza a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el o1 de OpenAI. Es de código abierto, lo que significa que cualquier desarrollador de IA puede usarlo, y se ha disparado a la cima de las tiendas de aplicaciones y tablas de clasificación de la industria, y los usuarios elogian su rendimiento y capacidades de razonamiento.

Al igual que otros chatbots chinos, tiene sus limitaciones cuando se le pregunta sobre ciertos temas: cuando se le pregunta sobre algunas de las políticas del líder chino Xi Jinping, por ejemplo, DeepSeek supuestamente aleja al usuario de líneas de preguntas similares.

Otra parte clave de la discusión: el R1 de DeepSeek se construyó a pesar de que Estados Unidos limitó las exportaciones de chips a China tres veces en tres años. Las estimaciones difieren sobre cuánto cuesta exactamente el R1 de DeepSeek o cuántas GPU se incluyen en él. Los analistas de Jefferies estimaron que una versión reciente tenía un “coste de capacitación de sólo 5,6 millones de dólares (suponiendo un costo de alquiler de 2 dólares por hora y 800 horas). Eso es menos del 10% del costo de Meta‘s Llama.” Pero independientemente de las cifras específicas, los informes coinciden en que el modelo fue desarrollado a una fracción del costo de los modelos rivales por OpenAI, Anthropic, Google y otros.

Como resultado, el sector de la IA está inundado de preguntas, entre ellas si el creciente número de rondas de financiación astronómicas y valoraciones de miles de millones de dólares de la industria es necesaria, y si una burbuja está a punto de estallar.

Lea más informes de CNBC sobre IA

Acciones de NVIDIA cayó un 11%, con el fabricante de chips ASML bajó más del 6%. El Nasdaq cayó más del 2% y cuatro gigantes tecnológicos… Meta, microsoft, Manzana y ASML están listos para informar sus ganancias esta semana.

Los analistas de Raymond James detallaron algunas de las preguntas que afectan a la industria de la IA este mes y escribieron: “¿Cuáles son las implicaciones para la inversión? ¿Qué dice sobre los modelos de código abierto versus los propietarios? ¿Invertir dinero en GPU es realmente una panacea? ¿Existen restricciones a las exportaciones de Estados Unidos? ¿Cuáles son las implicaciones más amplias de [DeepSeek]? Bueno, podrían ser espantosos o no ser un evento, pero tengan la seguridad de que la industria está llena de incredulidad y especulación”.

Los analistas de Bernstein escribieron en una nota el lunes que “según las muchas (ocasionalmente histéricas) tomas calientes que vimos [over the weekend,] las implicaciones van desde ‘Eso es realmente interesante’ hasta ‘Esta es la sentencia de muerte del complejo de infraestructura de IA tal como lo conocemos'”.

Cómo están respondiendo las empresas estadounidenses

Algunos directores ejecutivos de tecnología estadounidenses están luchando por responder antes de que los clientes cambien a ofertas potencialmente más baratas de DeepSeek, y se informa que Meta está iniciando cuatro “salas de guerra” relacionadas con DeepSeek dentro de su departamento de IA generativa.

microsoft El director ejecutivo Satya Nadella escribió en X que el fenómeno DeepSeek era solo un ejemplo de la paradoja de Jevons: “A medida que la IA se vuelva más eficiente y accesible, veremos cómo su uso se dispara, convirtiéndola en un bien del que simplemente no podemos tener suficiente”. “. El director ejecutivo de OpenAI, Sam Altman, tuiteó una cita que atribuyó a Napoleón y escribió: “Una revolución no se puede hacer ni detener. Lo único que se puede hacer es que uno de sus hijos le dé una dirección a fuerza de victorias”.

Yann LeCun, científico jefe de IA de Meta, escribió en LinkedIn que el éxito de DeepSeek es indicativo del cambio de rumbo en el sector de la IA para favorecer la tecnología de código abierto.

LeCun escribió que DeepSeek se ha beneficiado de parte de la tecnología propia de Meta, es decir, sus modelos Llama, y ​​que la startup “ideó nuevas ideas y las construyó sobre el trabajo de otras personas. Debido a que su trabajo está publicado y es de código abierto, todos pueden sacar provecho de ello. Ese es el poder de la investigación abierta y del código abierto”.

Alexandr Wang, director ejecutivo de Scale AI, dijo a CNBC la semana pasada que el último modelo de IA de DeepSeek fue “revolucionario” y que su versión R1 es aún más poderosa.

“Lo que hemos descubierto es que DeepSeek… tiene el mejor rendimiento, o aproximadamente está a la par de los mejores modelos estadounidenses”, dijo Wang, añadiendo que la carrera de IA entre EE.UU. y China es una “guerra de IA”. La empresa de Wang proporciona datos de entrenamiento a actores clave de la IA, incluidos OpenAI, Google y Meta.

A principios de esta semana, el presidente Donald Trump anunció una empresa conjunta con OpenAI, Oracle y SoftBank para invertir miles de millones de dólares en infraestructura de IA en Estados Unidos. El proyecto, Stargate, fue presentado en la Casa Blanca por Trump, el director ejecutivo de SoftBank, Masayoshi Son, el cofundador de Oracle, Larry Ellison, y el director ejecutivo de OpenAI, Sam Altman. Los socios tecnológicos iniciales clave incluirán a Microsoft, Nvidia y Oracle, así como a la empresa de semiconductores Arm. Dijeron que invertirían 100.000 millones de dólares para empezar y hasta 500.000 millones de dólares en los próximos cuatro años.

IA evolucionando

La noticia de la destreza de DeepSeek también llega en medio del creciente revuelo en torno a los agentes de IA (modelos que van más allá de los chatbots para completar tareas complejas de varios pasos para un usuario) que tanto los gigantes tecnológicos como las nuevas empresas están persiguiendo. Meta, Google, Amazon, Microsoft, OpenAI y Anthropic han expresado su objetivo de crear IA agente.

Anthropic, la startup de IA respaldada por Amazon y fundada por ex ejecutivos de investigación de OpenAI, intensificó su desarrollo tecnológico durante el año pasado y, en octubre, la startup dijo que sus agentes de IA podían usar computadoras como humanos para completar tareas complejas. La capacidad de uso de computadoras de Anthropic permite que su tecnología interprete lo que hay en la pantalla de una computadora, seleccione botones, ingrese texto, navegue por sitios web y ejecute tareas a través de cualquier software y navegación por Internet en tiempo real, dijo la startup.

La herramienta puede “usar computadoras básicamente de la misma manera que nosotros”, dijo a CNBC Jared Kaplan, director científico de Anthropic, en una entrevista en ese momento. Dijo que puede realizar tareas con “decenas o incluso cientos de pasos”.

OpenAI lanzó una herramienta similar la semana pasada, introduciendo una función llamada Operador que automatizará tareas como planificar vacaciones, completar formularios, hacer reservas en restaurantes y pedir alimentos.

El microsoft-La startup respaldada lo describe como “un agente que puede ir a la web para realizar tareas por usted” y agregó que está capacitado para interactuar con “los botones, menús y campos de texto que la gente usa a diario” en la web. También puede hacer preguntas de seguimiento para personalizar aún más las tareas que realiza, como información de inicio de sesión para otros sitios web. Los usuarios pueden tomar el control de la pantalla en cualquier momento.

Continue Reading

Trending