Noticias
Chatgpt puede ayudar a escribir un ensayo. Los científicos quieren que comience a doblar la ropa
Published
3 días agoon

Chelsea Finn (izquierda) y Moo Jin Kim realizan una manifestación con un robot en la Universidad de Stanford.
Moo Jin Kim/Universidad de Stanford
STANFORD, California. – La inteligencia artificial puede encontrarle una receta o generar una imagen, pero no puede colgar una imagen en una pared o cocinar su cena.
Chelsea Finn quiere que eso cambie. Finn, ingeniero e investigador de la Universidad de Stanford, cree que la IA puede estar en la cúspide de impulsar una nueva era en robótica.
“A largo plazo queremos desarrollar un software que permita a los robots operar de manera inteligente en cualquier situación”, dice ella.
Una compañía que cofundó ya ha demostrado un robot AI de uso general que puede doblar la ropa, entre otras tareas. Otros investigadores han demostrado el potencial de IA para mejorar la capacidad de los robots para hacer todo, desde clasificación de paquetes hasta carreras de drones. Y Google acaba de dar a conocer un robot con IA que podría empacar un almuerzo.
Pero la comunidad de investigación se divide sobre si las herramientas generativas de IA pueden transformar la robótica de la forma en que han transformado algún trabajo en línea. Los robots requieren datos del mundo real y enfrentan problemas mucho más difíciles que los chatbots.
“Los robots no se convertirán de repente en este sueño de ciencia ficción de la noche a la mañana”, dice Ken Goldberg, profesor de UC Berkeley. “Es realmente importante que la gente entienda eso, porque todavía no estamos allí”.
Sueños y decepción
Hay pocas partes de la ciencia y la ingeniería que tienen una mayor brecha entre la expectativa y la realidad que la robótica. La misma palabra “robot” fue acuñado por Karel čapek, un escritor de Czeck que, en la década de 1920, escribió una obra que imaginaba seres humanos que podían llevar a cabo cualquier tarea que su dueño ordenara.
En realidad, los robots han tenido muchos problemas para hacer trabajos triviales. Las máquinas están en su mejor momento cuando realizan movimientos altamente repetitivos en un entorno cuidadosamente controlado, por ejemplo, en una línea de ensamblaje automotriz dentro de una fábrica, pero el mundo está lleno de obstáculos inesperados y objetos poco comunes.
En el Laboratorio de Finn en la Universidad de Stanford, el estudiante graduado Moo Jin Kim demuestra cómo los robots con AI al menos tienen el potencial de solucionar algunos de esos problemas. Kim ha estado desarrollando un programa llamado “OpenVla”, que significa visión, lenguaje, acción.
“Es un paso en la dirección de ChatGPT para la robótica, pero todavía hay mucho trabajo por hacer”, dice.

Moo Jin Kim establece un robot a IA en la Universidad de Stanford.
Moo Jin Kim/Universidad de Stanford
El robot en sí parece bastante poco notable, solo un par de brazos mecánicos con pinzas. Lo que lo hace diferente es lo que hay dentro. Los robots regulares deben estar cuidadosamente programados. Un ingeniero tiene que escribir instrucciones detalladas para cada tarea. Pero este robot funciona con una red neuronal de IA enseñable. La red neuronal opera cómo los científicos creen que el cerebro humano podría funcionar: los “nodos” matemáticos en la red tienen miles de millones de conexiones entre sí de una manera similar a la forma en que las neuronas en el cerebro están conectadas. “Programación” de este tipo de red se trata simplemente de reforzar las conexiones que importan y debilitar las que no lo hacen.
En la práctica, esto significa que Kim puede entrenar al modelo OpenVLA cómo hacer un montón de tareas diferentes, simplemente mostrándolo.
Se unen al robot un par de joysticks que controlan cada brazo. Para entrenarlo, un operador humano usa los joysticks para “titiriteros” al robot, ya que hace una tarea deseada.
“Básicamente, me gusta la tarea que quieras que hagas, sigues haciéndolo una y otra vez como 50 veces o 100 veces”, dice.
Esa repetición es todo lo que se requiere. Las conexiones entre nodos en la red neuronal de IA del robot se refuerzan cada vez que se muestra la acción. Pronto puede repetir la tarea sin el titiritero.
Para demostrar, Kim saca una bandeja de diferentes tipos de mezcla de senderos. Ya lo ha enseñado a recoger. Ahora quiero parte de la mezcla que tiene M&M y nueces verdes, y todo lo que tengo que hacer es preguntar.
“Saca algunos verdes con las nueces en el tazón”, escribo. Muy lentamente, los brazos del robot se ponen en acción.
En una feed de video, Openvla coloca una estrella sobre el contenedor correcto. Eso significa que la primera parte del modelo, que tiene que tomar mi texto e interpretar su significado visualmente, ha funcionado correctamente.
No siempre, dice Kim. “Esa es la parte en la que aguantamos la respiración”.
Luego, lentamente, vacilante, se extiende con su garra, toma la primicia y obtiene la mezcla de senderos.
“¡Parece que está funcionando!” dice Kim con entusiasmo.
Es una cucharada muy pequeña. Pero una cucharada en la dirección correcta.
Cualquier cosa bots
El investigador de Stanford, Chelsea Finn, cofundó una compañía en San Francisco llamada inteligencia física, que busca llevar este enfoque de entrenamiento al siguiente nivel.
Ella imagina un mundo en el que los robots pueden adaptarse rápidamente para hacer trabajos simples, como hacer un sándwich o reabastecer en los estantes de comestibles. Contrariamente al pensamiento actual sobre robótica, sospecha que la mejor manera de llegar allí podría ser capacitar a un solo modelo para hacer muchas tareas diferentes.
“De hecho, pensamos que tratar de desarrollar sistemas generalistas tendrá más éxito que tratar de desarrollar un sistema que haga una cosa muy, muy bien”, dice ella.
La inteligencia física ha desarrollado una red neuronal de IA que puede doblar la ropa, recoger granos de café y ensamblar una caja de cartón, aunque la red neuronal que le permite hacer todas esas cosas es demasiado poderosa para estar físicamente en el robot mismo.
“En ese caso, teníamos una estación de trabajo que estaba en el apartamento que calculaba las acciones y luego las envía a través de la red al robot”, dice ella.
Pero el siguiente paso, compilar datos de capacitación para su programa Robot AI, es una tarea mucho más difícil que simplemente recopilar texto de Internet para entrenar un chatbot.
“Esto es realmente difícil”, reconoce Finn. “No tenemos un Internet abierto de datos de robots, por lo que a menudo se trata de recopilar los datos nosotros mismos sobre los robots”.
Aún así, Finn cree que es factible. Además de los entrenadores humanos, los robots también pueden intentar repetidamente hacer tareas por su cuenta y rápidamente desarrollar su base de conocimiento, dice ella.
Dilema de datos
Pero Ken Goldberg de Berkley es más escéptico de que la brecha del mundo real se pueda unir rápidamente. Los chatbots de IA han mejorado enormemente en los últimos años porque han tenido una gran cantidad de datos para aprender. De hecho, han recogido casi todo el Internet para entrenar a sí mismos cómo escribir oraciones y dibujar imágenes.

Ken Goldberg, cofundador de Ambi Robotics y profesor en UC Berkeley.
Niall David Cytryn
Simplemente construir los datos del mundo real de un mundo de Internet para robots va a ir mucho más lentamente. “A este ritmo actual, tomaremos 100,000 años obtener tantos datos”, dice.
“Diría que estos modelos no van a funcionar de la manera en que están siendo entrenados hoy”, está de acuerdo Pulkit Agrawal, un investigador de robótica en el MIT.
Agrawal es un defensor de la simulación: poner la red neuronal de IA que ejecuta el robot en un mundo virtual y permite que repita tareas una y otra vez.
“El poder de la simulación es que podemos recopilar cantidades muy grandes de datos”, dice. “Por ejemplo, en tres horas de simulación podemos recopilar 100 días de datos”.
Ese enfoque funcionó bien para los investigadores en Suiza que recientemente entrenaron a un dron cómo competir colocando su cerebro con IA en un simulador y corriendo a través de un curso preestablecido una y otra vez. Cuando entró en el mundo real, pudo volar el curso más rápido y mejor que un oponente humano hábil, al menos parte del tiempo.
Pero la simulación tiene sus inconvenientes. El dron funcionó bastante bien para un curso interior. Pero no podía manejar nada que no estaba simulado (viento, lluvia o luz solar, podría arrojar el dron del curso.
Y volar y caminar son tareas relativamente simples para simular. Goldberg dice que realmente recoger objetos o realizar otras tareas manuales que los humanos encuentran que son completamente sencillos son mucho más difíciles de replicar en una computadora. “Básicamente, no hay un simulador que pueda modelar con precisión la manipulación”, dice.
Agarrando el problema
Algunos investigadores piensan que incluso si el problema de los datos puede superarse, los problemas más profundos pueden darle a los robots de IA.
“En mi opinión, la pregunta no es, ¿tenemos suficientes datos … es más lo que es el encuadre del problema”, dice Matthew Johnson-Roberson, investigador de la Universidad Carnegie Mellon en Pittsburgh.
Johnson-Roberson dice que a pesar de todas las increíbles habilidades que muestran los chatbots, la tarea que se les pide que hagan es relativamente simple: mira lo que un usuario humano tipos y luego intenta predecir las próximas palabras que el usuario quiere ver. Los robots tendrán que hacer mucho más que simplemente componer una oración.
“La siguiente mejor predicción de palabras funciona muy bien y es un problema muy simple porque solo está prediciendo la próxima palabra”, dice. Moverse a través del espacio y el tiempo para ejecutar una tarea es un conjunto mucho más grande de variables para que una red neuronal intente procesar.
“No está claro en este momento que puedo tomar 20 horas de imágenes de Go-Pro y producir algo sensato con respecto a cómo un robot se mueve en el mundo”, dice.
Johnson-Roberson dice que cree que se debe hacer una investigación más fundamental sobre cómo las redes neuronales pueden procesar mejor el espacio y el tiempo. Y advierte que el campo debe tener cuidado porque la robótica ha sido quemada antes, por la carrera para construir autos autónomos.
“Tanta capital se apresuró tan rápido”, dice. “Incentivó a las personas para hacer promesas en una línea de tiempo que no podrían cumplir”. Gran parte de la capital dejó el campo, y todavía hay problemas fundamentales para los autos sin conductor que permanecen sin resolver.
Aún así, incluso los escépticos creen que la robótica será cambiada para siempre por AI. Goldberg ha cofundado una compañía de clasificación de paquetes llamada Ambi Robotics que lanzó un nuevo sistema impulsado por la IA conocido como Prime-1 a principios de este año. Utiliza IA para identificar los mejores puntos para que un brazo robótico recoja un paquete. Una vez que tiene el punto de selección establecido por la IA, el brazo, que está controlado por una programación más convencional, hace el agarre.
El nuevo sistema ha reducido drásticamente la cantidad de veces que se eliminan los paquetes, dice. Pero él agrega con una sonrisa: “Si pones esto frente a una pila de ropa, no va a saber qué hacer con eso”.
De vuelta en Stanford, Chelsea Finn dice que está de acuerdo en que las expectativas deben mantenerse bajo control.
“Creo que todavía hay un largo camino para que la tecnología vaya”, dice ella. Tampoco espera que los robots universales reemplacen por completo el trabajo humano, especialmente por tareas complejas.
Pero en un mundo con poblaciones de envejecimiento y escasez de mano de obra proyectada, cree que los robots propulsados por IA podrían cerrar parte de la brecha.
“Estoy imaginando que esto realmente será algo que aumente a las personas y ayude a las personas”, dice ella.
You may like
Noticias
El nuevo modelo AI de Voice AI de Openai GPT-4O-Transcribe le permite agregar discurso a sus aplicaciones de texto existentes en segundos
Published
10 horas agoon
20 marzo, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Los modelos de AI de voz de OpenAi se han metido en problemas antes con el actor Scarlett Johansson, pero eso no impide que la compañía continúe avanzando en sus ofertas en esta categoría.
Hoy, el fabricante de chatgpt ha presentado tres, todos los nuevos modelos de voz propietarios llamados GPT-4O-transcribe, GPT-4O-Mini-transcribe y GPT-4O-MINI-TTSdisponible inicialmente en su interfaz de programación de aplicaciones (API) para que los desarrolladores de software de terceros creen sus propias aplicaciones en la cima, así como en un sitio de demostración personalizado, OpenAI.FM, que los usuarios individuales pueden acceder para pruebas y diversión limitadas.
Además, las voces del modelo GPT-4O-Mini-TTS se pueden personalizar desde varios pre-establecimiento a través de un mensaje de texto para cambiar sus acentos, tono, tono y otras cualidades vocales, incluida la transmisión de las emociones a las que el usuario les pide, lo que debería recorrer un largo camino para abordar cualquier inquietud que esté imitando deliberadamente la voz en particular (la compañía previamente se le dio el caso con el caso con Johansson, pero a la opción de abordar deliberadamente es que la Otración de la Otración es deliberadamente es deliberadamente que es una voz en particular del usuario (la compañía anteriormente negó que sea el caso con Johansson, pero a la Opción de la Otrada, que es más que imitando la voz en particular. de todos modos). Ahora depende del usuario decidir cómo quiere que suene su voz de IA al hablar.
En una demostración con VentureBeat entregado por videollamada, el miembro del personal técnico de Operai, Jeff Harris, mostró cómo usar el texto solo en el sitio de demostración, un usuario podría obtener la misma voz para sonar como un científico loco de carcajadas o un maestro de yoga zen y tranquilo.
Descubrir y refinar nuevas capacidades dentro de la base GPT-4O
Los modelos son variantes del modelo GPT-4O existente OpenAI lanzado en mayo de 2024 y que actualmente impulsa la experiencia de texto y voz de ChatGPT para muchos usuarios, pero la compañía tomó ese modelo base y lo capacitó con datos adicionales para que se produzca en la transcripción y el habla. La compañía no especificó cuándo los modelos podrían venir a ChatGPT.
“CHATGPT tiene requisitos ligeramente diferentes en términos de compensaciones de costo y rendimiento, por lo que aunque espero que se muden a estos modelos a tiempo, por ahora, este lanzamiento se centra en los usuarios de API”, dijo Harris.
Está destinado a reemplazar al modelo de texto a voz de código abierto de dos años de OpenAI, que ofrece tasas de error de palabras más bajas en los puntos de referencia de la industria y un mejor rendimiento en entornos ruidosos, con diversos acentos y a diferentes velocidades de voz, en más de 100 idiomas.
La compañía publicó una tabla en su sitio web que muestra cuánto más bajas son las tasas de error de los modelos GPT-4O-Transcribe para identificar palabras en 33 idiomas, en comparación con Whisper, con un 2.46% impresionantemente bajo en inglés.
“Estos modelos incluyen cancelación de ruido y un detector de actividad de voz semántica, que ayuda a determinar cuándo un altavoz ha terminado un pensamiento, mejorando la precisión de la transcripción”, dijo Harris.
Harris le dijo a VentureBeat que la nueva familia del modelo GPT-4O-Transcribe no está diseñada para ofrecer “diarización” o la capacidad de etiquetar y diferenciar entre diferentes altavoces. En su lugar, está diseñado principalmente para recibir una (o posiblemente múltiples voces) como un solo canal de entrada y responder a todas las entradas con una sola voz de salida en esa interacción, por mucho tiempo que tarda.
La compañía está organizando aún más una competencia para el público en general para encontrar los ejemplos más creativos de usar su sitio de voz de demostración OpenAI.FM y compartirlos en línea etiquetando la cuenta de @openai en X. El ganador recibirá una radio de ingeniería adolescente personalizada con logotipo de OpenAi, que Openai Head of Product, la plataforma Olivier Godement dijo que es uno de los tres en el mundo.
Una mina de oro de aplicaciones de audio
Las mejoras los hacen particularmente adecuados para aplicaciones como los centros de llamadas de los clientes, la transcripción de notas de reunión y los asistentes con IA.
Impresionantemente, los agentes recién lanzados de la compañía SDK de la semana pasada también permiten a aquellos desarrolladores que ya han creado aplicaciones sobre sus modelos de idiomas grandes basados en texto como el GPT-4O regular para agregar interacciones con voz fluida con solo “nueve líneas de código”, según un presentador durante un livestro de YouTube OpenAi que anuncia los nuevos modelos (embarcados anteriormente).
Por ejemplo, una aplicación de comercio electrónico creada en la cima de GPT-4O ahora podría responder a las preguntas de los usuarios por turnos como “Cuéntame sobre mis últimos pedidos” en el habla con solo segundos de ajuste el código agregando estos nuevos modelos.
“Por primera vez, presentamos la transmisión de voz a texto, lo que permite a los desarrolladores ingresar continuamente audio y recibir un flujo de texto en tiempo real, haciendo que las conversaciones se sientan más naturales”, dijo Harris.
Aún así, para aquellos desarrolladores que buscan experiencias de voz de IA de baja latencia en tiempo real, OpenAi recomienda usar sus modelos de voz a voz en la API de tiempo real.
Precios y disponibilidad
Los nuevos modelos están disponibles inmediatamente a través de la API de OpenAI, con el precio de la siguiente manera:
• GPT-4O-Transcribe: $ 6.00 por 1 m tokens de entrada de audio (~ $ 0.006 por minuto)
• GPT-4O-Mini-Transcribe: $ 3.00 por 1 m tokens de entrada de audio (~ $ 0.003 por minuto)
• GPT-4O-MINI-TTS: $ 0.60 por 1 m tokens de entrada de texto, $ 12.00 por 1 m tokens de salida de audio (~ $ 0.015 por minuto)
Sin embargo, llegan a una época de competencia más feroz en la transcripción de IA y el espacio del habla, con empresas de IA dedicadas del habla como once que ofrece su nuevo modelo de escriba que admite diarización y cuenta con una tasa de error reducida de 3,3% en inglés, y un precio de $ 0.40 por hora de entrada (o $ 0.006 por minuto, aproximadamente, equivalente).
Otra startup, Hume AI ofrece un nuevo modelo de octava TTS con la personalización de la pronunciación e inflexión de la pronunciación e emocional a nivel de oración, basada completamente en las instrucciones del usuario, no en cualquier voz preestablecida. El precio de Octave TTS no es directamente comparable, pero hay un nivel libre que ofrece 10 minutos de audio y los costos aumentan desde allí entre
Mientras tanto, los modelos de audio y discurso más avanzados también están llegando a la comunidad de código abierto, incluida una llamada Orpheus 3B que está disponible con una licencia permisiva de Apache 2.0, lo que significa que los desarrolladores no tienen que pagar costos para ejecutarlo, siempre que tengan el hardware o los servidores en la nube correctos.
Adopción de la industria y resultados tempranos
Varias compañías ya han integrado los nuevos modelos de audio de Openai en sus plataformas, informando mejoras significativas en el rendimiento de la IA de voz, según testimonios compartidos por OpenAI con VentureBeat.
Eliseai, una compañía centrada en la automatización de la administración de propiedades, encontró que el modelo de texto a voz de Openi permitió interacciones más naturales y emocionalmente ricas con los inquilinos.
Las voces mejoradas hicieron que el arrendamiento, el mantenimiento y la programación de la gira funcionen con una mayor atracción, lo que llevó a una mayor satisfacción del inquilino y mejoras tasas de resolución de llamadas.
Decagon, que construye experiencias de voz con IA, vio una mejora del 30% en la precisión de la transcripción utilizando el modelo de reconocimiento de voz de OpenAI.
Este aumento en la precisión ha permitido que los agentes de IA de Decagon se desempeñen de manera más confiable en escenarios del mundo real, incluso en entornos ruidosos. El proceso de integración fue rápido, con un decagón incorporando el nuevo modelo en su sistema en un día.
No todas las reacciones al último lanzamiento de OpenAi han sido cálidas. El cofundador del software de Dawn AI App Analytics Ben Hylak (@benhylak), un ex diseñador de interfaces humanas de Apple, publicado en X que, si bien los modelos parecen prometedores, el anuncio “se siente como un retiro de la voz en tiempo real”, lo que sugiere un cambio del enfoque anterior de Openai en la IA conversacional de baja latencia a través de Chatgpt.
Además, el lanzamiento fue precedido por una filtración temprana en X (anteriormente Twitter). TestingCatalog News (@TestingCatalog) publicó detalles sobre los nuevos modelos varios minutos antes del anuncio oficial, enumerando los nombres de GPT-4O-Mini-TTS, GPT-4O-TRANSCRIE y GPT-4O-Mini-Trancribe. La fuga fue acreditada a @stiventhedev, y la publicación rápidamente ganó tracción.
Pero mirando hacia el futuro, Operai planea continuar refinando sus modelos de audio y está explorando las capacidades de voz personalizadas al tiempo que garantiza la seguridad y el uso responsable de la IA. Más allá del audio, OpenAi también está invirtiendo en IA multimodal, incluido el video, para habilitar experiencias más dinámicas e interactivas basadas en agentes.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

Noticias
¿Openai está condenado? Los modelos de código abierto pueden aplastarlo, advierte un experto
Published
11 horas agoon
20 marzo, 2025
OpenAi, que está perdiendo miles de millones de dólares, puede tener dificultades en el nuevo panorama de los programas de inteligencia artificial generativos principales, según un destacado erudito de IA.
“El problema no es realmente cuyo [AI] El modelo es 1% mejor; Creo que todos son muy buenos “, dijo el erudito de IA y el empresario Kai-Fu Lee en una entrevista en Bloomberg Television el jueves por la mañana.” El problema es: es OpenAi’s [business] modelo incluso sostenible? ”
Más difícil de competir
Lee dijo que los modelos de “base” o “pioneros” de AI, como el GPT de OpenAi, se convierten en productos, se vuelve más difícil para OpenAi competir con la economía más barata presentada por Deepseek AI.
También: ¿Qué es Deepseek Ai? ¿Es seguro? Aquí está todo lo que necesitas saber
“Estás gastando $ 7 mil millones o $ 8 mil millones al año, haciendo una pérdida masiva, y aquí tienes un competidor que viene con un modelo de código abierto que es gratis”, dijo Lee, comparando las finanzas de Openi con las de Deepseek AI.
“Si piensa en el costo de OpenAI de $ 7 mil millones de costos operativos, en 2024, Deepseek probablemente operó con el 2% de los gastos operativos”.
También: El nuevo modelo de IA de código abierto de Deepseek puede superar a O1 por una fracción del costo
“Y esa compañía también es infinitamente duradera”, dijo Lee sobre Deepseek, “porque este fundador tiene suficiente dinero para financiarlo a nivel actual, y ha reducido el costo de la informática por un factor de cinco a diez; con ese tipo de competidor, creo que Sam Altman probablemente no duerme muy bien”.
El costo aún no ha sido justificado
Deepseek AI, que causó un accidente en el mercado de valores en enero de este año, es la creación de una unidad de un fondo de cobertura chino dirigido por Liang Wenfeng. La compañía ha afirmado que su modelo de IA insignia, R1, puede hacer lo que Operai hace por una décima parte del costo.
Lee, quien se desempeñó como director fundador de Microsoft Research Asia antes de trabajar en Google y Apple, fundó su compañía actual, Sinovation Ventures, para financiar nuevas empresas como 01.ai.
También: ¿Chatgpt Plus o Pro vale la pena? Así es como se comparan con la versión gratuita
La empresa de inicio de Lee hace un motor de búsqueda de IA generativo llamado Beago. Lee dijo que la compañía ahora está construyendo una especie de “sistema operativo” para funcionar sobre los modelos de IA como el R1 de Deepseek, específicamente para servir a China.
Ese esfuerzo está alineado con el gran impulso de China para hacer que el software de código abierto de Deepseek AI, y otros modelos como el Qwen de Alibaba, generalizado en toda la economía de China.
“La nueva gran dirección del gobierno chino se llama nueva productividad de calidad”, dijo Lee, que implica, “utilizando alta tecnología para crear productividad, eficiencia y realmente convertir todas las industrias tradicionales en otras más rentables y competitivas”.
También: Google Gemini acaba de hacer dos de sus mejores funciones disponibles de forma gratuita
Los comentarios de Lee sobre Operai son una continuación de una advertencia económica que ha estado haciendo durante algún tiempo.
Lee ha señalado previamente que la economía de la industria de la IA es insostenible para muchas empresas. Las empresas están invirtiendo masivamente en centros de datos y chips de NVIDIA, para construir modelos cada vez mayores. Pero el costo aún no ha sido justificado por la recompensa, dijo.
El código abierto será el ganador
El jueves, Lee se expandió sobre esos pensamientos, diciéndole al programa que “el modelo fundamental subyacente está mercantilizado: cuesta un montón de dinero y es difícil monetizar”.
“Claramente, el pre-entrenamiento de un modelo gigante se ha consolidado”, agregó Lee. “Se está quedando claro que la fuente abierta será el ganador” porque es más barato hacer y operar, dijo, como lo ejemplifican los modelos R1 de código abierto de Deepseek AI versus los modelos de código cerrado como los de OpenAi y Anthrope.
También: Operai quiere intercambiar el acceso al gobierno a los modelos de IA por menos regulaciones
Lee indicó que Openai y Anthrope están negando sobre esa realidad económica. Ambos “construyen sus negocios pensando que pueden construir un modelo cerrado que sea mejor que cualquier otra persona, y la economía de Deepseek AI los sorprendió”, dijo.
La verdadera indicación de la economía de la IA, dijo Lee, es que la mayoría de los capitalistas de riesgo no financiarán nuevas empresas de modelos de la Fundación AI. En cambio, los inversores de inicio están lanzando dinero a las aplicaciones de seguimiento que viajan encima de la fundación, o “pioneros”, modelos, como los suyos O1.ai. Esa capital de inicio para aplicaciones de IA “se está volviendo gangbusters”, dijo Lee.
También: AIA AI, Anthrope nos invita a los científicos de EE. UU. A experimentar con modelos fronterizos
Cuando se le pidió que predeciera el futuro de los modelos de la Fundación, Lee no pidió la inminente desaparición de OpenAi. “Creo que China tendrá tres ganadores, y Estados Unidos podría tener cuatro ganadores, al final”, dijo Lee. Pero, “docenas querrán competir”.
Los lanzamientos de frecuentes continuarán
La industria de la IA en general es “todavía ultra competitiva”, dijo Lee. “Espero que continúen los lanzamientos frecuentes” de los nuevos modelos de idiomas grandes, de “las compañías de rápido movimiento”, agregó.
Entre esas compañías de rápido movimiento, dijo Lee, los modelos Grok de Elon Musk’s Grok, y Deepseek AI, son los innovadores de más rápido movimiento. “Creo que Deepseek actualmente tiene el impulso”, dijo.
También: Por qué el último modelo de Claude de Anthrope podría ser la nueva IA para vencer, y cómo probarlo
Operai, Alibaba, Google y Anthrope “están haciendo movimientos respetables”, agregó.
Un posible ganador que no sea completamente apreciado es el propietario de Tiktok Bytedance, dijo Lee.
“Enumeré el bytedance porque sabemos cuánto están gastando, y una forma en que puede justificar gastar una tonelada de dinero en modelos pioneros es porque tiene tantos clientes […] El bytedance tiene más formas de monetizar que nadie “.
También: ¿Qué es la dispersión? Deepseek AI’s Secret, revelado por los investigadores de Apple
El gigante chino de comercio electrónico Baidu también podría ser un contendiente, dijo Lee. Históricamente, la compañía ha tenido “ese tipo de visión”, que significa la misma sensibilidad visionaria que Openai, pero “la ejecución actualmente está rezagada” en términos de producir nuevas tecnologías de modelos de base, dijo.
Un ganador y un segundo lugar
Incluso un mercado vibrante como los modelos de IA eventualmente puede ver que las grandes empresas desaparecen, dijo Lee.
También: ¿Podría ser esta la razón por la que cancela su suscripción de chatgpt?
“En la mayoría de los mercados, terminas con solo dos [competitors]”Notó Lee de los mercados de tecnología”, el ganador, que gana dinero y el subcampeón, que rompe el punto de vista, y todos los demás, que mueren “.
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.
Noticias
¿Openai está condenado? Los modelos de código abierto pueden aplastarlo, advierte un experto
Published
11 horas agoon
20 marzo, 2025
OpenAi, que está perdiendo miles de millones de dólares, puede tener dificultades en el nuevo panorama de los programas de inteligencia artificial generativos principales, según un destacado erudito de IA.
“El problema no es realmente cuyo [AI] El modelo es 1% mejor; Creo que todos son muy buenos “, dijo el erudito de IA y el empresario Kai-Fu Lee en una entrevista en Bloomberg Television el jueves por la mañana.” El problema es: es OpenAi’s [business] modelo incluso sostenible? ”
Más difícil de competir
Lee dijo que los modelos de “base” o “pioneros” de AI, como el GPT de OpenAi, se convierten en productos, se vuelve más difícil para OpenAi competir con la economía más barata presentada por Deepseek AI.
También: ¿Qué es Deepseek Ai? ¿Es seguro? Aquí está todo lo que necesitas saber
“Estás gastando $ 7 mil millones o $ 8 mil millones al año, haciendo una pérdida masiva, y aquí tienes un competidor que viene con un modelo de código abierto que es gratis”, dijo Lee, comparando las finanzas de Openi con las de Deepseek AI.
“Si piensa en el costo de OpenAI de $ 7 mil millones de costos operativos, en 2024, Deepseek probablemente operó con el 2% de los gastos operativos”.
También: El nuevo modelo de IA de código abierto de Deepseek puede superar a O1 por una fracción del costo
“Y esa compañía también es infinitamente duradera”, dijo Lee sobre Deepseek, “porque este fundador tiene suficiente dinero para financiarlo a nivel actual, y ha reducido el costo de la informática por un factor de cinco a diez; con ese tipo de competidor, creo que Sam Altman probablemente no duerme muy bien”.
El costo aún no ha sido justificado
Deepseek AI, que causó un accidente en el mercado de valores en enero de este año, es la creación de una unidad de un fondo de cobertura chino dirigido por Liang Wenfeng. La compañía ha afirmado que su modelo de IA insignia, R1, puede hacer lo que Operai hace por una décima parte del costo.
Lee, quien se desempeñó como director fundador de Microsoft Research Asia antes de trabajar en Google y Apple, fundó su compañía actual, Sinovation Ventures, para financiar nuevas empresas como 01.ai.
También: ¿Chatgpt Plus o Pro vale la pena? Así es como se comparan con la versión gratuita
La empresa de inicio de Lee hace un motor de búsqueda de IA generativo llamado Beago. Lee dijo que la compañía ahora está construyendo una especie de “sistema operativo” para funcionar sobre los modelos de IA como el R1 de Deepseek, específicamente para servir a China.
Ese esfuerzo está alineado con el gran impulso de China para hacer que el software de código abierto de Deepseek AI, y otros modelos como el Qwen de Alibaba, generalizado en toda la economía de China.
“La nueva gran dirección del gobierno chino se llama nueva productividad de calidad”, dijo Lee, que implica, “utilizando alta tecnología para crear productividad, eficiencia y realmente convertir todas las industrias tradicionales en otras más rentables y competitivas”.
También: Google Gemini acaba de hacer dos de sus mejores funciones disponibles de forma gratuita
Los comentarios de Lee sobre Operai son una continuación de una advertencia económica que ha estado haciendo durante algún tiempo.
Lee ha señalado previamente que la economía de la industria de la IA es insostenible para muchas empresas. Las empresas están invirtiendo masivamente en centros de datos y chips de NVIDIA, para construir modelos cada vez mayores. Pero el costo aún no ha sido justificado por la recompensa, dijo.
El código abierto será el ganador
El jueves, Lee se expandió sobre esos pensamientos, diciéndole al programa que “el modelo fundamental subyacente está mercantilizado: cuesta un montón de dinero y es difícil monetizar”.
“Claramente, el pre-entrenamiento de un modelo gigante se ha consolidado”, agregó Lee. “Se está quedando claro que la fuente abierta será el ganador” porque es más barato hacer y operar, dijo, como lo ejemplifican los modelos R1 de código abierto de Deepseek AI versus los modelos de código cerrado como los de OpenAi y Anthrope.
También: Operai quiere intercambiar el acceso al gobierno a los modelos de IA por menos regulaciones
Lee indicó que Openai y Anthrope están negando sobre esa realidad económica. Ambos “construyen sus negocios pensando que pueden construir un modelo cerrado que sea mejor que cualquier otra persona, y la economía de Deepseek AI los sorprendió”, dijo.
La verdadera indicación de la economía de la IA, dijo Lee, es que la mayoría de los capitalistas de riesgo no financiarán nuevas empresas de modelos de la Fundación AI. En cambio, los inversores de inicio están lanzando dinero a las aplicaciones de seguimiento que viajan encima de la fundación, o “pioneros”, modelos, como los suyos O1.ai. Esa capital de inicio para aplicaciones de IA “se está volviendo gangbusters”, dijo Lee.
También: AIA AI, Anthrope nos invita a los científicos de EE. UU. A experimentar con modelos fronterizos
Cuando se le pidió que predeciera el futuro de los modelos de la Fundación, Lee no pidió la inminente desaparición de OpenAi. “Creo que China tendrá tres ganadores, y Estados Unidos podría tener cuatro ganadores, al final”, dijo Lee. Pero, “docenas querrán competir”.
Los lanzamientos de frecuentes continuarán
La industria de la IA en general es “todavía ultra competitiva”, dijo Lee. “Espero que continúen los lanzamientos frecuentes” de los nuevos modelos de idiomas grandes, de “las compañías de rápido movimiento”, agregó.
Entre esas compañías de rápido movimiento, dijo Lee, los modelos Grok de Elon Musk’s Grok, y Deepseek AI, son los innovadores de más rápido movimiento. “Creo que Deepseek actualmente tiene el impulso”, dijo.
También: Por qué el último modelo de Claude de Anthrope podría ser la nueva IA para vencer, y cómo probarlo
Operai, Alibaba, Google y Anthrope “están haciendo movimientos respetables”, agregó.
Un posible ganador que no sea completamente apreciado es el propietario de Tiktok Bytedance, dijo Lee.
“Enumeré el bytedance porque sabemos cuánto están gastando, y una forma en que puede justificar gastar una tonelada de dinero en modelos pioneros es porque tiene tantos clientes […] El bytedance tiene más formas de monetizar que nadie “.
También: ¿Qué es la dispersión? Deepseek AI’s Secret, revelado por los investigadores de Apple
El gigante chino de comercio electrónico Baidu también podría ser un contendiente, dijo Lee. Históricamente, la compañía ha tenido “ese tipo de visión”, que significa la misma sensibilidad visionaria que Openai, pero “la ejecución actualmente está rezagada” en términos de producir nuevas tecnologías de modelos de base, dijo.
Un ganador y un segundo lugar
Incluso un mercado vibrante como los modelos de IA eventualmente puede ver que las grandes empresas desaparecen, dijo Lee.
También: ¿Podría ser esta la razón por la que cancela su suscripción de chatgpt?
“En la mayoría de los mercados, terminas con solo dos [competitors]”Notó Lee de los mercados de tecnología”, el ganador, que gana dinero y el subcampeón, que rompe el punto de vista, y todos los demás, que mueren “.
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.
Related posts

































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo