Noticias
Gambito estratégico de OpenAI: los agentes SDK y por qué cambia todo para Enterprise AI
Published
1 mes agoon

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Openai remodeló el paisaje de AI Enterprise el martes con el lanzamiento de su plataforma integral de construcción de agentes, un paquete que combina una API de respuestas renovadas, herramientas potentes incorporadas y un SDK de agentes de código abierto.
Si bien este anuncio podría haber sido eclipsado por otros titulares de la IA, la presentación de Google del impresionante modelo de código abierto Gemma 3, y la aparición de Manus, una startup china cuya plataforma de agente autónomo asombraba a los observadores, es claramente un movimiento significativo para las empresas a conocer. Consolida un ecosistema API complejo previamente fragmentado en un marco unificado listo para la producción.
Para los equipos de IA empresariales, las implicaciones son potencialmente profundas: los proyectos que previamente exigían múltiples marcos, bases de datos de vectores especializadas y lógica de orquestación compleja ahora se pueden lograr a través de una sola plataforma estandarizada. Pero quizás lo más revelador sea el reconocimiento implícito de OpenAI de que resolver problemas de confiabilidad del agente de IA requiere experiencia externa. Este cambio se produce en medio de la creciente evidencia de que los desarrolladores externos están encontrando soluciones innovadoras para la confiabilidad del agente, algo que la impactante lanzamiento de Manus también demostró claramente.
Esta concesión estratégica representa un punto de inflexión crítico: OpenAi reconoce que incluso con sus vastos recursos, el camino hacia los agentes verdaderamente confiables requiere abrirse a desarrolladores externos que pueden descubrir soluciones innovadoras y soluciones que los equipos internos de OpenAI podrían perderse.
Un enfoque unificado para el desarrollo de agentes
En esencia, el anuncio representa la estrategia integral de Openai para proporcionar una pila completa lista para la producción para construir agentes de IA. El lanzamiento trae varias capacidades clave a un marco unificado:
- El Respuestas API se basa en la API de finalización de chat, pero agrega una integración perfecta para el uso de la herramienta, con un diseño de interfaz mejorado para crear agentes;
- Herramientas incorporadas incluir búsqueda web, búsqueda de archivos y uso de computadora (la tecnología detrás de la función de operador de OpenAI);
- Una fuente abierta Agentes SDK para orquestar flujos de trabajo de un solo agente y múltiples agentes con transferencias.
Lo que hace que este anuncio sea transformador es cómo aborda la fragmentación que ha afectado el desarrollo de la IA empresarial. Las empresas que deciden estandarizar en el formato API de OpenAI y SDK Open ya no necesitarán reunir diferentes marcos, gestionar ingeniería rápida compleja o luchar con agentes poco confiables.
“La palabra ‘confiable’ es tan clave”, dijo Sam Witteveen, cofundador de Red Dragon, desarrollador independiente de agentes de IA, en una conversación reciente conmigo en un podcast Deep Dive en el lanzamiento. “Hemos hablado de eso muchas veces … la mayoría de los agentes simplemente no son confiables. Y así que Openai está mirando como, ‘Bien, ¿cómo traemos este tipo de confiabilidad?’ “
Después del anuncio, Jeff Weinstein, el líder del producto de la compañía de pagos, Stripe llevó a X para decir que Stripe ya había demostrado la aplicación práctica del nuevo SDK de OpenAi al lanzar un conjunto de herramientas que permite a los desarrolladores integrar los servicios financieros de Stripe en flujos de trabajo de agente. Esta integración permite la creación de agentes de IA capaces de automatizar los pagos a los contratistas al verificar los archivos para ver quién necesitaba el pago o no, y la facturación y otras transacciones.
Implicaciones estratégicas para Openai y el mercado
Este lanzamiento revela un cambio significativo en la estrategia de OpenAI. Habiendo establecido un liderazgo con modelos de base, la compañía ahora está consolidando su posición en el ecosistema de agentes a través de varios movimientos calculados:
1. Abrir a la innovación externa
Openai reconoce que incluso sus recursos extensos no son suficientes para superar la innovación de la comunidad. El lanzamiento de herramientas y un SDK de código abierto sugiere una importante concesión estratégica.
El momento de la liberación coincidió con la aparición de Manus, que impresionó a la comunidad de IA con una plataforma de agente autónoma muy capaz, lo que demuestra las capacidades utilizando modelos existentes de Claude y Qwen, lo que esencialmente muestra que la integración inteligente y la ingeniería rápida podrían lograr una confiabilidad con la que incluso los principales laboratorios de IA estaban luchando.
“Tal vez incluso Openai no es el mejor en hacer operador”, señaló Witteveen, refiriéndose a la herramienta de navegación web que OpenAi envió a fines de enero, pero que encontramos tenía errores y era inferior al proxy de la competencia. “Tal vez la startup china tiene algunos trucos agradables en su aviso, o en lo que sea, que puedan usar este tipo de herramientas de código abierto”.
La lección es clara: OpenAI necesita la innovación de la comunidad para mejorar la confiabilidad. Cualquier equipo, no importa cuán buenos sean, ya sea Openai, Anthrope, Google, simplemente no pueden probar tantas cosas como la comunidad de código abierto puede.
2. Asegurar el mercado empresarial a través de la estandarización de API
El formato API de OpenAI se ha convertido en el estándar de facto para interfaces de modelos de idiomas grandes (LLM), respaldados por múltiples proveedores, incluidos Gemini de Google y Llama de Meta. El cambio de Openai en su API es significativo porque muchos jugadores de terceros se alinearán y también apoyarán estos otros cambios.
Al controlar el estándar API mientras lo hace más extensible, OpenAI parece configurado para crear un poderoso efecto de red. Los clientes empresariales pueden adoptar el SDK de los agentes sabiendo que funciona con múltiples modelos, pero OpenAI mantiene su posición en el centro del ecosistema.
3. Consolidando la tubería de trapo
La herramienta de búsqueda de archivos desafía a las compañías de bases de datos como Pinecone, Chroma, Weaviate y otros. Operai ahora ofrece una herramienta completa de generación de recuperación (RAG) fuera de la caja. La pregunta ahora es qué sucede con esta larga lista de proveedores de trapo u otros proveedores de orquestación de agentes que aparecieron con grandes fondos para ir tras la oportunidad de IA Enterprise, si puede obtener mucho de esto a través de un solo estándar como OpenAI.
En otras palabras, las empresas pueden considerar consolidar múltiples relaciones de proveedores en un solo proveedor de API, OpenAI. Las empresas pueden cargar cualquier documento de datos que deseen utilizar con los modelos de base líderes de Openai, y buscarlo todo dentro de la API. Si bien las empresas pueden encontrar limitaciones en comparación con bases de datos RAG dedicadas como Pinecone, el archivo incorporado y las herramientas de búsqueda web de OpenAI ofrecen citas y URL claras, lo que es fundamental para las empresas que priorizan la transparencia y la precisión.
Esta capacidad de cita es clave para entornos empresariales donde la transparencia y la verificación son esenciales, lo que permite a los usuarios rastrear exactamente de dónde proviene la información y validar su precisión contra los documentos originales.
El cálculo de la toma de decisiones empresariales
Para los tomadores de decisiones empresariales, este anuncio ofrece oportunidades para optimizar el desarrollo de agentes de IA, pero también requiere una evaluación cuidadosa del posible bloqueo e integración del proveedor con los sistemas existentes.
1. El imperativo de fiabilidad
La adopción empresarial de agentes de IA se ha ralentizado por preocupaciones de confiabilidad. La herramienta de uso de la computadora de OpenAI, por ejemplo, logra un 87% en el punto de referencia de WebVoyager para tareas basadas en navegador, pero solo 38.1% en OSWorld para tareas del sistema operativo.
Incluso Openai reconoce esta limitación en su anuncio, diciendo que se recomienda la supervisión humana. Sin embargo, al proporcionar las herramientas y las características de observabilidad para rastrear y depurar el rendimiento del agente, las empresas ahora pueden implementar los agentes con barandillas apropiadas.
2. La pregunta de bloqueo
Mientras adopta el ecosistema de agentes de OpenAI ofrece ventajas inmediatas, plantea preocupaciones sobre el bloqueo de los proveedores. Como Ashpreet Bedi, fundador de Agnoagi, señaló después del anuncio: “La API de las respuestas está diseñada intencionalmente para evitar que los desarrolladores cambien a los proveedores cambiando el Base_URL”.
Sin embargo, Openai ha hecho una concesión significativa al permitir que sus agentes SDK trabajen con modelos de otros proveedores. El SDK admite modelos externos, siempre que ofrezcan un punto final API de estilo de finalización de chat. Este enfoque de múltiples modelos proporciona a las empresas cierta flexibilidad mientras se mantiene OpenAi en el centro.
3. La ventaja competitiva de la pila completa
La naturaleza integral del lanzamiento, desde herramientas hasta API a SDK, crea una ventaja convincente para OpenAI en comparación con competidores como Anthrope o Google, que han adoptado enfoques más separados para el desarrollo de agentes.
Aquí es donde Google, en particular, ha dejado caer la pelota. Ha intentado múltiples formas diferentes de hacer esto dentro de sus ofertas de nubes actuales, pero no ha llegado al punto de dónde alguien puede cargar PDF y usar Google Gemini para RAG.
Impacto en el ecosistema del agente
Este anuncio reforma significativamente el paisaje para las empresas que se construyen en el espacio de los agentes. Jugadores como Langchain y Crewai, que han creado marcos para el desarrollo de agentes, ahora enfrentan una competencia directa de los agentes de OpenAI SDK. A diferencia de Operai, estas compañías no tienen un gran negocio de Foundation LLM para apoyar sus marcos. Esta dinámica podría acelerar la consolidación en el espacio del marco del agente, con desarrolladores con grandes incentivos que gravitan hacia la solución lista para la producción de OpenAI.
Mientras tanto, OpenAi monetiza el uso del desarrollador, la carga (.3) por llamada para GPT-4O y (.2.5) para GPT-4O-Mini para búsquedas web, con precios que aumentan a .5 por llamada para búsquedas de alto contenido, lo que lo hace a un precio competitivo.
Al proporcionar una orquestación incorporada a través del SDK de los agentes, OpenAI realiza una competencia directa con plataformas centradas en la coordinación de agentes. El soporte del SDK para flujos de trabajo de múltiples agentes con transferencias, barandillas y rastreo crea una solución completa para las necesidades empresariales.
¿Está la preparación de la producción a la vuelta de la esquina?
Es demasiado pronto para saber qué tan bien funcionan las nuevas soluciones. Las personas solo ahora comienzan a usar agentes SDK para la producción. A pesar de la naturaleza integral del lanzamiento, las preguntas quedan porque los intentos anteriores de OpenAI en marcos de agentes, como el enjambre experimental y la API de asistentes, no satisfacían completamente las necesidades empresariales.
Para la oferta de código abierto, no está claro si OpenAI aceptará solicitudes de extracción y código enviado de personas externas.
Sin embargo, la deprecación de la API de asistentes (planeada a mediados de 2026) señala la confianza de OpenAi en el nuevo enfoque. A diferencia de la API de asistentes, que no fue extremadamente popular, las nuevas respuestas API y los agentes SDK aparecen más cuidadosamente diseñados según la retroalimentación del desarrollador.
Un verdadero pivote estratégico
Si bien OpenAi ha estado durante mucho tiempo a la vanguardia del desarrollo del modelo de fundación, este anuncio representa un pivote estratégico; La compañía podría convertirse potencialmente en la plataforma central para el desarrollo y la implementación de agentes.
Al proporcionar una pila completa de herramientas a orquestación, OpenAI se está posicionando para capturar el valor empresarial creado sobre sus modelos. Al mismo tiempo, el enfoque de código abierto con los agentes SDK reconoce que incluso OpenAi no puede innovar lo suficientemente rápido de forma aislada.
Para los tomadores de decisiones empresariales, el mensaje es claro: OpenAi está en total en los agentes como la próxima frontera del desarrollo de IA. Ya sea que construya agentes personalizados en la casa o trabajen con socios, las empresas ahora tienen un camino más cohesivo y listo para la producción, aunque uno que coloca OpenAi en el centro de su estrategia de IA.
Las guerras de IA han entrado en una nueva fase. Lo que comenzó como una carrera para construir los modelos fundamentales más poderosos se ha convertido en una batalla por quién controlará el ecosistema del agente, y con este lanzamiento integral, OpenAi acaba de hacer su movimiento más decisivo para tener todos los caminos a los agentes de IA empresariales que atraviesan su plataforma.
Mira este video para una conversación de buceo más profunda entre el desarrollador y el desarrollador Sam Witteveen sobre lo que significa el lanzamiento de Operai para la empresa:
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.
You may like
Noticias
Los millennials obtuvieron Ubers baratos. La general Z obtiene Supergrok gratis.
Published
2 horas agoon
21 abril, 2025
La temporada final se ve diferente este año. En los campus universitarios, los estudiantes se están abriendo camino a través de los exámenes con todos los noches y mucha cafeína, tal como siempre lo han hecho. Pero también están recibiendo más ayuda de AI que nunca. A finales de mayo, Operai ofrece a los estudiantes dos meses de acceso gratuito a ChatGPT Plus, que normalmente cuesta $ 20 al mes. Es un trato convincente para los estudiantes que desean ayuda a abarrotar, o hacer trampa, su camino a través de las finales: en lugar de activar la versión gratuita de ChatGPT para externalizar la redacción de ensayos o trabajar a través de un examen de química de práctica, los estudiantes ahora pueden acceder a los modelos más avanzados de la compañía, así como a su herramienta de “investigación profunda”, que puede sintetizar rápidamente cientos de fuentes digitales en informes analíticos.
El acuerdo de OpenAI es solo una de las muchas promociones de IA en campus. En los últimos meses, Anthrope, XAI, Google y la perplejidad también han ofrecido a los estudiantes versiones gratuitas o con descuento significativamente de sus chatbots pagados. Algunas de las campañas no son exactamente sutiles: “Buena suerte con las finales”, un empleado de Xai escribió recientemente junto con detalles sobre el acuerdo de la compañía. Incluso antes de la ola actual de promociones, los estudiantes universitarios se habían establecido como usuarios de la IA. “Más que cualquier otro caso de uso, más que cualquier otro tipo de usuario, los adultos jóvenes en edad universitaria en los EE. UU. Están adoptando el chatgpt”, señaló el vicepresidente de educación de OpenAI en un informe de febrero. Gen Z está utilizando la tecnología para ayudar con más que el trabajo escolar; Algunas personas están integrando la IA en sus vidas de maneras más fundamentales: crear planes de entrenamiento personalizados, generar listas de comestibles y pedirles a Chatbots consejos románticos.
Los regalos de las compañías de inteligencia artificial están ayudando aún más a estos jóvenes usuarios, que es poco probable que desembolsen cientos de dólares al año para probar los productos de IA más avanzados. Tal vez todo esto suena familiar. Es una reminiscencia de la década de 2010, cuando una generación de nuevas empresas luchó para ganar usuarios al ofrecer acceso barato a sus servicios. Estas compañías se dirigieron especialmente a los millennials urbanos jóvenes, acomodados. Por precios sospechosamente bajos, puede comenzar su día con Pilates reservado a través de ClassPass, solicitar el almuerzo con Doordash y Lyft para conocer a su amigo para la hora feliz en la ciudad. (Según un análisis) en Uber, por ejemplo, los precios casi se duplicaron de 2018 a 2021. Estas compañías, junto con innumerables otras, crearon lo que se conoció como el “subsidio de estilo de vida milenario”. Ahora algo similar se está desarrollando con IA. Llámalo el subsidio de estilo de vida Gen Z. En lugar de la entrega barata de pizza y la entrega de pizza, los estudiantes universitarios de hoy obtienen un supergrok gratuito.
Las compañías de IA están haciendo todo lo posible para perseguir a los estudiantes. Anthrope, por ejemplo, recientemente comenzó un programa de “Embajadores del Campus” para ayudar a aumentar el interés; Una promoción temprana ofreció a los estudiantes en las escuelas selectas un año de acceso a una versión premium de Claude, asistente de IA de Anthrope, por solo $ 1 al mes. Una embajadora, Josefina Albert, una estudiante de último año en la Universidad de Washington, me dijo que compartió el acuerdo con sus compañeros de clase, e incluso se comunicó con los profesores para ver si podrían estar dispuestos a promover la oferta en sus clases. “La mayoría dudaba bastante”, me dijo, “lo cual es comprensible”.
Los descuentos actuales tienen un costo. Hay aproximadamente 20 millones de estudiantes postsecundarios en los EE. UU. Dicen que solo el 1 por ciento de ellos aprovechan el chatgpt plus gratuito para los próximos dos meses. La nueva empresa efectivamente daría un folleto a los estudiantes que valen unos $ 8 millones. En Silicon Valley, $ 8 millones es un error de redondeo. Pero es probable que muchos estudiantes estén aprovechando múltiples ofertas de este tipo a la vez. Y, más concretamente, las compañías de IA están pagando la factura para más que solo estudiantes universitarios. Todas las principales compañías de IA ofrecen versiones gratuitas de sus productos a pesar del hecho de que la tecnología en sí no es gratuita. Cada vez que escribe un mensaje en un chatbot, alguien en algún lugar está pagando por el costo de procesar y generar una respuesta. Estos costos se suman: Operai tiene más de mil millones de usuarios semanales, y solo una fracción de ellos son suscriptores pagados. La semana pasada, Sam Altman, el CEO de la nueva empresa, sugirió que su compañía gasta decenas de millones de dólares procesando mensajes “por favor” y “agradecimiento” de los usuarios. Aumente el costo de capacitar a estos modelos, que podrían ser de hasta $ 1 mil millones para las versiones más avanzadas, y el precio se vuelve aún más sustancial. (El atlántico Recientemente entró en una asociación corporativa con OpenAI).
Estos costos importan porque, a pesar de las enormes valoraciones de las nuevas empresas de IA (OpenAi se valoró en $ 300 mil millones), no son rentables. En enero, Altman dijo que Operai en realidad estaba perdiendo dinero en su suscripción “Pro” de $ 200 al mes. Este año, se proyecta que la compañía quemará casi $ 7 mil millones; En unos pocos años, ese número podría crecer hasta $ 20 mil millones. Normalmente, perder tanto dinero no es un buen modelo de negocio. Pero Openai y sus competidores pueden concentrarse en adquirir nuevos usuarios porque han recaudado sumas sin precedentes de los inversores. Como explicó mi colega Matteo Wong el verano pasado, Silicon Valley ha realizado un salto de fe de billones de dólares, en camino de gastar más en AI que en lo que la NASA gastó en las misiones espaciales del Apolo, con la esperanza de que finalmente las inversiones valgan la pena.
El subsidio del estilo de vida del milenio también fue alimentado por cantidades extremas de efectivo. Las empresas de transporte como Uber y Lyft recogieron clientes, incluso cuando famosos sangraron el dinero durante años. En un momento de 2015, Uber estaba ofreciendo viajes en el viaje compartido en cualquier lugar de San Francisco por solo $ 5, mientras que simultáneamente quemaba $ 1 millón por semana. A veces, la economía era sorprendentemente endeble. En 2019, el propietario de una Pizzeria con sede en Kansas notó que su restaurante había sido agregado a Doordash sin que él lo hiciera. Aún más extraño, una pizza que vendió por $ 24 tenía un precio de $ 16 en Doordash, pero la compañía le estaba pagando el precio completo. En su búsqueda de crecimiento, la nueva empresa de entrega de alimentos había raspado el menú de su restaurante, lo abofeteó en su aplicación y estaba ofreciendo su pastel con un gran descuento. (Naturalmente, el propietario de Pizzeria comenzó a pedir sus propias pizzas a través de Doordash, con ganancias).
Estas ofertas no duraron para siempre, y tampoco pueden liberar la IA. El subsidio del estilo de vida del milenio finalmente se derrumbó cuando el dinero barato se secó. Los inversores que durante tanto tiempo habían permitido que estas nuevas empresas ofrecieran servicios a precios desinflados artificialmente deseaban rendimientos. Por lo tanto, las empresas se vieron obligadas a aumentar los precios, y no todas sobrevivieron.
Si quieren tener éxito, las compañías de IA también tendrán que ofrecer ganancias a sus inversores. Con el tiempo, la tecnología subyacente se volverá más barata: a pesar de las crecientes facturas de las empresas, las mejoras técnicas ya aumentan la eficiencia y reducen ciertos gastos. Las nuevas empresas también podrían aumentar los ingresos a través de las ofertas de empresas ultra premium. Según los informes, Operai está considerando vender “agentes de investigación a nivel de doctorado” a $ 20,000 al mes. Pero es poco probable que compañías como OpenAI permitan a cientos de millones de usuarios libres de costar indefinidamente. Quizás es por eso que la puesta en marcha está trabajando actualmente tanto en la búsqueda como en las redes sociales; Silicon Valley ha pasado las últimas dos décadas esencialmente perfeccionando los modelos de negocio para ambos.
Los obsequios de hoy colocaron OpenAi y a compañías como esta solo más en el rojo por ahora, pero tal vez no a largo plazo. Después de todo, los Millennials se acostumbraron a Uber y Lyft, y se han quedado con aplicaciones de transporte, incluso cuando los precios han aumentado desde el inicio de la pandemia. A medida que los estudiantes aprenden a escribir ensayos y computadoras de programas con la ayuda de IA, se están volviendo dependientes de la tecnología. Si las empresas de IA pueden enganchar a los jóvenes en sus herramientas ahora, pueden confiar en que estos usuarios pagaran en el futuro.
Algunos jóvenes ya están enganchados. En el reciente informe de OpenAI sobre la adopción de ChatGPT de los estudiantes universitarios, la categoría más popular de no educación o uso relacionado con la carrera fue el “asesoramiento de relaciones”. En conversaciones con varios usuarios más jóvenes, escuché sobre las personas que usan IA para cosméticos de combinación de colores, generan listas de comestibles personalizadas basadas en el presupuesto y las preferencias dietéticas, la creación de meditaciones de audio personalizadas y las rutinas de capacitación de media maratón, y buscando consejos sobre el cuidado de sus plantas. Cuando hablé con Jaidyn-Marie Gambrell, una joven de 22 años con sede en Atlanta, estaba en el estacionamiento de McDonald’s y acababa de consultar a ChatGPT por su pedido. “Fui a Chatgpt y yo digo, ‘Hola chica'”, dijo. “‘¿Crees que sería inteligente para mí conseguir un McChicken?'” El chatbot, que ha programado para recordar sus objetivos dietéticos y de acondicionamiento físico, aconsejó contra él. Pero si realmente quería un sándwich, sugirió Chatgpt, debería ordenar el McChicken sin mayonesa, lechuga adicional, tomates y sin papas fritas. Entonces eso es lo que ella obtuvo.
El subsidio de estilo de vida Gen Z no es del todo como su predecesor milenario. Uber fue atractivo porque usar una aplicación para convocar instantáneamente en un automóvil es mucho más fácil que perseguir un taxi. Las aplicaciones de transporte fueron destructivas para el negocio de los taxis, pero para la mayoría de los usuarios, fueron convenientes. Los chatbots de hoy también venden conveniencia al acelerar la redacción de ensayos y la planificación de comidas, pero el impacto de la tecnología podría ser aún más desestabilizador. Los estudiantes universitarios que actualmente se registran para el ChatGPT gratuito más antes de la temporada de finales podrían estar tomando exámenes destinados a prepararlos para los trabajos que las mismas compañías de IA sugieren que pronto se evaporará. Incluso los usuarios jóvenes más activos con los que hablé tenían sentimientos encontrados sobre la tecnología. Algunas personas “están patinando en la universidad debido a ChatGPT”, me dijo Gambrell. “Ese nivel de conveniencia, creo que puede ser abusado”. Cuando las empresas ofrecen folletos, las personas tienden a tomarlos. Eventualmente, sin embargo, alguien tiene que pagar.

La historia temprana de los modelos de grandes idiomas (LLM) estuvo dominado por OpenAi y, en menor medida, meta. Los primeros modelos GPT de OpenAI establecieron la frontera del rendimiento de LLM, mientras que Meta talló un nicho saludable con modelos de peso abierto que ofrecieron un rendimiento fuerte. Los modelos de peso abierto tienen un código de acceso público que cualquiera puede usar, modificar e implementar libremente.
Eso dejó a algunos gigantes tecnológicos, incluido Google, detrás de la curva. El trabajo de investigación innovador sobre la arquitectura del transformador que sustenta los modelos de idiomas grandes provino de Google en 2017, sin embargo, la compañía a menudo se recuerda más por su lanzamiento fallido de Bard en 2023 que por su innovadora investigación de IA.
Pero Strong New LLMS de Google, y fallas de Meta y OpenAi, están cambiando el ambiente.
LLAMA 4 El rebaño se pone en el casco equivocado
El lanzamiento de News of Llama 4 inesperadamente salió de Meta el sábado 5 de abril.
Si la decisión de lanzar un modelo importante en un fin de semana te parece extraño, no estás solo. El tiempo tomó a todos desprevenidos y enterró parcialmente el anuncio en el ciclo de noticias de la semana siguiente.
El nuevo LLM de peso abierto de Meta tiene sus puntos fuertes. Llama 4 es multimodal, lo que significa que puede manejar imágenes, audio y otras modalidades. Viene en tres sabores, Llama 4 Behemoth, Maverick y Scout, que tienen diferentes tamaños y fortalezas. Llama 4 Scout también cuenta con una gran ventana de contexto de hasta 10 millones de tokens. Los tokens son las pequeñas unidades de texto que LLMS procesan y se gnalizan, y la ventana de contexto es el número de tokens que un modelo puede procesar a la vez. Una ventana de contexto más grande ayuda al modelo a “recordar” y trabajar con mayores cantidades de texto en una sola sesión. La mayoría de los modelos tienen una ventana de contexto de un millón de tokens o menos.
Pero la recepción empeoró cuando los críticos notaron el enfoque astuto de Meta para clasificarse en Lmarena, un sitio que clasifica a LLMS basado en los votos de los usuarios. El modelo específico de LLAMA 4 que Meta usó para las clasificaciones no era el mismo modelo disponible como parte de su lanzamiento general. En una declaraciónLmarena dijo que Meta proporcionó “un modelo personalizado para optimizar la preferencia humana”.
Meta también atrapó a Flak por su jactancia sobre la ventana de contexto de 10 millones de Scout de Llama 4 Scout. Si bien esta figura parece ser técnicamente precisa, un punto de referencia del rendimiento de contexto largo encontró que Llama 4 se quedó atrás de los modelos competitivos.
Meta tampoco lanzó un modelo de “razonamiento” o “pensamiento” de Llama 4 y se retrasó variantes más pequeñas, aunque Meta dice que un modelo de razonamiento estará disponible.
“Se desviaron de la norma de una liberación más sistemática, donde tienen todos sus patos seguidos”, dice Ben Lorica, fundador de la compañía de consultoría de IA, Gradient Flow. “Esto parece que querían asegurar a las personas que tienen un nuevo modelo, incluso si no tienen todos los componentes, como un modelo de razonamiento y versiones más pequeñas”.
GPT-4.5 se ve obligado a retirarse
Operai también ha experimentado su parte de dificultades en los últimos meses.
GPT-4.5, publicado como una vista previa de investigación el 27 de febrero, fue promocionada como el “mejor y mejor modelo para chat de la compañía hasta ahora”. Y OpenAi descubrió que, de hecho, en general superó al modelo anterior GPT-4O en puntos de referencia.
Sin embargo, los costos del modelo generaron críticas. El acceso a la API con precio de OpenAI al modelo a tokens de salida de US $ 150 por millón. Ese fue un asombroso aumento de 15 veces sobre GPT-4O, que tiene un precio de solo $ 10 por millón de tokens. La API es el método proporcionado por OpenAI a los desarrolladores que buscan usar modelos Operai en sus aplicaciones y servicios.
“GPT-4.5 fue probablemente la LLM tradicional más grande lanzada durante el primer trimestre de 2025. Estimé que era un modelo de mezcla de expertos con 5.4 billones de parámetros”, dice Alan D. Thompson, consultor de IA y analista de Life Architect. “Ese tipo de escala en bruto es difícil de justificar con nuestras limitaciones de hardware actuales, y aún más difícil de servir a una gran base de usuarios ahora”.
El 14 de abril, Openai anunció que terminaría el acceso GPT-4.5 a través de la API después de menos de tres meses. GPT 4.5 seguirá disponible, pero solo para los usuarios de ChatGPT a través de la interfaz CHATGPT.
Operai hizo el anuncio junto con la revelación de GPT-4.1, un modelo más económico con un precio de $ 8 por millón de tokens. Los puntos de referencia de OpenAI muestran que GPT-4.1 no es tan capaz como GPT 4.5 en general, aunque funciona mejor en algunos puntos de referencia de codificación.
Openai también lanzó nuevos modelos de razonamiento la semana pasada: O3 y O4-Mini. El modelo O3 puntúa particularmente bien en los puntos de referencia. Sin embargo, el costo es una vez más una preocupación, ya que el acceso a O3 a través de la API tiene un precio de $ 40 por un millón de tokens de producción.
A medida que los competidores luchan, Google asciende
La recepción media de Llama 4 y ChatGPT-4.5 dejaron una apertura para los competidores, y han impulsado su ventaja.
Es poco probable que el lanzamiento rocoso de Meta de Llama 4 aleje a los desarrolladores de Deepseek-V3, Gemma de Google y Qwen2.5 de Alibaba. Estos LLM, que llegaron a fines de 2024, son ahora los modelos preferidos de peso abierto en las tablas de clasificación de Lmarena y Huggingface. Son competitivos o superiores a Llama 4 en puntos de referencia populares, económicos de acceder a través de una API y, en algunos casos, disponible para descargar y usar en hardware de computadora de grado consumidor.
Pero es el nuevo LLM de vanguardia de Google, Gemini 2.5 Pro, lo que realmente llamó la atención.
Lanzado el 25 de marzo, Google Gemini 2.5 Pro es un “modelo de pensamiento”, similar a GPT-O1 y Deepseek-R1, que utiliza la autoinscripción para razonar a través de tareas. Gemini 2.5 Pro es multimodal, tiene una ventana de contexto de un millón de tokens y apoya una investigación profunda.
Gemini 2.5 rápidamente acumuló victorias de referencia, incluido el primer lugar en Simplebench (aunque perdió eso para Openi’s O3 el 16 de abril), y en el índice combinado de inteligencia de inteligencia artificial de análisis artificial. Gemini 2.5 Pro actualmente se encuentra en la cima de Lmarena, también. A partir del 14 de abril, Google Models ha obtenido 5 de las 10 mejores ranuras en Lmarena (esto incluye Gemini 2.5 Pro, tres variantes de Gemini 2.0 y Gemma 3-27B).
El fuerte rendimiento sería suficiente para atraer la atención, pero Google también es un líder de precios. Google Gemini 2.5 es actualmente gratuito a través de la aplicación Gemini de Google y a través del sitio web de AI Studio de Google. El precio de la API de Google también es competitivo; Gemini 2.5 Pro tiene un precio de $ 10 por un millón de tokens de salida y Gemini 2.0 Flash tiene un precio de solo 40 centavos por un millón de tokens.
“Honestamente, cuando se trata de un gran volumen, probablemente termine usando Deepseek-R1 o Google Gemini para razonamiento. Usaré OpenAi, pero siento que debo ser más consciente en términos del precio”, dice Lorica.
Por supuesto, esto no quiere decir que Meta y OpenAi estén hundidos. Operai en particular tiene espacio para maniobrar gracias a la popularidad de ChatGPT, que, según los informes, ahora tiene mil millones de usuarios. Aún así, las fuertes clasificaciones de Gemini y el rendimiento de referencia muestran que los vientos de cambio están soplando en el mundo de LLMS, y actualmente favorecen a Google.
De los artículos de su sitio
Artículos relacionados en la web

Google está cobrando por delante en la carrera de IA, poniendo todo el peso de su influencia detrás de su chatbot Gemini. Gemini no solo se integra rápidamente en productos de Google como Gmail, Docs, Drive y YouTube, sino que pronto se convertirá en el principal asistente de voz de la compañía en teléfonos y dispositivos inteligentes a medida que el amado Asistente de Google se envía a pastos. Pero el desarrollo de IA cuesta una cantidad realmente asombrosa de dinero, por lo que para recuperar algunos de los costos de desarrollo, Google está ocultando algunas de las mejores características de Géminis detrás de un muro de pago.
Anuncio
Gemini Advanced es la versión de la IA insignia de Google a la que solo se puede acceder al pagar suscriptores. Se pretende ofrecer una experiencia sobrealimentada, con modelos de IA adicionales, características y más, y está dirigido a los usuarios avanzados más dedicados. Para algunos, puede parecer tentador, especialmente si está muy conectado al ecosistema de Google. Por ejemplo, si posee un dispositivo Android, especialmente uno más nuevo, puede tener a Gemini como su asistente de voz incorporado, lo que significa que una suscripción avanzada de Gemini podría ser una forma de desbloquear aún más el potencial de su teléfono.
He sido uno de los expertos en inteligencia artificial de consumidores residente de Slashgear por un tiempo, poniendo a prueba esta tecnología emergente en una amplia gama de escenarios. Después de usar Gemini Advanced durante el último mes en todos mis dispositivos, he reunido mis pensamientos, lo bueno, malo y feo, para ayudarlo a decidir si realmente vale la pena pagar. Esto es lo que necesita saber antes de gastar su efectivo ganado con tanto esfuerzo en la suscripción de IA de Google.
Anuncio
¿Qué viene con una suscripción avanzada de Géminis?
Gemini Advanced es parte de la suscripción AI Premium de Google, que se puede comprar a través de Google One. Además de los modelos de IA adicionales, viene con el almacenamiento de Google Drive, el editor de magia ilimitado que utiliza en Google Photos, características adicionales en Google Calendar y Google se encuentran, y un 10% de descuento en compras en Google Store (la hardware de la compañía, que no debe confundirse con su tienda de aplicaciones, Google Play Store). Sin embargo, todos los beneficios que no son de Gemini vienen con los planes que no son AI mucho más baratos. Convertir su plan no AI en un plan de prima de IA cuesta una cantidad significativa más. Por ejemplo, pasar de un premium 2 TB a AI Premium 2 TB lo lleva de $ 10 a $ 20. Ciertos dispositivos nuevos como la serie Samsung Galaxy S25 y Google Pixel 9 también vienen con pruebas extendidas gratuitas de Gemini Advanced.
Anuncio
Por ese dinero extra, tiene acceso a Gemini Extensions en Gmail, Docs y otros productos de Google, y Notebooklm Plus. Mientras escribía esto, Google lanzó las funciones de cámara y intercambio de pantalla de Gemini Live, que se limitan a los usuarios de Pixel 9 y Galaxy S25, junto con suscriptores avanzados de Gemini. Por supuesto, también obtienes capacidades LLM adicionales. Obtendrá “acceso ampliado” a Deep Investigation y Gemini 2.5 Pro, que incluye modelos experimentales y características inéditas. Desde cierto punto de vista, está pagando a Google para probar beta sus modelos. Lo que es más emocionante es la capacidad de cargar 1,500 páginas de archivos, lo que le permite ejecutar indicaciones de Gemini en libros completos u otros documentos grandes, así como la opción de cargar un repositorio de código, los desarrolladores de beneficios pueden encontrar útiles. En el momento de este escrito, los usuarios gratuitos y avanzados tienen acceso a la misma lista de modelos Gemini. Eso significa que las diferencias están principalmente debajo del capó.
Anuncio
Gemini Advanced proporciona escasos beneficios en Gemini en sí mismo
Actualmente no hay modelos AI exclusivos de Gemini Advanced. Los usuarios gratuitos y remunerados tienen acceso a Gemini 2.0 Flash, 2.0 pensamiento flash, investigación profunda, personalización (experimental) y 2.5 Pro. Sin embargo, los suscriptores avanzados aún obtienen una ventana de contexto ampliada de 1 millón de tokens para salidas más largas y cargas de archivos más grandes, y 2.5 Pro Deep Investigación.
Anuncio
Para probar la diferencia, cargué el modelo más nuevo de Gemini, 2.5 Pro, tanto en una cuenta gratuita como pagada. (Nota al margen: este modelo salió el 25 de marzo, e inmediatamente se hizo público a usuarios pagados y no remunerados, lo que derrota el propósito de pagar más por el acceso temprano a los nuevos modelos). Como línea de base, solicité: “Explique la diferencia entre Gemini y Gemini avanzado”. Obtuve respuestas ligeramente diferentes, y ambos afirmaron falsamente que Advanced ofrece el modelo 1.5 Pro ahora desactualizado, con la versión gratuita haciendo una tabla para informarme mal, mientras que la versión pagada usó puntos de bala para mentirme. Por el lado positivo, la carga de archivos ampliado funciona. Pude subir el texto completo de “Ulises” de James Joyce en Gemini Advanced y hacer preguntas basadas en ello. Cuando probé lo mismo con la versión gratuita, un mensaje me informó que mis cargas pueden ser demasiado grandes para los mejores resultados.
Anuncio
Mientras escribía esto, Google también lanzó la función de intercambio de pantalla y cámara de Gemini Live, lo que le permite hablar en tiempo real sobre lo que está en la pantalla o la alimentación de la cámara. Dejando a un lado las preocupaciones de privacidad, es genial y funcionó como se anuncia cuando jugué con él. Sin embargo, antes de que este artículo pudiera salir en vivo, ya se había mudado de un Gemini avanzado exclusivo a Free para todos los usuarios.
Gemini avanzado en el espacio de trabajo de Google a veces es casi útil
Gemini en sí mismo podría ser el mismo si pagas o no, al menos al momento de escribir este artículo, pero una característica que el dinero extra lo obtendrá es la integración de Gemini en las aplicaciones de Google Workspace. En Gmail, Drive, Docs, Sheets, Slides, etc., Google ha otorgado a los suscriptores avanzados de Gemini herramientas integradas de IA que prometen sobrealimentar su flujo de trabajo. Entonces, ¿qué tan útil es?
Anuncio
Siendo escritor, comencé primero en Docs. Aquí hay tres herramientas: ayúdame a escribir, refinar y un chatbot Gemini en todo el documento. Para probar refinar, lo que reescribe cosas, detuve un viejo papel universitario que no era mi mejor trabajo. Si bien los ajustes de Géminis hicieron que la prosa fuera menos púrpura, también hicieron que las ideas del ensayo fueran menos coherentes y la estructuraron con citas del material fuente al comienzo de cada párrafo. Estas revisiones me habrían ganado un puntaje peor con una rúbrica de calificación convencional. La herramienta Help Me escribió y el panel Géminis funcionó como Géminis principal, no sorprendente pero no terrible.
En las diapositivas, Géminis generará imágenes o creará diapositivas a partir de telas enteras. A continuación se presentó lo que se le ocurrió cuando le dije: “Cree una diapositiva para lanzar Géminis avanzó a los lectores de Skingear”. No tengo idea de por qué el robot se ve así, o por qué ocupa gran parte de la página. La copia bala también es extraña, que parece hablar con el presentador en lugar de la audiencia. Gemini hizo mucho mejor en un segundo intento, también a continuación. En general, las herramientas avanzadas de Gemini en el espacio de trabajo de Google pueden ser buenas para herramientas con ideas, pero probablemente no producirá nada pulido. Además, podría obtener muchos de los mismos resultados abriendo Géminis regulares en otra pestaña.
Anuncio
Géminis avanzado en Gmail está bien, pero no es genial
Gemini Advanced también incluye algunas golosinas adicionales de Gmail. Dado que Gmail es uno de los servicios de correo electrónico más utilizados en el planeta, Gemini Advanced puede beneficiar a una gran cantidad de usuarios, así que exploremos lo que se ofrece.
Anuncio
La integración de Gmail en Gemini redacta los correos electrónicos. Lo hace tan bien como redacta documentos en Docs, es decir, lo suficientemente bien para los correos electrónicos que no importan mucho. Le dije: “El lagarto mascota de mi mejor amigo fue comido por un mapache. Por favor envíe mis condolencias”. Me ofreció una carta de huesos muy desnudos sin nada de la calidez sincera de la emoción que tal situación podría requerir. “Estimado [Recipient Name]Lamento mucho escuchar que un mapache se comió tu lagarto mascota. Sé cuánto significó tu mascota para ti, y solo puedo imaginar lo devastador que debe ser esto. Acepte mis más sinceros condolencias durante este momento difícil. Sinceramente, Max. “A continuación, utilicé una de las sugerencias de Géminis”, una introducción a alguien que conocí en el [AWP] Conferencia. “Inserción mía para darle más a la LLM. Desafortunadamente, el resultado fue mediocre. Lee usted mismo a continuación, pero no creo que valga $ 10 al mes.
Anuncio
En la aplicación Gmail para Android, también hay un botón Géminis cuando cambio a la cuenta que está suscrita a Advanced. Le dije: “Resumir mis correos electrónicos no leídos más importantes”, y regresó con resúmenes para tres misivas de marketing spam. Lo siento, Google, pero no estoy seguro de que encerrar en mis reservas de verano para el infame restaurante Casa Bonita de Denver es realmente una prioridad mía.
Conclusión: Gemini Advanced ofrece poco por su dinero
Por último, Gemini Advanced ofrece algunas funcionalidades enormes en la herramienta de investigación y el generador de podcasts basado en la IA de Google, Notebooklm. En realidad, esto podría ser extremadamente convincente si está haciendo un uso intensivo de Notebooklm, ya que Google promete cinco veces más descripciones de audio, cuadernos y fuentes, junto con la capacidad de personalizar sus cuadernos ajustando las respuestas de IA para adaptarse a la tarea en cuestión. Sin embargo, aunque creo que es una gran aplicación, nunca me he encontrado con las limitaciones de LATO NOTOBOBOYOBLM.
Anuncio
En última instancia, no puedo recomendar Gemini avanzado hasta que Google cree una razón convincente para gastar su efectivo ganado con tanto esfuerzo. Si desea que una IA escriba sus correos electrónicos o documentos, simplemente abra Gemini, Copilot o Chatgpt en otra pestaña. ¿Quieres resumir tus correos electrónicos? Géminis gratuito tiene una extensión de Gmail. Las suscripciones más baratas de Google One sin Gemini Advanced vienen con beneficios tangibles como el almacenamiento en la nube. ¿Dónde deja eso esta suscripción?
Incluso si eres un entusiasta de la IA, el núcleo de esta suscripción, el acceso exclusivo a los nuevos modelos de IA en Géminis, directamente, no existe a partir de este escrito. El modelo más nuevo y avanzado de Gemini, 2.5 Pro, no fue primero a suscriptores avanzados. Todos pueden usarlo, a pesar de que solo se lanzará a fines de marzo, probablemente porque Google necesita los datos de capacitación más de lo que necesita los ingresos por suscripción. Imagine pagar por una membresía de Costco solo para descubrir que la tienda ha comenzado a dejar que todos ingresen gratis. Si no lo soportara, no debe soportar esto, y es desconcertante que Google espere que lo haga.
Anuncio
Related posts























































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA11 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios