Noticias

Google lidera con LLMS, Meta y Operai Struggle

Published

on

La historia temprana de los modelos de grandes idiomas (LLM) estuvo dominado por OpenAi y, en menor medida, meta. Los primeros modelos GPT de OpenAI establecieron la frontera del rendimiento de LLM, mientras que Meta talló un nicho saludable con modelos de peso abierto que ofrecieron un rendimiento fuerte. Los modelos de peso abierto tienen un código de acceso público que cualquiera puede usar, modificar e implementar libremente.

Eso dejó a algunos gigantes tecnológicos, incluido Google, detrás de la curva. El trabajo de investigación innovador sobre la arquitectura del transformador que sustenta los modelos de idiomas grandes provino de Google en 2017, sin embargo, la compañía a menudo se recuerda más por su lanzamiento fallido de Bard en 2023 que por su innovadora investigación de IA.

Pero Strong New LLMS de Google, y fallas de Meta y OpenAi, están cambiando el ambiente.

LLAMA 4 El rebaño se pone en el casco equivocado

El lanzamiento de News of Llama 4 inesperadamente salió de Meta el sábado 5 de abril.

Si la decisión de lanzar un modelo importante en un fin de semana te parece extraño, no estás solo. El tiempo tomó a todos desprevenidos y enterró parcialmente el anuncio en el ciclo de noticias de la semana siguiente.

El nuevo LLM de peso abierto de Meta tiene sus puntos fuertes. Llama 4 es multimodal, lo que significa que puede manejar imágenes, audio y otras modalidades. Viene en tres sabores, Llama 4 Behemoth, Maverick y Scout, que tienen diferentes tamaños y fortalezas. Llama 4 Scout también cuenta con una gran ventana de contexto de hasta 10 millones de tokens. Los tokens son las pequeñas unidades de texto que LLMS procesan y se gnalizan, y la ventana de contexto es el número de tokens que un modelo puede procesar a la vez. Una ventana de contexto más grande ayuda al modelo a “recordar” y trabajar con mayores cantidades de texto en una sola sesión. La mayoría de los modelos tienen una ventana de contexto de un millón de tokens o menos.

Pero la recepción empeoró cuando los críticos notaron el enfoque astuto de Meta para clasificarse en Lmarena, un sitio que clasifica a LLMS basado en los votos de los usuarios. El modelo específico de LLAMA 4 que Meta usó para las clasificaciones no era el mismo modelo disponible como parte de su lanzamiento general. En una declaraciónLmarena dijo que Meta proporcionó “un modelo personalizado para optimizar la preferencia humana”.

Meta también atrapó a Flak por su jactancia sobre la ventana de contexto de 10 millones de Scout de Llama 4 Scout. Si bien esta figura parece ser técnicamente precisa, un punto de referencia del rendimiento de contexto largo encontró que Llama 4 se quedó atrás de los modelos competitivos.

Meta tampoco lanzó un modelo de “razonamiento” o “pensamiento” de Llama 4 y se retrasó variantes más pequeñas, aunque Meta dice que un modelo de razonamiento estará disponible.

“Se desviaron de la norma de una liberación más sistemática, donde tienen todos sus patos seguidos”, dice Ben Lorica, fundador de la compañía de consultoría de IA, Gradient Flow. “Esto parece que querían asegurar a las personas que tienen un nuevo modelo, incluso si no tienen todos los componentes, como un modelo de razonamiento y versiones más pequeñas”.

GPT-4.5 se ve obligado a retirarse

Operai también ha experimentado su parte de dificultades en los últimos meses.

GPT-4.5, publicado como una vista previa de investigación el 27 de febrero, fue promocionada como el “mejor y mejor modelo para chat de la compañía hasta ahora”. Y OpenAi descubrió que, de hecho, en general superó al modelo anterior GPT-4O en puntos de referencia.

Sin embargo, los costos del modelo generaron críticas. El acceso a la API con precio de OpenAI al modelo a tokens de salida de US $ 150 por millón. Ese fue un asombroso aumento de 15 veces sobre GPT-4O, que tiene un precio de solo $ 10 por millón de tokens. La API es el método proporcionado por OpenAI a los desarrolladores que buscan usar modelos Operai en sus aplicaciones y servicios.

“GPT-4.5 fue probablemente la LLM tradicional más grande lanzada durante el primer trimestre de 2025. Estimé que era un modelo de mezcla de expertos con 5.4 billones de parámetros”, dice Alan D. Thompson, consultor de IA y analista de Life Architect. “Ese tipo de escala en bruto es difícil de justificar con nuestras limitaciones de hardware actuales, y aún más difícil de servir a una gran base de usuarios ahora”.

El 14 de abril, Openai anunció que terminaría el acceso GPT-4.5 a través de la API después de menos de tres meses. GPT 4.5 seguirá disponible, pero solo para los usuarios de ChatGPT a través de la interfaz CHATGPT.

Operai hizo el anuncio junto con la revelación de GPT-4.1, un modelo más económico con un precio de $ 8 por millón de tokens. Los puntos de referencia de OpenAI muestran que GPT-4.1 no es tan capaz como GPT 4.5 en general, aunque funciona mejor en algunos puntos de referencia de codificación.

Openai también lanzó nuevos modelos de razonamiento la semana pasada: O3 y O4-Mini. El modelo O3 puntúa particularmente bien en los puntos de referencia. Sin embargo, el costo es una vez más una preocupación, ya que el acceso a O3 a través de la API tiene un precio de $ 40 por un millón de tokens de producción.

A medida que los competidores luchan, Google asciende

La recepción media de Llama 4 y ChatGPT-4.5 dejaron una apertura para los competidores, y han impulsado su ventaja.

Es poco probable que el lanzamiento rocoso de Meta de Llama 4 aleje a los desarrolladores de Deepseek-V3, Gemma de Google y Qwen2.5 de Alibaba. Estos LLM, que llegaron a fines de 2024, son ahora los modelos preferidos de peso abierto en las tablas de clasificación de Lmarena y Huggingface. Son competitivos o superiores a Llama 4 en puntos de referencia populares, económicos de acceder a través de una API y, en algunos casos, disponible para descargar y usar en hardware de computadora de grado consumidor.

Pero es el nuevo LLM de vanguardia de Google, Gemini 2.5 Pro, lo que realmente llamó la atención.

Lanzado el 25 de marzo, Google Gemini 2.5 Pro es un “modelo de pensamiento”, similar a GPT-O1 y Deepseek-R1, que utiliza la autoinscripción para razonar a través de tareas. Gemini 2.5 Pro es multimodal, tiene una ventana de contexto de un millón de tokens y apoya una investigación profunda.

Gemini 2.5 rápidamente acumuló victorias de referencia, incluido el primer lugar en Simplebench (aunque perdió eso para Openi’s O3 el 16 de abril), y en el índice combinado de inteligencia de inteligencia artificial de análisis artificial. Gemini 2.5 Pro actualmente se encuentra en la cima de Lmarena, también. A partir del 14 de abril, Google Models ha obtenido 5 de las 10 mejores ranuras en Lmarena (esto incluye Gemini 2.5 Pro, tres variantes de Gemini 2.0 y Gemma 3-27B).

El fuerte rendimiento sería suficiente para atraer la atención, pero Google también es un líder de precios. Google Gemini 2.5 es actualmente gratuito a través de la aplicación Gemini de Google y a través del sitio web de AI Studio de Google. El precio de la API de Google también es competitivo; Gemini 2.5 Pro tiene un precio de $ 10 por un millón de tokens de salida y Gemini 2.0 Flash tiene un precio de solo 40 centavos por un millón de tokens.

“Honestamente, cuando se trata de un gran volumen, probablemente termine usando Deepseek-R1 o Google Gemini para razonamiento. Usaré OpenAi, pero siento que debo ser más consciente en términos del precio”, dice Lorica.

Por supuesto, esto no quiere decir que Meta y OpenAi estén hundidos. Operai en particular tiene espacio para maniobrar gracias a la popularidad de ChatGPT, que, según los informes, ahora tiene mil millones de usuarios. Aún así, las fuertes clasificaciones de Gemini y el rendimiento de referencia muestran que los vientos de cambio están soplando en el mundo de LLMS, y actualmente favorecen a Google.

De los artículos de su sitio

Artículos relacionados en la web

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version