Connect with us

Noticias

Explaining The Inexplicable Mystery Of Why ChatGPT O1 Suddenly Switches From English To Chinese When Doing AI Reasoning

Published

on

In today’s column, I aim to resolve the AI mystery floating around on social media and in the mainstream news regarding OpenAI’s ChatGPT o1 advanced AI model suddenly switching momentarily from working in English to working in Chinese. In case you haven’t heard about this surprising aspect, users have been posting tweets showcasing o1 doing just that. The AI is solving a user-entered prompt and while presenting the logical steps the language shifts from English to Chinese. This occurs for a line or two and then reverts back to English.

Is it some kind of tomfoolery? Hacking? Maybe the AI is going off the deep end? Lots of postulated theories and wild conjectures have been touted.

Let’s talk about it.

This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.

What’s Going On With o1

Allow me to set the stage for revealing the known facts concerning the mystery that is afoot.

ChatGPT o1 generative AI is a large language model (LLM) that generally rates as being at or quite near the pinnacle of modern-day AI models. There are plentiful advances jammed into o1. When you use o1, you can immediately discern that the AI has something special going on. Happy face.

To be clear, o1 and none of the current time AI is sentient, nor have we reached artificial general intelligence (AGI). If you are interested in where we are related to achieving AGI and also the vaunted artificial superintelligence (ASI), see my analysis at the link here. At this time, generative AI and LLMs are based on human-devised mathematical and computational pattern matching that in large do an amazing job of mimicking human writing and conversation.

Those who have been using o1 now for several months would likely say that they relish doing so. It does its job. You enter a prompt; you get a reply. One nice twist to o1 is that the reply customarily includes a listing of the steps that the AI took to arrive at the answer presented. This is commonly known as chain-of-thought (CoT), see my detailed explanation at the link here, consisting of a series of delineated steps of the internal processing by the AI.

So far, so good.

Now for the mystery. Various users have indicated that from time to time the o1 suddenly switches from English to Chinese when displaying the chain-of-thought steps that are being undertaken. Just as quickly, the portrayal shifts again back to English. It is almost like seeing a mirage, except that it really does happen, and printouts or screen snapshots bear this out.

Are people’s eyes deceiving them?

Nope, the accounts of this happening are verifiable and not merely fancy.

Explanations Are Over-The-Top

OpenAI seems to have remained mum and isn’t telling us what is at the root of this oddity. Their AI is considered proprietary, and they don’t allow others to poke around into the internals, nor do they make publicly available the internal design and mechanisms at play. This means that everyone can only guess what the heck might be happening inside o1.

Into this vacuum has rushed a slew of quite wild suggestions.

Some of the nuttiest conjecture postulates that the Chinese have taken over o1 or perhaps are secretly running OpenAI. Another equally outlandish idea is that a Chinese hacker has planted something into o1 or has accessed a secret backdoor. On and on these conspiracy-oriented theories go. Social media has an overworked imagination, indubitably.

I am going to categorically reject those zany schemes.

Why so?

Know this — the same overall issue of switching out of English has been documented by others and includes instances of switching to German, French, Portuguese, and so on. The gist is that the Chinese language is not the sole purveyor of the grand switcheroo. Other languages are momentarily displayed, beyond just Chinese.

Perhaps I find myself out on a limb, but I seriously doubt that an entire cabal of earthly hackers or numerous countries across the globe are all sneakily putting their hands into the internals of o1. My viewpoint is that there is something more straightforward that can explain the multitude of sudden language appearances.

Laying Out A Reasonable Guess

I will share with you my theory or educated guess at what might be occurring. Don’t take this to the bank. There are lots of technical reasons that something like this can take place. Let’s go with one that I think is plausible, makes abundant sense, and fits with the reported facts.

Is it the winner-winner chicken dinner?

I can’t say for sure since the AI is proprietary and the AI isn’t open for inspection.

Put on your Sherlock Holmes cap and go along for a fascinating journey into the guts of contemporary generative AI and LLMs.

Leaning Into The Core

When generative AI and LLMs are initially put together, the big first step entails scanning lots of data to do pattern-matching on how humans write. All kinds of essays, narratives, stories, poems, and the like are examined. Complex mathematical and computational mechanisms try to identify how words relate to other words.

This is coined as a large language model due to being undertaken in the large, such as scanning millions upon millions of materials on the Internet. Without the largeness, we wouldn’t have the fluency that is currently exhibited by LLMs (for those interested in SLMs, small language models, I showcase how they differ from LLMs, at the link here).

I’ll use a simple example that will gradually aid in unraveling the mystery.

The Word “Dog” Comes To Mind

Consider the word “dog” as a commonplace word that readily would be scanned when examining content on the Internet. We can assume that “dog” is immensely across the web as a word that people use. That’s a no-brainer assumption. Everyone has a beloved dog, or a story about dogs, or has something to say about dogs. Humankind pretty much loves dogs.

If you were to detect which other words appear to be associated with the word “dog” what comes to mind?

Some obvious ones might be fluffy, four-legged, tail-wagging, etc.

From the perspective of what is taking place inside the AI, the word “dog” is associated mathematically and computationally with the words “fluffy”, “four-legged”, “tail-wagging” and so on. The words themselves have no meaning. They are each a jumble of letters. The word “dog” consists of the letter “d” followed by the letter “o” and followed by the letter “g”.

You should think of the word “dog” as just a bunch of letters, collected together, and we will treat that collection of letters as a kind of blob. The blob of the letters in “dog” is statistically associated with the blobs of the word consisting of the letters “fluffy”.

My aim here is to have you disassociate in your mind that the word “dog” has any meaning, such as images in your head of this or that favored dog. Instead, the word “dog” is a collection of letters and is associated with lots of other collections of letters that form other words.

The French Word For Dog

Shifting gears, I will pick a language other than English to set up the reveal that will be momentarily discussed.

I lived in France for a while and love the French language, though I admit I am extremely rusty and would never even attempt to speak French aloud. Anyway, if it’s Ok with you all, I will envision that we are interested in the French word for “dog” (which is going to be easier as a language choice than picking a Chinese word, due to the symbols used in Chinese writing, but the underlying precept is going to be the same).

There is a French masculine version, “chien” and a feminine version, “chienne” for dog, but let’s simplify things and go with just using for the sake of discussion word “chien” (thanks for playing along).

If you don’t know French, and if I showed you the word “chien”, I’d bet that you wouldn’t know what the word means.

This makes sense that you wouldn’t know. For example, the word “dog” has the letters “d”, “o”, and “g”, but none of those letters exist in the word “chien”. The French word for dog doesn’t seem to resemble the English word for dog. You are unable to readily figure out that they are essentially both the same words in terms of what they signify.

Dog And Chien Have Roughly The Same Factors

Suppose we went ahead and did a scan on the Internet to find the word “chien” and identify other words that seem statistically related to that word.

What would we find?

The odds are that you would see that “chien” is associated with the words fluffy, four-legged, tail-wagging, and the like.

And what could you therefore say about the word “dog” versus the word “chien”?

Well, both of those words are associated with roughly the same set of other words. Since they are nearly associated overwhelmingly with the same set of other words, we could reasonably conclude that both those words probably have the same assorted meaning. They are two peas in a pod.

The crux is that the word “dog” and the word “chien” can be treated as the same, not because you and I in our heads know them to refer to the same thing, but because they both point to other associated words that are approximately the same set of other words.

LLMs Pickup Other Languages When Data Training

The deal is this.

When doing the initial data training of generative AI and LLMs, the widespread scan of the Internet is usually aimed primarily at English words (kind of, that’s true of English-oriented LLMs for which English-speaking AI developers tend to build). During my talks about AI, attendees are often shocked to learn that while the data training is taking place, there are bits and pieces of other languages getting scanned too.

This is more incidental than purposeful. You can see why. The scanning is moving from website to website, and sometimes there might be content in something other than English, maybe just a page here or there. The chances are pretty high that the scanning is going to eventually touch on a wide array of languages other than English, such as French, German, Chinese, etc. Not at a full clip, just on a random wanton basis.

What does the AI do with those said-to-be foreign words?

If it was you or me, and we were trying to read all kinds of websites, the moment you hit upon a page that had something other than English, you might be tempted to set aside the verbiage. You might be thinking that since your principal pursuit is English, discard anything that isn’t English.

The usual approach with AI is that the AI developers just let whatever language is encountered be encompassed by scanning and pattern-matching. No need to try and kick it out. Just toss it into the pile and keep churning.

This produces an exciting and quite intriguing outcome, keep reading.

Bringing The Dog Back Into The Picture

Imagine that an Internet scan is taking place, and the word “dog” is encountered. Later, the words “fluffy”, “four-legged”, “tail-wagging” and others are found and determined to be statistically related to the word “dog”.

The same might happen with the word “chien”.

Then, the AI mathematically and computationally construes that “dog” and “chien” appear to be referencing the same thing. It is almost as though the AI crafts an internal English-French dictionary associating English words with French words.

The downside is that since that wasn’t the main goal, and since the volume and variety of French words encountered might be relatively slim, this English-French dictionary is not necessarily going to be complete. Gaps might readily exist.

Various AI research studies have shown that English-focused LLMs often end up being able to readily switch to using other languages that have been previously scanned during data training, see my analysis at the link here. The phenomenon is an unintended consequence and not particularly planned for. Also, the switching is not necessarily going to be fluent in the other language and might be flawed or incomplete.

You can likely envision the surprise by AI developers that their LLM suddenly was able to spout a different language, such as French or Chinese. Their first thought was heck, how did that happen? Researchers eventually found that the smattering of any other language that was encountered can lead to the AI devising a multi-lingual capacity, of sorts, in a somewhat mechanical way.

Mystery Part 1 Is Explained

Returning to the mystery at hand, how is it that o1 can suddenly switch to Chinese, French, German, or whatever other language beyond English?

The answer is straightforward, namely, the AI picked up an informal smattering of those languages during the initial data training.

Boom, drop the mic.

Whoa, you might be saying, hold your horses. It isn’t just that o1 displays something in a language other than English, it is also that it suddenly does this seemingly out of the blue.

What’s up with that?

I hear you.

We need to resolve that second part of the mystery.

When Something Points To Something Useful

Go with me on a handy thought experiment.

Free your mind. Throughout all the instances of the English word “dog”, suppose that at no point did we encounter the word “whisper” while scanning the Internet. Those two words never came up in any connected way. Meanwhile, imagine that the French word “chien” at times was statistically found to connect with the word “whisper”. Please don’t argue the point, just go with the flow. Be cool.

Here’s the clever part.

When AI is computationally trying to solve a problem or answer a question, the internal structure is typically being searched to find a suitable response.

Pretend I typed this question into generative AI.

  • My entered prompt: “Can a dog whisper?”

The AI searches throughout the internal structure.

There aren’t any patterns on the word “dog” and the word “whisper”. Sad face.

But remember that we have the word “chien” exists in there too, plus we had found that “chien” has an association with the word “whisper”. That’s good news, due to the AI associating “dog” and “chien” as essentially the same words, and luckily the word “chien” is associated with the word “whisper”.

Stated overtly, you might remember those days of algebra where they kept saying if A is to B, and if B is to C, then you can reasonably conclude that A is to C. Remember those rules of life? Nifty. Here, in essence, “dog” is to “chien”, while “chien” is to “whisper”, and thus we can say that “dog” is also to “whisper”. Logic prevails.

The AI is going to be able to answer the question, doing so by accessing the French words that perchance were picked up during the initial data scanning.

Internally, suppose the AI has this sentence that it composes: “Oui, un chien peut chuchoter.” That is generally French for saying that yes, a dog can whisper.

An answer was generated, scoring a victory for generative AI, but we need to do a little bit more sleuthing.

Final Twist That Deals With Displaying Results

Would you be likely to normally see a French sentence as a displayed response when using an English-focused LLM?

No. Not if you are using an English-language-based LLM that is set to show principally English responses, and if you haven’t explicitly told the AI to start displaying in French (or whatever language). The AI might have the French sentence internally stored and then convert the French sentence over into English to display the English version to you.

That’s our final twist here.

Remember that the report by users is that the language switcheroo only seems to happen when the chain of thought is underway. The chances are that language switching isn’t necessarily active for the chain-of-thought derivations. It is activated for the final response, but not the intervening lines of so-called reasoning.

This also explains why the AI suddenly switches back out of the other language and continues forward in English thereafter.

The basis for doing so is that English in this case is the predominant form of the words that were patterned on. The switch to French was merely to deal with the “whisper” resolution in this instance. Once that happened, and if the prompt or question had other parts to it, the AI would simply resume with the English language for the rest of the way.

Boom, drop the mic (for real this time).

The Logical Explanation Is Satisfying

In recap, most generative AI and LLMs tend to pick up words of other languages beyond English during the initial data training and scanning of the Internet. Those words enter the massive statistical stew.

They are considered fair game for use by the AI.

If those non-English words are going to be helpful during generating a response to a user prompt, so be it. As they say, use any port in a storm. The AI is programmed to seek a response to a user inquiry and spanning across languages is easy-peasy. It might also be flawed, depending on how much of any other respective languages were involved in the data training.

A significant clue of the o1 mystery is that the reported instances are infrequent and only seem to arise in the chain-of-thought. This can be linked to the notion that while the AI is composing a response, there isn’t a need to convert from a non-English language to English. Those are just intermediary steps that are merely grist for the mill. The AI doesn’t have any computational need to convert them from one language to another.

Once a final result is ready, only then would a language conversion be warranted.

That is then one reasonably sensible and altogether logical reason for resolving the mystery. Of course, I had mentioned at the get-go that there are other logical possibilities too. I just wanted to share an explanation that seems to cover the proper bases. Now then, some might be tempted to reject the logic-based route entirely and argue for something more sinister or incredible, perhaps ghosts hiding inside o1 or the AI is starting to take on a life of its own. Imagine all the wild possibilities.

Let’s end with a final thought expressed by the great Albert Einstein: “Logic will get you from A to B. Imagination will take you everywhere.”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Aburrido de Ghibli? 7 usos mejores para la generación de imágenes de chatgpt

Published

on

Cuando Operai presentó por primera vez la nueva función de generación de imágenes 4O en ChatGPT, Internet se volvió loco. La gente lo estaba usando para transformar todo, desde imágenes de perfil hasta memes populares en el estilo de anime de Studio Ghibli. Incluso la Casa Blanca se metió en la acción, publicando una imagen al estilo de Ghibli de un arresto contra hielo.

Sin embargo, convertir todo en el arte de Ghibli es hacer que la generación de imágenes presente un mal servicio. Si ha tenido suficiente de las imágenes de anime, hay muchas formas mejores de usar la generación de imágenes de ChatGPT.

7

Generar imágenes al estilo de los artistas fallecidos

El hecho de que pueda usar ChatGPT para generar imágenes al estilo de Studio Ghibli ha provocado algunos debates éticos difíciles. En primer lugar, hay problemas sobre si es correcto reproducir el estilo de un artista sin su permiso. En segundo lugar, hay problemas sobre si ChatGPT fue entrenado en material de derechos de autor para producir las imágenes en primer lugar.

Adam Davidson / geek / chatgpt

La forma más sencilla de evitar estos problemas espinosos es generar imágenes al estilo de los artistas fallecidos. Los derechos de autor sobre las obras artísticas vencen un período establecido después de la muerte de un artista en muchos países, lo que significa que las imágenes están en el dominio público. Esto no solo es éticamente menos problemático, sino que también significa que es menos probable que ChatGPT le diga que no puede crear una imagen debido a su política de contenido.

Con casi toda la historia del arte para elegir, es poco probable que se quede sin estilos para usar. El verdadero desafío es elegir qué estilo crear primero.

Relacionado

Antes de acusar a un artista de usar AI, lea esto

Deja tus Pitchforks ya

6

Haz tus propias caricaturas

Esto es algo que inicialmente probé cuando OpenAI primero permití cargar imágenes para chatgpt. Dibujé un boceto rápido de un personaje de dibujos animados y luego intenté que Chatgpt lo convirtiera en una caricatura. Los resultados fueron decepcionantes por decir lo menos.

Una caricatura de cuatro paneles creada usando chatgpt desde un boceto.
Adam Davidson / geek / chatgpt

Sin embargo, con la generación de imágenes 4O, los resultados son realmente impresionantes. Convirtí un boceto rápido en una caricatura de cuatro paneles en cuestión de momentos, con texto impecable y el personaje reproducido perfectamente en cada panel. Tampoco necesitas comenzar con un dibujo; Puede describir los personajes que desea, y ChatGPT creará la caricatura para usted.

Es muy divertido, pero aún necesitarás un poco de creatividad; Traté de hacer Chatgpt para crear algunas caricaturas propias con el mismo personaje, y las ideas que surgieron fueron terribles. Parece que la IA todavía no puede hacer divertida.

Relacionado

La gen de la imagen de Chatgpt todavía no ha solucionado mi tarea programada favorita

La nueva generación de imágenes es sorprendente, siempre y cuando puedas usarla.

5

Crear portadas de novelas o carteles de películas

¿Alguna vez has tenido ideas para libros o películas que desearías ser reales? Chatgpt no puede convertir esas ideas en novelas o películas enteras, pero puede permitirle ver cómo sería la portada del libro o el póster de la película. Simplemente describa la trama de su libro o película, o simplemente diga cómo quiere que se vea el póster o la portada del libro, y ChatGPT puede crearlo para usted.

Nicolas Cage como Frodo en un póster de película para el señor de los anillos hecho con chatgpt.
Adam Davidson / geek / chatgpt

Otra cosa divertida que puedes hacer con los carteles de películas es tocar con el casting. Si desea que Nicolas Cage haya sido la estrella en literalmente en todas las películas, puede crear carteles de películas con Nic Cage reemplazando a la estrella original. Es un poco divertido.

Si bien muchas de las formas en que puede usar la generación de imágenes de ChatGPT son muy divertidas, pero no tienen ningún propósito real, hay muchas maneras en que la característica puede ser realmente útil. Una forma en que puede usarlo es como una herramienta de visualización.

Una visualización de un jardín con macizos de flores generados a partir de una foto usando chatgpt.
Adam Davidson / geek / chatgpt

Mi esposa ha estado queriendo agregar algunos macizos de flores y bordes a nuestro jardín durante mucho tiempo, pero no sabía dónde estarían los mejores lugares para ponerlos o cómo se vería el jardín terminado. Tomó algunas fotos, las subió a Chatgpt y le pidió que agregara algunas camas y bordes en lugares específicos. Las imágenes resultantes fueron realmente impresionantes y dieron una excelente idea de cómo sería el jardín terminado.

Ella consiguió el insecto y comenzó a ir de una habitación a otra en la casa, visualizando diferentes tipos de pisos, papel tapiz y colores de pintura. No solo es bueno para la decoración, tampoco; Puede subir una imagen de ese sofá que tiene el ojo y ver cómo se vería en su sala de estar. Es una excelente manera de ver cómo se verá un cambio de imagen en el hogar antes de dar el paso.

Relacionado

Hice imágenes perfectas de la sala de casa de Apple usando chatgpt

La nueva generación de imágenes de Chatgpt puede hacer más que solo Studio Ghibli Style.

3

Genere imágenes fotorrealistas de casi cualquier cosa que desee

Hacer imágenes en un estilo de anime es divertido, pero está desperdiciando gran parte del potencial de la generación de imágenes ChatGPT, lo que ha aumentado significativamente la calidad de su fotorrealismo. Ahora puede generar imágenes fotorrealistas de casi cualquier cosa que pueda imaginar.

Una imagen fotorrealista generada por Chatgpt de un grupo de palomas en cascos que inspeccionan una grieta en el camino.
Adam Davidson / geek / chatgpt

Si desea una imagen fotorrealista de una bandada de palomas con cascos que examinan una grieta en el camino, eso es exactamente lo que puede crear. Si desea una imagen de una escena callejera ocupada donde todos son un muñeco de prueba de choque, puede hacer una.

Incluso la imagen de alguien que hizo arte de Ghibli en su teléfono en la parte superior de este artículo fue creada usando ChatGPT. El límite es solo tu imaginación.

2

Haz que los dibujos de tus hijos cobren vida

Esto es algo que he estado haciendo mucho porque a mis hijos les encanta. Les encanta hacer dibujos de cosas extrañas y maravillosas, y puedes hacer que Chatgpt convierta estos dibujos en imágenes fotorrealistas. Los resultados a menudo son hilarantes.

Si las imágenes no resultan bastante como los niños imaginaban, puede usar más indicaciones de imagen para refinar las imágenes para que se parezcan a lo que pretendían. En lugar de convertir las imágenes en fotos realistas, también puede agregar los personajes dibujados a escenas realistas, lo que también puede ser muy divertido.

Fotos lado a lado del dibujo de un niño y una imagen fotorrealista generada por ChatGPT a partir de ese dibujo.
Adam Davidson / geek / chatgpt

Ha sido una excelente manera de alentar a mis hijos a hacer más obras de arte, ya que les encanta ver sus dibujos transformados en imágenes realistas. Un día, pueden crecer para ser artistas que tienen sus propios estilos de arte robados por las principales compañías de IA.

1

Aplicación de diseño o maquetas de sitios web o imágenes de productos

La generación de imágenes ChatGPT también puede ser una herramienta útil para su negocio. Puede usarlo para crear todo tipo de imágenes que puedan ser útiles en su trabajo. Por ejemplo, si es un diseñador de aplicaciones, puede usarlo para crear una maqueta de cómo se verá su interfaz de usuario.

Puede hacer lo mismo si está diseñando un sitio web. Le permite ver cómo se verá su sitio web y moverá elementos antes de comenzar a construirlo.

Una imagen lado a lado que muestra una foto de un clip Bulldog y una imagen de producto generada por ChatGPT basada en esa foto.

Si vende productos, ChatGPT también puede crear fotos de productos. Simplemente suba una imagen de su producto y pídale a ChatGPT que cree una imagen de producto para él. Obtendrá una hermosa imagen de su producto con una iluminación perfecta, aunque algunas plataformas de comercio electrónico pueden requerir imágenes reales para sus sitios.


Las capacidades de generación de imágenes actualizadas de ChatGPT son realmente impresionantes. Puede crear imágenes de casi cualquier cosa que desee, utilizando estilos artísticos específicos o un fotorrealismo impresionante. Al igual que con muchas características de IA, hay tantas cosas que puede hacer que puede ser difícil saber por dónde empezar.

Intente experimentar con algunas de las ideas anteriores; Es posible que te sorprenda lo que es posible una vez que te muevas más allá de las imágenes de Ghibli.

Continue Reading

Noticias

O3 O3 de OpenAi es menos AGI de lo que se mide originalmente

Published

on


Resumen

Un análisis reciente de la Fundación del Premio ARC encuentra que el modelo O3 de OpenAI ofrece resultados significativamente más débiles en puntos de referencia de razonamiento estandarizados que su versión de vista previa de O3 previamente probada.

La Fundación del Premio ARC, un grupo sin fines de lucro centrado en la evaluación de IA, utiliza puntos de referencia abiertos como ARC-AGI para resaltar la brecha entre el razonamiento humano y los sistemas de inteligencia artificial actuales. Cada evaluación tiene como objetivo aclarar el estado actual del campo.

El punto de referencia ARC-AGI está estructurado para probar el razonamiento simbólico, la composición de varios pasos y la aplicación de reglas dependiente del contexto, las habilidades que los humanos a menudo demuestran sin capacitación especial, pero que los modelos de IA solo funcionan en un grado limitado.

El análisis evaluó el rendimiento en niveles de razonamiento “bajo”, “medio” y “altos”, que varían la profundidad del razonamiento del modelo. “Bajo” prioriza la velocidad y el uso mínimo de token, mientras que “alto” tiene la intención de fomentar la resolución de problemas más integral. Para este estudio, dos modelos, O3 y O4-Mini, se probaron en los tres niveles de razonamiento en 740 tareas de ARC-AGI-1 y ARC-AGI-2, produciendo 4.400 puntos de datos.

Anuncio

Eficiencia de rentabilidad y rendimiento: O3 Outpacios O1

Según la Fundación del Premio ARC, O3 alcanzó la precisión del 41 por ciento (bajo cálculo) y el 53 por ciento (cómputo medio) en ARC-AGI-1. El modelo O4-Mini más pequeño alcanzó el 21 por ciento (bajo cálculo) y el 42 por ciento (cómputo medio). En el punto de referencia ARC-AGI-2 más desafiante, ambos modelos actuales lucharon considerablemente, anotando por debajo del tres por ciento de precisión.

Trama de dispersión: la tabla de clasificación ARC-AGI muestra los puntajes del modelo de IA frente al costo por tarea, incluidos los modelos GPT y O.
El modelo O3 de OpenAI supera el modelo O1 publicado en el otoño de 2024 en aproximadamente un 20 por ciento en el punto de referencia ARC-AGI-1, pero permanece muy por detrás de los resultados de la previa vista O3 desde diciembre de 2024. El gráfico representa la relación precio / rendimiento. | Imagen: Arc Premio Foundation

A niveles de razonamiento más altos (cómputo “alto”), ambos modelos no pudieron completar muchas tareas. El análisis también observó que los modelos tendían a responder tareas que podrían resolver más fácilmente, mientras dejaban tareas más difíciles sin respuesta. Evaluar solo las respuestas exitosas distorsionaría el rendimiento real, por lo que estos resultados parciales fueron excluidos de las tablas de clasificación oficiales.

Modelo Configuración de razonamiento Eval Semi Private V1 Eval Semi Private V2 Costo por tarea (V2)
O3 Bajo 41% 1,9% 1.22 dólares estadounidenses
O3 Medio 53% 2,9% 2.52 dólares estadounidenses
O3 Alto
O4-Mini Bajo 21% 1,6% 0.05 dólar estadounidense
O4-Mini Medio 42% 2,3% 0.23 dólar estadounidense
O4-Mini Alto

Los datos muestran que un mayor esfuerzo de razonamiento no garantiza mejores resultados, pero a menudo solo resulta en costos más altos. En particular, O3 High consume significativamente más tokens sin lograr una ganancia correspondiente en precisión para tareas más simples. Esto plantea preguntas sobre la escalabilidad del enfoque actual para el razonamiento de la cadena de pensamiento.

Parcela de dispersión: comparación del uso de tokens de O3-Medium vs. O3-High en ARCV1, codificado por color según la corrección.
Una comparación del consumo de token para O3-Medio y O3-High en ARCV1 revela que los niveles de razonamiento más altos con frecuencia conducen a mayores costos. Los puntos azules por encima de la línea indican tareas donde O3 High usó más tokens sin mejorar los resultados. | Imagen: Arc Premio Foundation

Para aplicaciones sensibles a los costos, la Fundación del Premio ARC aconseja el uso de O3-Medio como la configuración predeterminada. El modo de “alta recuperación” solo se recomienda cuando se necesita la máxima precisión y el costo es menos importante. “No hay una razón convincente para usar bajo si te importa la precisión”, dice Mike Knoop, cofundador de la Fundación del Premio ARC.

La Fundación también señala que, a medida que avanza el rendimiento del modelo, la eficiencia, con qué rapidez, de bajo costo y con el uso mínimo de tokens, un modelo puede resolver problemas, se convierte en el diferenciador primario. En este sentido, O4-Mini es notable: logra una precisión del 21 por ciento en ARC-AGI-1 a un costo de aproximadamente cinco centavos por tarea, mientras que los modelos más antiguos como O1-Pro requieren aproximadamente once dólares por tarea para obtener resultados comparables.

Recomendación

Inconsistente e ilógico: el estudio descubre el razonamiento errático de los modelos de idiomas de IA

Inconsistente e ilógico: el estudio descubre el razonamiento errático de los modelos de idiomas de IA

O3 O3 de OpenAI es menos AGI que O3 previa

La versión actual de O3 diverge sustancialmente de la versión de previsión de O3 probada en diciembre de 2024. En ese momento, la previa vista de O3 obtuvo un 76 por ciento (bajo cómputo) y un 88 por ciento (alto cálculo) en ARC-AGI-1 en el modo de texto, mientras que el modelo O3 liberado ahora ofrece 41 por ciento (bajo) y 53 por ciento (medio).

OpenAI confirmó a ARC que el modelo de producción O3 difiere de la versión de vista previa de varias maneras clave. La compañía explicó que el modelo lanzado tiene una arquitectura diferente, es un modelo general más pequeño, opera multimodalmente (manejando las entradas de texto e imágenes) y utiliza menos recursos computacionales que la versión de vista previa.

Con respecto a los datos de capacitación, OpenAI afirma que la capacitación de O3 previa revisión cubrió el 75 por ciento del conjunto de datos ARC-AGI-1. Para el modelo O3 lanzado, OpenAI dice que no fue capacitado directamente en los datos de ARC-AGI, ni siquiera en el conjunto de datos de capacitación. Sin embargo, es posible que el modelo esté expuesto indirectamente al punto de referencia a través de su disponibilidad pública.

El modelo O3 publicado también se ha refinado para los casos de uso de productos y productos, que, según el premio ARC, se presenta tanto en ventajas como en desventajas en el punto de referencia ARC-AGI. Estas diferencias subrayan que los resultados de referencia, especialmente para los modelos de IA inéditos, deben verse con precaución.

Progreso continuo y limitaciones persistentes

El modelo O3-Medium actualmente ofrece el mayor rendimiento entre los modelos de Fundación de Premios ARC de ARC publicados en Publicación en ARC-AGI-1, duplicando los resultados de los enfoques anteriores de la cadena de pensamiento.

A pesar de esta mejora, el recién introducido Arc-Agi-2 Benchmark sigue sin resolverse en gran medida por ambos modelos nuevos. Mientras que los humanos resuelven un promedio del 60 por ciento de las tareas ARC-AGI-2 incluso sin capacitación especial, el modelo de razonamiento más fuerte de OpenAI actualmente logra solo alrededor del tres por ciento.

“ARC V2 tiene un largo camino por recorrer, incluso con la gran eficiencia de razonamiento de O3. Todavía se necesitan nuevas ideas”, escribe Knoop.

Esto destaca una brecha persistente en la capacidad de resolución de problemas entre humanos y máquinas, a pesar de los recientes avances y lo que la CEO de Microsoft, Satya Nadella, ha descrito como “piratería de referencia sin sentido”.

Un análisis reciente también sugiere que los llamados modelos de razonamiento como O3 probablemente no tienen ninguna capacidad nueva más allá de las de sus modelos de lenguaje fundamental. En cambio, estos modelos están optimizados para llegar a soluciones correctas más rápidamente para ciertas tareas, particularmente aquellos para los que han sido entrenados a través del aprendizaje de refuerzo dirigido.

Continue Reading

Noticias

Gemini 2.5 Pro + Notebooklm: Herramientas de IA para la productividad e investigación

Published

on


Las herramientas con IA de Google, Gemini 2.5 Pro y Notebooklm, están redefiniendo cómo aborda la productividad, la investigación y la creación de contenido. Estas herramientas integran capacidades de codificación avanzada, evaluación de fuente inteligente y procesamiento multimodal para simplificar tareas complejas. Ya sea que sea un desarrollador, educador o estratega, proporcionan soluciones intuitivas que mejoran la eficiencia sin requerir una amplia experiencia técnica. Al usar estas herramientas, puede racionalizar los flujos de trabajo, mejorar la precisión y centrarse en la creatividad y la estrategia.

En este tutorial, Grace Leung desglosa las fortalezas únicas de Gemini 2.5 Pro y Notebooklm, y cómo su integración puede ayudarlo a lograr más con menos esfuerzo. Desde la creación de visualizaciones interactivas y contenido educativo hasta racionalizar la investigación y la creación de prototipos, descubrirá formas procesables para aprovechar estas herramientas para el máximo impacto. Espere aprender cómo el modo de lienzo de Gemini convierte las ideas en salidas funcionales y cómo NotebookLM garantiza que su trabajo se basa en fuentes creíbles y de alta calidad. Al final, verá cómo esta poderosa combinación puede ahorrarle tiempo, aumentar la creatividad y ayudarlo a concentrarse en lo que realmente importa: entregar resultados.

Combinación de Google Notebooklm y Gemini 2.5 Pro

TL; DR Key Takeaways:

  • Gemini 2.5 Pro ofrece características avanzadas como el modo de lienzo, el procesamiento multimodal y una ventana de contexto de token ampliado, lo que lo hace ideal para manejar tareas complejas en todas las industrias.
  • NotebookLM se centra en la investigación y la evaluación de la fuente, proporcionando herramientas como mapeo mental y descubrimiento de fuentes creíble para optimizar la síntesis de información.
  • La sinergia entre Gemini 2.5 Pro y NotebookLM permite aplicaciones prácticas como la creación de visualizaciones interactivas, contenido educativo y herramientas de planificación estratégica.
  • Estas herramientas optimizan los flujos de trabajo combinando las capacidades de investigación de NotebookLM con la capacidad de Gemini para generar resultados pulidos, reduciendo el tiempo y el esfuerzo para los resultados profesionales.
  • Las mejoras futuras, como la integración más profunda y las actualizaciones sincronizadas, podrían mejorar aún más la transición perfecta de la investigación a la ejecución.

Características clave de Gemini 2.5 Pro

Gemini 2.5 Pro es una plataforma robusta diseñada para manejar tareas exigentes con precisión y facilidad. Ajusta a las necesidades técnicas y creativas, ofreciendo una gama de características que lo distinguen:

  • Modo de lienzo: Esta característica le permite crear salidas funcionales y listas para usar, como prototipos o aplicaciones interactivas, directamente dentro de la plataforma, ahorrando tiempo y esfuerzo.
  • Procesamiento multimodal: Analice y procese texto, imágenes y documentos largos sin problemas. Esta capacidad es ideal para resumir patentes, crear visualizaciones o administrar conjuntos de datos complejos.
  • Ventana de contexto de token expandido: Con soporte para hasta 1 millón de tokens, expandibles a 2 millones, puede abordar proyectos a gran escala, como generar informes detallados o analizar conjuntos de datos extensos, sin interrupciones.
  • Accesibilidad: Gemini 2.5 Pro está disponible de forma gratuita a través de la aplicación Gemini o AI Studio, asegurándose de que sus potentes características sean accesibles para una audiencia amplia.

Estas características hacen que Gemini 2.5 Pro sea una herramienta versátil para profesionales en todas las industrias. Al automatizar procesos complejos, le permite centrarse en tareas de alto nivel, como la planificación estratégica y la resolución de problemas creativos.

Notebooklm: Mejora de la investigación y la organización

NotebookLM sirve como una herramienta complementaria para Géminis, centrándose en la investigación, la organización y la evaluación de la fuente. Está diseñado para ayudarlo a sintetizar la información de manera efectiva y garantizar que su trabajo se basa en datos creíbles. Sus características destacadas incluyen:

  • Descubra fuentes: Identifique y evalúe fuentes web creíbles para garantizar que su investigación se base en información verificada de alta calidad.
  • Funcionalidad del mapa mental: Cree diagramas estructurados para visualizar ideas y conexiones, lo que facilita explorar y comprender conceptos complejos.
  • Integración perfecta con Géminis: Use NotebookLM para recopilar y evaluar datos, luego transición a Gemini para crear resultados procesables como prototipos, visualizaciones o materiales educativos.

Al combinar estas capacidades, NotebookLM optimiza el proceso de investigación, lo que le permite organizar la información de manera eficiente y producir resultados impactantes. Su enfoque en la credibilidad de la fuente garantiza que su trabajo mantenga un alto nivel de precisión y confiabilidad.

Combinando el modo de lienzo de IA y cuaderno

Aquí hay guías adicionales de nuestra expansiva biblioteca de artículos que puede encontrar útil en Notebooklm.

Aplicaciones prácticas en todas las industrias

La sinergia entre Gemini 2.5 Pro y Notebooklm desbloquea una amplia gama de aplicaciones prácticas, lo que las convierte en herramientas valiosas en varios campos. Aquí hay algunos ejemplos de cómo puede usar estas herramientas de manera efectiva:

  • Visualizaciones interactivas: Convierta documentos complejos, como trabajos de investigación o patentes, en infografías o micrositios para una comprensión y compromiso más fácil.
  • Investigación y creación de prototipos: Use Notebooklm para reunir ideas y Géminis para crear prototipos, mapas de oportunidad o páginas de destino adaptadas a sus objetivos.
  • Contenido educativo: Desarrolle cuestionarios, módulos de aprendizaje interactivos u otros materiales educativos combinando las ideas estructuradas de NotebookLM con las capacidades de codificación y visualización de Gemini.
  • Creación de contenido: Genere scripts de podcasts, pistas de audio o transcripciones de reutilización en diversos formatos para llegar a diferentes audiencias de manera efectiva.
  • Planificación estratégica: Visualice las tendencias, las prioridades y las estrategias de contenido utilizando los mapas mentales de NotebookLM y las herramientas de visualización avanzada de Gemini.

Estos casos de uso destacan la adaptabilidad de Gemini 2.5 Pro y NotebookLM, lo que demuestra su potencial para mejorar los flujos de trabajo en la educación, los negocios y las industrias creativas.

Optimización de la eficiencia del flujo de trabajo

Cuando se usan juntos, Gemini 2.5 Pro y Notebooklm pueden optimizar significativamente su flujo de trabajo. Notebooklm asegura que su investigación se basa en fuentes creíbles y curadas, mientras que Gemini transforma esas ideas en salidas pulidas y funcionales. Ya sea que esté creando un módulo prototipo, infográfico o educativo, esta combinación reduce el tiempo y el esfuerzo requeridos para lograr resultados profesionales. Al automatizar tareas repetitivas y simplificar procesos complejos, estas herramientas le permiten centrarse en la innovación y la toma de decisiones estratégicas.

Potencial futuro y oportunidades para el crecimiento

Si bien Gemini 2.5 Pro y NotebookLM ya son herramientas poderosas, existe el potencial de una mayor mejora. Una integración más profunda entre las dos plataformas podría crear un flujo de trabajo más perfecto, lo que le permite hacer la transición sin esfuerzo de la investigación a la ejecución. Las características como la transferencia de datos automática, las actualizaciones sincronizadas en proyectos compartidos o herramientas de colaboración mejoradas podrían optimizar aún más la experiencia del usuario. Estas mejoras harían que las herramientas sean aún más efectivas, capacitando a los usuarios para alcanzar sus objetivos con mayor eficiencia y precisión.

Crédito de los medios: Grace Leung

Archivado en: AI, guías





Últimas ofertas de gadgets geek

Divulgación: Algunos de nuestros artículos incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, los gadgets geek pueden ganar una comisión de afiliación. Aprenda sobre nuestra política de divulgación.

Continue Reading

Trending