Connect with us

Noticias

The Future Of Text-To-Video Based Generative AI Magically Appears Via Newly Released OpenAI Sora Turbo

Published

on

In today’s column, I explain the hullabaloo over the advent of text-to-video (T2V) in generative AI apps and large language models (LLM). The upshot is this. There is little doubt that text-to-video is still in its infancy at this time, but, by gosh, keep your eye on the ball because T2V is going to gain significant advances that will ultimately knock the socks off the world. As Dr. Seuss might declare, oh, the things that you can do (hang in there, I’ll cover the possibilities momentarily).

As tangible evidence of what text-to-video can do right now, I’ll include in this discussion an assessment of the newly released OpenAI product Sora Turbo, a cousin of the wildly and widely popular ChatGPT. If you are tempted to try out Sora Turbo, it is initially only being made available to ChatGPT Plus and ChatGPT Pro users, meaning that you must pay-to-play. Sad face.

A notable consideration to keep in mind is that ChatGPT currently garners a reported 300 million weekly active users, and though not all of them are going to have ready access to Sora Turbo, an impressive many millions will. Competing products are likely to find that Sora Turbo becomes the 600-pound gorilla and the elephant in the room. By and large, a massive number of users and a massive amount of media attention is going to shift overnight toward Sora Turbo.

Let’s talk about it.

This analysis of an innovative AI advancement is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.

Getting Up-To-Speed On AI Modes

I’d like to lay out some foundational aspects so that we can then dive deeply into the text-to-video realm.

Generative AI and LLMs generally began by providing text-to-text (T2T) capabilities. You type in text as a prompt, and the AI responds with text such as an essay, poem, narrative, etc. That’s cool. Another exciting feature consists of text-to-image, whereby you enter a prompt, and the AI generates an image such as a photo-realistic picture, a digital painting, a still cartoon, or other kinds of static imagery. Those two modes of usage are nearly old hat now.

The dream for AI researchers is to allow a person to enter a prompt and then have the AI generate a video. A stripped-down way to do this is to focus solely on the visual video and not include any audio. Gradually, we will see the production of visual video elements that are hand-in-hand accompanied by AI-generated matching audio (some LLMs do this but in quite a limited fashion).

A bonus on top of doing text-to-video is the possibility of taking an image as input and turning that into a video. The image might be by itself as the source content, or the AI might accept both a prompt as text and an accompanying image. Finally, the topmost aim is to allow the use of a separate video as the input source, possibly accompanied by text and images, all of which the generative AI utilizes to produce a suitable video. I refer to that as the all-encompassing full-meal deal.

The Holy Grail Is Suitability Of The Generated T2V

Notice that I just mentioned that the quest or hope is that the generative AI will produce a suitable video. My emphasis on that point is the nature of suitability.

Suitability is the trickiest part of this grand scheme. Allow me to explain. If someone enters a prompt that tells AI to produce a video about a cat wearing a hat that is sitting in a box and riding on a moving train, I’d like you to take a moment and imagine what that video looks like.

Go ahead, envision away, I’ll wait.

I dare say that if you told someone what the video would precisely look like, their conception of the video is going to be quite adrift from what you had in mind. Sure, you would both undoubtedly include a cat of some kind, a hat of some kind on the head of the cat, a box of some kind with the cat inside, and a moving train of some kind. But all of those might vary dramatically from the other person’s conception. Yours could be photo-realistic while the other person imagined animation. The colors would differ, the sizes and shapes would differ, and the action of the cat and the moving train would differ.

I’m sure you get the picture (aha, a pun).

Suitability or the act of meeting the request posed by the human user is a tough nut to crack. Your first impulse might be that if a person writes a lengthy prompt, that would seemingly narrow things down. It might do so to some extent. On the other hand, the odds are still notably high that there would still be marked differences.

Sora Turbo Enters Into The Scene

Earlier this year, OpenAI made available on a limited basis their new product Sora. Sora is a generative AI app that does text-to-video. Though it is referred to as text-to-video, it also does allow for the input of images and the input of video.

As an aside, the ultimate aim of AI makers across the board is to have what is known as X-to-X modes for generative AI, meaning that X can be text, images, audio, video, and anything else we come up with. The angle is that the end game consists of taking any type of medium as input and having the AI produce any desired type of medium as the output.

Boom, drop the mic.

No worries, we’ll get there (or, maybe we should be worried, as I’ll bring up toward the end here).

After Sora had its limited availability tryouts, OpenAI made some important changes and has now released the modified and more advanced version, known as Sora Turbo. Clever naming. You might want to go online and watch some posted videos showcasing the use of Sora Turbo. I say that because it is difficult in a written form such as this discussion to convey the look and feel of the prompts and controls you can use, and likewise allow you to see the generated videos. The official Sora portion of the OpenAI website shows some handy examples, plus there are already tons of user-made videos available on social media.

Components Of High-End Text-To-Video AI Apps

The next aspects that I will cover are the types of features and functionality that we nowadays expect a high-end text-to-video AI app to possess. I bring this up to acquaint you with the ins and outs of AI-based text-to-video capabilities.

In a sense, this is almost as though you are interested in possibly using or buying a car, but you aren’t familiar with the features and functions of automobiles. It can be tough to shop for a car if you are in the dark about what counts.

I will briefly identify some of the keystone elements of text-to-video. In addition, I’ll provide an assigned letter grade for what I perceive of the just-released Sora Turbo capabilities. I want to clarify that my letter grading is based on a first glance. My to-do list consists of spending some dedicated time with Sora Turbo and subsequently doing an in-depth review.

Be on the lookout for that posting.

T2V Suitability Or Faithfulness

I already brought up the fact that suitability is the Holy Grail of text-to-video.

Somehow, once the AI parses the input prompt, a video is to be generated that matches what the user has inside their mind. Whoa, we aren’t yet at mind-reading by AI (well, there are efforts underway to create brain-machine interfaces or BMI, see my discussion at the link here).

The AI industry tends to refer to this suitability factor as faithfulness or honesty. The AI is supposed to do a bang-up job and reach a faithful or honest rendering in video format of what the user wants.

I am going to say that all the readily available T2V is still at a grade level of C, including Sora Turbo. Inch by inch, clever techniques are being devised to hone in on what a user wants. This is mainly being done in AI research labs and we will gradually see those capabilities come into the public sphere.

T2V Visual Vividness, Quality, And Resolution

The video that was generated in the early days of text-to-video was very rudimentary. They were mainly low-resolution. The graphics were jerky while in motion. I’m not knocking on those heroic initial efforts. We ought to appreciate the pioneering work else we wouldn’t be where we are today.

Tip of the hat.

My point is that thankfully, we’ve come a long way, baby. If you get a chance to see the Sora Turbo AI-generated videos, the vividness, quality, and resolution are pretty much state-of-the-art for T2V. I’ll give this an A-/B+.

Yes, I am a tough-as-nails grader.

T2V Temporal Consistency Across Frames

I’m sure that you know that movies consist of individual frames that flow past our eyes so fast that we perceive that there is fluid motion afoot in what we are watching. The conventional text-to-video generation adheres to that same practice. A series of one after one-after-another frames are generated, and when they flow along, you perceive motion.

The rub is this. Suppose that in one frame a cat wearing a hat is at the left side of the view. The next frame is supposed to show the cat moving toward the right side, having moved just a nudge to the right. And so on this goes.

If the AI doesn’t figure out things properly, the next frame might show the cat suddenly at the far right of the view. Oops, you are going to be jostled that the cat somehow miraculously got from the left to the right. It won’t look smooth.

This is generally known as temporal consistency. The AI is to render the contents of the frames so that from one frame to the next, which is based on time as each frame goes past our eyes, there should be appropriate consistency. It is a hard problem, just to let you know. I’ll give Sora Turbo a B and anticipate this will be getting stronger as they continue their advancements.

T2V Object Permanence

You are watching an AI-generated video, and it shows a cat wearing a hat. The cat moves toward the right side of the scene. Suddenly, the hat disappears. It vanished. What the heck? This wasn’t part of the text prompt in the sense that the user didn’t say anything about making the hat vanish.

The AI did this.

Parlance for this is that we expect the AI to abide by object permanence and not mess around with things. An object that is shown in one frame should customarily be shown in the next frame, perhaps moved around or partially behind another object, but it ought to normally still be there somewhere. I’ll score Sora Turbo as a B-/C+.

Again, this is a hard problem and is being avidly pursued by everyone in this realm.

T2V Scene Physics

This next topic consists of something known as scene physics for text-to-video. It is one of the most beguiling of all capabilities and keeps AI researchers and AI developers up at night. They probably have nightmares, vivid ones.

It goes like this. You are watching an AI-generated video, and a character drops a brittle mug. Here on planet Earth, the mug is supposed to obey the laws of gravity. Down it falls. Kablam, the mug hits the floor in the scene and shatters into a zillion pieces.

That is the essence of scene physics. The kinds of intense calculations needed to figure out which way objects should natively go based on ordinary laws of nature is a big hurdle. In addition, the user might have stated that physics is altered, maybe telling the AI to pretend that the action is occurring on the Moon or Mars. I’ll score Sora Turbo as a B-/C+.

T2V Grab-Bag Of Features And Functions

I don’t have the space here to go into the myriad of text-to-video features and functions in modern-day T2V.

To give you a taste of things, here’s a list of many equally important capabilities in T2V products:

  • Stylistic options
  • Remixing re-rendering
  • Video output timing length
  • Time to render
  • Sequencing storyboarding
  • Source choices
  • AI maker preset usage limitations
  • Watermarking of generated video
  • Intellectual Property restrictions
  • Prompt library
  • Prompt storage functionality
  • Video storage functionality
  • Prompt sharing and control
  • Etc.

One thing you ought to especially be aware of is that T2V right now is usually only generating video that consists of a relatively short length of time. When T2V first came around, the videos were a second or two in length. They were nearly a blink of an eye.

Nowadays, many of the mainstay players can do somewhere around 10 to 20 seconds of video. That’s probably just enough to provide a brief scene, but it certainly doesn’t equate to a full-length movie. You can usually use a sequencing or storyboarding function that allows you to place one generated scene after another. That’s good. The downside currently is that the scenes aren’t likely to line up in a suitable alignment. Scene-to-scene continuity is typically weak and telling.

Overall, across the extensive list above, I’ll say that Sora Turbo is somewhere on an A-/B+ and you’ll find plenty of useful controls and functions to keep you busy and entertained.

The Emerging Traumas Of Readily Usable AI Text-To-Video

Shifting gears, I said at the opening of this discussion that text-to-video is quite a big deal. Let’s do a sobering unpacking of that thought.

Envision that with the use of prompts, just about anyone will eventually be able to produce top-quality videos that match Hollywood movies. This sends shivers down the spine of the entertainment industry. AI is coming at all those movie stars, filmmakers, support crews, and the like. Some in the biz insist that AI will never be able to replicate what human filmmakers can achieve.

Well, it’s debatable.

Furthermore, if you construe that the writer of the prompt is a said-to-be “filmmaker” you could argue that the human still is in the loop. One twist is that there are already efforts toward having generative AI come up with prompts that feed into AI-based text-to-video. Blasphemous.

There is something else of more immediate concern since the likelihood of T2V creating full-length top-notch movies is still a bit further on the horizon. The immediate qualm is that people are going to be able to make deepfakes of an incredibly convincing nature. See my coverage of deepfake-making via the AI tools to date, at the link here and the link here, and what’s likely going to happen with the next wave of AI advances.

Utterly convincing deepfakes will be made upon millions and billions of them. At low or nearly zero cost. They are easily distributed digitally across networks, at a low or negligible cost. They will be extremely hard to differentiate from real-life real-world videos.

At an enormous scale.

Disconcertingly, they will look like they are real-life videos. Consider the ramifications. A person is wanted for a heinous crime and a nationwide hunt is underway. The public is asked to submit videos from ring cams, their smartphones, and anything they have that might help in spotting the individual.

It would be very easy to create a video that seemed to show the person walking down the street in a given city, completely fabricated by using AI-based text-to-video. The video is believed. This might cause people in that area to become panicked. Law enforcement resources might be pulled from other locales to concentrate on where the suspect was last presumably seen.

You get the idea.

It Takes A Village To Decide Societal Norms For T2V

In my grab-bag list above of T2V features, I noted that watermarking is a feature that AI makers are including in the generated video, allowing for the potential detection and tracking of deepfakes. It is a cat-and-mouse game where evildoers find ways to defeat the watermarks. Another item listed was the AI maker placing restrictions on what can be included in a generated video, such as not allowing the faces and figures of politicians, celebrities, and so on. Again, there are sneaky ways to try and overcome those restrictions.

If you weren’t thinking about AI ethics and AI laws before now, it is time to put on some serious thinking caps.

To what degree should AI makers have discretion in the controls and limits? Should new AI-related laws be enacted? Will such laws potentially hamper AI advancement and place our country at a disadvantage over others (see my analysis of AI advances as a form of exerting national political power on the world stage, at the link here).

OpenAI acknowledges the disconcerting dilemma and noted this as a significant point in their official webpage about Sora Turbo entitled “Sora Is Here” (posted December 9, 2024): “We’re introducing our video generation technology now to give society time to explore its possibilities and co-develop norms and safeguards that ensure it’s used responsibly as the field advances.”

Yes, we all have a stake in this. Go ahead and get up-to-speed on the latest in text-to-video, and while you are at it, join in spirited and crucial discussions about where this is heading and what we can or ought to do to guide humankind in a suitable direction.

There it is again, the importance of suitability.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

O3 de OpenAI aún no es AGI, pero simplemente hizo algo que ninguna otra IA ha hecho

Published

on

Sam Altman y los diputados de OpenAI analizan el rendimiento del nuevo modelo o3 en la prueba ARC-AGI.

OpenAI/ZDNET

El último modelo de lenguaje grande de OpenAI aún no está disponible, pero ya tenemos algunas formas de saber qué puede y qué no puede hacer.

El lanzamiento “o3” de OpenAI se dio a conocer el 20 de diciembre en forma de un video infomercial, lo que significa que la mayoría de las personas ajenas a la empresa no tienen idea de lo que realmente es capaz de hacer. (Se está dando acceso anticipado a los grupos externos de pruebas de seguridad).

Además: 15 formas en que la IA me ahorró tiempo en el trabajo en 2024

Aunque el video presentó mucha discusión sobre varios logros de referencia, el mensaje del cofundador y director ejecutivo de OpenAI, Sam Altman, en el video fue muy breve. Su afirmación más importante, y además vaga, fue que o3 “es un modelo increíblemente inteligente”.

ARC-AGI puso a prueba o3

OpenAI planea lanzar la versión “mini” de o3 a finales de enero y la versión completa algún tiempo después, dijo Altman.

Un outsider, sin embargo, ha tenido la oportunidad de poner a prueba a o3, en cierto sentido.

La prueba, en este caso, se llama “Corpus de Abstracción y Razonamiento para la Inteligencia General Artificial” o ARC-AGI. Es una colección de “desafíos para los sistemas inteligentes”, un nuevo punto de referencia. El ARC-AGI se anuncia como “el único punto de referencia diseñado específicamente para medir la adaptabilidad a la novedad”. Eso significa que está destinado a evaluar la adquisición de nuevas habilidades, no sólo el uso de conocimientos memorizados.

Además: ¿Por qué la ética se está convirtiendo en el mayor desafío de la IA?

Algunos consideran la AGI, inteligencia artificial general, como el Santo Grial: el logro de un nivel de inteligencia artificial que podría igualar o superar la inteligencia humana. La idea de ARC-AGI es guiar la IA hacia “sistemas artificiales más inteligentes y más parecidos a los humanos”.

El modelo o3 obtuvo una precisión del 76% en ARC-AGI en una evaluación coordinada formalmente por OpenAI y el autor de ARC-AGI, François Chollet, científico de la unidad de inteligencia artificial de Google.

Un cambio en las capacidades de la IA

En el sitio web de ARC-AGI, Chollet escribió la semana pasada que la puntuación del 76% es la primera vez que la IA supera la puntuación de un humano en el examen, como lo ejemplifican las respuestas de los trabajadores humanos de Mechanical Turk que tomaron la prueba y quienes, en promedio, obtuvo una puntuación ligeramente superior al 75% de aciertos.

francois-chollet.jpg

François Chollet

Chollet escribió que la puntuación alta es “un aumento sorprendente e importante de la función escalonada en las capacidades de la IA, que muestra una capacidad novedosa de adaptación a tareas nunca antes vista en los modelos de la familia GPT”. Y añadió: “Toda la intuición sobre las capacidades de la IA deberá actualizarse para o3”.

El logro marca “un verdadero avance” y “un cambio cualitativo en las capacidades de la IA”, declaró Chollet. Chollet predice que la capacidad de o3 para “adaptarse a tareas que nunca antes había enfrentado” significa que “debe planificar que estas capacidades sean competitivas con el trabajo humano en un plazo bastante corto”.

Los comentarios de Chollet son dignos de mención porque nunca ha sido un defensor de la IA. En 2019, cuando creó ARC-AGI, me dijo en una entrevista que tuvimos para ZDNET que el flujo constante de “artículos de prensa grandilocuentes” de empresas de IA “sugieren engañosamente que la IA a nivel humano quizás esté a unos años de distancia”, mientras que consideraba tal hipérbole “una ilusión”.

Las preguntas ARC-AGI son fáciles de entender para las personas y bastante fáciles de resolver. Cada desafío muestra de tres a cinco ejemplos de la pregunta y la respuesta correcta, y luego al examinado se le presenta una pregunta similar y se le pide que proporcione la respuesta que falta.

muestra-2 de competencia-arc-agi

La forma básica de ARC-AGI es tener de tres a cinco ejemplos de entrada y salida, que representan la pregunta y su respuesta, y luego un ejemplo final de entrada para el cual se debe proporcionar la respuesta proporcionando la imagen de salida correcta. Es bastante fácil para un humano descubrir qué imagen producir tocando píxeles de colores, incluso si no puede articular la regla per se.

Premio ARCP

Las preguntas no están basadas en texto sino en imágenes. Primero se muestra una cuadrícula de píxeles con formas coloreadas, seguida de una segunda versión que ha sido modificada de alguna manera. La pregunta es: ¿Cuál es la regla que cambia la imagen inicial en la segunda imagen?

En otras palabras, el desafío no depende directamente del lenguaje natural, el área célebre de los grandes modelos de lenguaje. En cambio, prueba la formulación de patrones abstractos en el dominio visual.

Pruebe ARC-AGI usted mismo

Puede probar ARC-AGI usted mismo en el sitio web del desafío de Chollet. Respondes al desafío “dibujando” en una cuadrícula vacía, completando cada píxel con el color correcto para crear la cuadrícula correcta de píxeles de colores como “respuesta”.

Es divertido, como jugar al Sudoku o al Tetris. Lo más probable es que, incluso si no puedes articular verbalmente cuál es la regla, descubrirás rápidamente qué cuadros deben colorearse para producir la solución. La parte que lleva más tiempo es tocar cada píxel de la cuadrícula para asignar su color.

Además: Por qué el avance cuántico de Google es “realmente notable” y qué sucederá después

Una respuesta correcta produce una animación de lanzamiento de confeti en la página web y el mensaje: “Has resuelto el rompecabezas diario del premio ARC. Aún eres más (generalmente) inteligente que la IA”.

Tenga en cuenta que cuando o3 o cualquier otro modelo realiza la prueba, no actúa directamente sobre los píxeles. En cambio, el equivalente se introduce en la máquina como una matriz de filas y columnas de números que deben transformarse en una matriz diferente como respuesta. Por lo tanto, los modelos de IA no “ven” la prueba de la misma manera que lo hace un humano.

Lo que aún no está claro

A pesar de los logros de o3, es difícil hacer declaraciones definitivas sobre las capacidades de o3. Debido a que el modelo de OpenAI es de código cerrado, todavía no está claro exactamente cómo el modelo resuelve el desafío.

Al no ser parte de OpenAI, Chollet tiene que especular sobre cómo o3 está haciendo lo que está haciendo.

Conjetura que el logro es el resultado de que OpenAI cambió la “arquitectura” de o3 con respecto a la de sus predecesores. Una arquitectura en IA se refiere a la disposición y relación de los elementos funcionales que dan estructura al código.

Además: si ChatGPT produce código generado por IA para tu aplicación, ¿a quién pertenece realmente?

Chollet especula en el blog que “en el momento de la prueba, el modelo busca en el espacio de posibles Cadenas de Pensamiento (CoT) que describen los pasos necesarios para resolver la tarea, de una manera tal vez no muy diferente a la búsqueda en árbol de Monte Carlo al estilo AlphaZero”.

El término cadena de pensamiento se refiere a un enfoque cada vez más popular en la IA generativa en el que el modelo de IA puede detallar la secuencia de cálculos que realiza en busca de la respuesta final. AlphaZero es el famoso programa de inteligencia artificial de la unidad DeepMind de Google que venció a los humanos en el ajedrez en 2016. Una búsqueda de árboles de Monte Carlo es un enfoque informático que existe desde hace décadas.

En un intercambio de correo electrónico, Chollet me contó un poco más sobre su pensamiento. Le pregunté cómo llegó a esa idea de una búsqueda de cadenas de pensamiento. “Claramente, cuando el modelo está ‘pensando’ durante horas y generando millones de tokens en el proceso de resolver un único rompecabezas, debe estar haciendo algún tipo de búsqueda”, respondió Chollet.

Chollet añadió:

Es completamente obvio por las características de latencia/coste del modelo que está haciendo algo completamente diferente a la serie GPT. No es la misma arquitectura, ni nada remotamente parecido. El factor definitorio del nuevo sistema es una gran cantidad de búsquedas en el momento de la prueba. Anteriormente, 4 años de ampliación de la misma arquitectura (la serie GPT) no habían producido ningún progreso en ARC, y ahora este sistema, que claramente tiene una nueva arquitectura, está creando un cambio funcional gradual en las capacidades, por lo que la arquitectura lo es todo.

Hay una serie de advertencias aquí. OpenAI no reveló cuánto dinero se gastó en una de sus versiones de o3 para resolver ARC-AGI. Esa es una omisión significativa porque un criterio de ARC-AGI es el costo en dólares reales de usar chips GPU como proxy de la “eficiencia” del modelo de IA.

Chollet me dijo en un correo electrónico que el enfoque de o3 no equivale a un enfoque de “fuerza bruta”, pero bromeó: “Por supuesto, también se podría definir la fuerza bruta como ‘lanzar una cantidad excesiva de cómputo a un problema simple’. ‘ en cuyo caso se podría decir que es fuerza bruta”.

Además, Chollet señala que o3 fue entrenado para realizar la prueba ARC-AGI utilizando el conjunto de datos de entrenamiento de la competencia. Eso significa que aún no está claro cómo abordaría el examen una versión limpia de o3, sin preparación para el examen.

También: El generador de vídeo Sora AI de OpenAI ya está aquí: cómo probarlo

Chollet me dijo en un correo electrónico: “Será interesante ver qué puntuación obtiene el sistema base sin información relacionada con ARC, pero en cualquier caso, el hecho de que el sistema esté ajustado para ARC a través del conjunto de entrenamiento no invalida su rendimiento”. “Para eso está el conjunto de entrenamiento. Hasta ahora nadie había podido lograr puntuaciones similares, incluso después de entrenar en millones de tareas ARC generadas”.

o3 todavía falla en algunas tareas fáciles

A pesar de la incertidumbre, una cosa parece muy clara: quienes anhelan AGI se sentirán decepcionados. Chollet enfatiza que la prueba ARC-AGI es “una herramienta de investigación” y que “aprobar ARC-AGI no equivale a alcanzar AGI”.

“De hecho, no creo que o3 sea AGI todavía”, escribe Chollet en el blog ARC-AGI. “O3 todavía falla en algunas tareas muy fáciles, lo que indica diferencias fundamentales con la inteligencia humana”.

Para demostrar que todavía no estamos al nivel de inteligencia humana, Chollet señala algunos de los problemas simples en ARC-AGI que o3 no puede resolver. Uno de esos problemas implica simplemente mover un cuadrado de color en una cantidad determinada, un patrón que rápidamente se vuelve claro para un ser humano.

ejemplo-de-falla-de-arc-agi-2024

Un problema de ejemplo de ARC-AGI donde falló el modelo o3.

Premio ARCP

Chollet planea presentar una nueva versión de ARC-AGI en enero. Predice que reducirá drásticamente los resultados de o3. “Sabrás que AGI está aquí cuando el ejercicio de crear tareas que sean fáciles para los humanos comunes pero difíciles para la IA se vuelva simplemente imposible”, concluye.

Continue Reading

Noticias

Prueba de manejo del modelo Gemini-Exp-1206 de Google en análisis de datos y visualizaciones

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Uno de los últimos modelos experimentales de Google, Gemini-Exp-1206, muestra el potencial de aliviar uno de los aspectos más agotadores del trabajo de cualquier analista: lograr que sus datos y visualizaciones se sincronicen perfectamente y proporcionen una narrativa convincente, sin tener que trabajar toda la noche. .

Los analistas de inversiones, los banqueros junior y los miembros de equipos de consultoría que aspiran a puestos de socios asumen sus roles sabiendo que largas horas de trabajo, fines de semana y pasar toda la noche ocasionalmente podrían darles una ventaja interna en un ascenso.

Lo que consume gran parte de su tiempo es realizar análisis de datos avanzados y al mismo tiempo crear visualizaciones que refuercen una historia convincente. Lo que hace que esto sea más desafiante es que cada firma bancaria, fintech y consultora, como JP Morgan, McKinsey y PwC, tiene formatos y convenciones únicos para el análisis y visualización de datos.

VentureBeat entrevistó a miembros de equipos de proyectos internos cuyos empleadores habían contratado a estas empresas y las habían asignado al proyecto. Los empleados que trabajan en equipos dirigidos por consultores dijeron que producir imágenes que condensen y consoliden la enorme cantidad de datos es un desafío persistente. Uno dijo que era común que los equipos de consultores trabajaran durante la noche y hicieran un mínimo de tres o cuatro iteraciones de las visualizaciones de una presentación antes de decidirse por una y prepararla para las actualizaciones a nivel de tablero.

Un caso de uso convincente para probar el último modelo de Google

El proceso en el que confían los analistas para crear presentaciones que respalden una historia con visualizaciones y gráficos sólidos tiene tantos pasos manuales y repeticiones que resultó ser un caso de uso convincente para probar el último modelo de Google.

Al lanzar el modelo a principios de diciembre, Patrick Kane de Google escribió: “Ya sea que esté enfrentando desafíos complejos de codificación, resolviendo problemas matemáticos para proyectos escolares o personales, o brindando instrucciones detalladas de varios pasos para elaborar un plan de negocios personalizado, Gemini-Exp-1206 le ayudará a navegar tareas complejas con mayor facilidad”. Google notó el rendimiento mejorado del modelo en tareas más complejas, incluido el razonamiento matemático, la codificación y el seguimiento de una serie de instrucciones.

VentureBeat llevó el modelo Exp-1206 de Google a una prueba exhaustiva esta semana. Creamos y probamos más de 50 scripts de Python en un intento de automatizar e integrar análisis y visualizaciones intuitivas y fáciles de entender que pudieran simplificar los datos complejos que se analizan. Dado que los hiperescaladores dominan los ciclos de noticias actuales, nuestro objetivo específico era crear un análisis de un mercado tecnológico determinado y al mismo tiempo crear tablas de apoyo y gráficos avanzados.

A través de más de 50 iteraciones diferentes de scripts de Python verificados, nuestros hallazgos incluyeron:

  • Cuanto mayor es la complejidad de una solicitud de código Python, más “piensa” el modelo e intenta anticipar el resultado deseado. Exp-1206 intenta anticipar lo que se necesita a partir de un mensaje complejo determinado y variará lo que produce incluso con el más mínimo cambio de matiz en un mensaje. Vimos esto en cómo el modelo alternaría entre formatos de tipos de tablas colocadas directamente encima del gráfico de araña del análisis de mercado de hiperescalador que creamos para la prueba.
  • Obligar al modelo a intentar realizar análisis y visualización de datos complejos y producir un archivo Excel genera una hoja de cálculo con varias pestañas. Sin que nunca le pidieran una hoja de cálculo de Excel con varias pestañas, Exp-1206 creó una. El análisis tabular principal solicitado estaba en una pestaña, las visualizaciones en otra y una tabla auxiliar en la tercera.
  • Decirle al modelo que repita los datos y recomiende las 10 visualizaciones que decida que mejor se ajustan a los datos ofrece resultados beneficiosos y reveladores. Con el objetivo de reducir el tiempo que supone tener que crear tres o cuatro iteraciones de presentaciones de diapositivas antes de una revisión por parte de la junta, obligamos al modelo a producir múltiples iteraciones conceptuales de imágenes. Estos podrían limpiarse e integrarse fácilmente en una presentación, ahorrando muchas horas de trabajo manual creando diagramas en diapositivas.

Impulsando a Exp-1206 hacia tareas complejas y en capas

El objetivo de VentureBeat era ver hasta dónde se podía llevar el modelo en términos de complejidad y tareas en capas. Su desempeño en la creación, ejecución, edición y ajuste de 50 scripts de Python diferentes mostró cuán rápido el modelo intenta captar matices en el código y reaccionar de inmediato. El modelo se flexiona y se adapta según el historial de indicaciones.

El resultado de ejecutar el código Python creado con Exp-1206 en Google Colab mostró que la granularidad matizada se extendía al sombreado y la translucidez de las capas en un gráfico de araña de ocho puntos que fue diseñado para mostrar cómo se comparan seis competidores hiperescaladores. Los ocho atributos que le pedimos a Exp-1206 que identificara en todos los hiperescaladores y que anclara el gráfico de araña se mantuvieron consistentes, mientras que las representaciones gráficas variaron.

Batalla de los hiperescaladores

Elegimos los siguientes hiperescaladores para comparar en nuestra prueba: Alibaba Cloud, Amazon Web Services (AWS), Digital Realty, Equinix, Google Cloud Platform (GCP), Huawei, IBM Cloud, Meta Platforms (Facebook), Microsoft Azure, NTT Global Data. Centros, Oracle Cloud y Tencent Cloud.

A continuación, escribimos un mensaje de 11 pasos de más de 450 palabras. El objetivo era ver qué tan bien Exp-1206 puede manejar la lógica secuencial y no perder su lugar en un proceso complejo de varios pasos. (Puede leer el mensaje en el apéndice al final de este artículo).

Luego enviamos el mensaje en Google AI Studio, seleccionando el modelo Gemini Experimental 1206, como se muestra en la siguiente figura.

A continuación, copiamos el código en Google Colab y lo guardamos en un cuaderno Jupyter (Comparación de Hyperscaler – Gemini Experimental 1206.ipynb), luego ejecutamos el script de Python. El script se ejecutó sin problemas y creó tres archivos (indicados con las flechas rojas en la parte superior izquierda).

Análisis comparativo de Hyperscaler y un gráfico, en menos de un minuto

La primera serie de instrucciones en el mensaje pedía a Exp-1206 que creara un script de Python que comparara 12 hiperescaladores diferentes por su nombre de producto, características y diferenciadores únicos y ubicaciones de centros de datos. A continuación se muestra cómo resultó el archivo de Excel que se solicitó en el script. Me llevó menos de un minuto formatear la hoja de cálculo para reducirla y ajustarla a las columnas.

Hoja de cálculo de la prueba de Google Gemini-Exp-1206

La siguiente serie de comandos solicitó una tabla de los seis principales hiperescaladores comparados en la parte superior de una página y el gráfico de araña a continuación. Exp-1206 eligió por sí solo representar los datos en formato HTML, creando la siguiente página.

Gráfico de la prueba de Google Gemini-Exp-1206

La secuencia final de comandos se centró en la creación de un gráfico de araña para comparar los seis hiperescaladores principales. Le asignamos a Exp-1206 la tarea de seleccionar los ocho criterios para la comparación y completar el gráfico. Esa serie de comandos se tradujo a Python y el modelo creó el archivo y lo proporcionó en la sesión de Google Colab.

Un modelo diseñado específicamente para ahorrar tiempo a los analistas

VentureBeat ha aprendido que en su trabajo diario, los analistas continúan creando, compartiendo y ajustando bibliotecas de indicaciones para modelos de IA específicos con el objetivo de optimizar los informes, el análisis y la visualización en todos sus equipos.

Los equipos asignados a proyectos de consultoría a gran escala deben considerar cómo modelos como Gemini-Exp-1206 pueden mejorar enormemente la productividad y aliviar la necesidad de semanas laborales de más de 60 horas y noches ocasionales en vela. Una serie de indicaciones automatizadas pueden realizar el trabajo exploratorio de observar las relaciones en los datos, lo que permite a los analistas producir imágenes con mucha mayor certeza sin tener que dedicar una cantidad excesiva de tiempo a llegar allí.

Apéndice:

Prueba rápida de Google Gemini Experimental 1206

Escriba un script de Python para analizar los siguientes hiperescaladores que han anunciado una presencia de centro de datos e infraestructura global para sus plataformas y cree una tabla comparándolos que capture las diferencias significativas en cada enfoque en presencia de centro de datos e infraestructura global.

Haga que la primera columna de la tabla sea el nombre de la empresa, la segunda columna sean los nombres de cada uno de los hiperescaladores de la empresa que tienen presencia de centro de datos e infraestructura global, la tercera columna sea lo que hace que sus hiperescaladores sean únicos y una inmersión profunda en los más diferenciados. características, y la cuarta columna son las ubicaciones de los centros de datos para cada hiperescalador a nivel de ciudad, estado y país. Incluya los 12 hiperescaladores en el archivo de Excel. No hagas web scraping. Genere un archivo de Excel del resultado y formatee el texto en el archivo de Excel para que no contenga corchetes ({}), comillas (‘), asteriscos dobles (**) ni ningún código HTML para mejorar la legibilidad. Nombra el archivo de Excel, Gemini_Experimental_1206_test.xlsx.

A continuación, cree una tabla de tres columnas de ancho y siete columnas de profundidad. La primera columna se titula Hiperescalador, la segunda Características únicas y diferenciadores y la tercera, Infraestructura y ubicaciones de centros de datos. Pon en negrita los títulos de las columnas y céntralos. Los títulos de los hiperescaladores también están en negrita. Verifique dos veces para asegurarse de que el texto dentro de cada celda de esta tabla se ajuste y no pase a la siguiente celda. Ajuste la altura de cada fila para asegurarse de que todo el texto quepa en la celda deseada. Esta tabla compara Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud, Meta Platforms (Facebook), Microsoft Azure y Oracle Cloud. Centre la tabla en la parte superior de la página de resultados.

A continuación, tomemos Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud, Meta Platforms (Facebook), Microsoft Azure y Oracle Cloud y defina los ocho aspectos más diferenciadores del grupo. Utilice esos ocho aspectos diferenciadores para crear un gráfico de araña que compare estos seis hiperescaladores. Cree un único gráfico de araña grande que muestre claramente las diferencias en estos seis hiperescaladores, utilizando diferentes colores para mejorar su legibilidad y la capacidad de ver los contornos o huellas de diferentes hiperescaladores. Asegúrese de titular el análisis, Lo que más diferencia a los hiperescaladores, diciembre de 2024. Asegúrese de que la leyenda sea completamente visible y no esté encima del gráfico.

Agregue el gráfico de la araña en la parte inferior de la página. Centre el gráfico de araña debajo de la tabla en la página de salida.

Estos son los hiperescaladores que se incluirán en el script Python: Alibaba Cloud, Amazon Web Services (AWS), Digital Realty, Equinix, Google Cloud Platform (GCP), Huawei, IBM Cloud, Meta Platforms (Facebook), Microsoft Azure, NTT Global Data. Centros, Oracle Cloud, Tencent Cloud.

Continue Reading

Noticias

Implementación y evaluación de un modelo de enseñanza de pasantía quirúrgica optimizado utilizando ChatGPT | Educación Médica BMC

Published

on

Los avances tecnológicos están haciendo avanzar significativamente la educación médica. Actualmente, el desarrollo del plan de estudios médico enfatiza la mejora de los métodos de enseñanza a través de la simulación médica, la discusión de la literatura y la investigación. Existe una creciente defensa de la integración de la inteligencia artificial y las pautas clínicas en la enseñanza para cultivar mejor el razonamiento clínico y las habilidades de pensamiento lógico de los estudiantes.

Múltiples estudios han demostrado los beneficios potenciales de ChatGPT en la educación médica. Los chatbots como ChatGPT pueden ser una herramienta poderosa para mejorar la alfabetización sanitaria, especialmente entre estudiantes y jóvenes estudiantes. [6]. En primer lugar, ChatGPT ofrece acceso rápido e inmediato a amplia información médica, lo que ayuda a los estudiantes de medicina novatos a analizar datos médicos complejos. [7]. En segundo lugar, al crear escenarios y estudios de casos, ChatGPT ayuda a los estudiantes a perfeccionar y mejorar sus habilidades de planificación de diagnóstico y tratamiento, mejorando así sus capacidades de razonamiento clínico y su preparación para situaciones clínicas del mundo real. [8]. En tercer lugar, ChatGPT puede respaldar las tareas académicas respondiendo preguntas y redactando resúmenes. Su capacidad para crear esquemas y revisiones de la literatura puede agilizar la investigación médica. Además, también facilita el resumen de publicaciones relevantes y destaca hallazgos importantes, lo que ayuda a los investigadores médicos a navegar por la gran cantidad de material disponible en línea. [9]. Finalmente, ChatGPT permite el aprendizaje personalizado para los estudiantes al actuar como tutor o asistente virtual, ayudándolos con las tareas y fomentando experiencias de aprendizaje interactivas. [10].

En este estudio, ChatGPT se utilizó en cuatro funciones clave en las fases de educación médica previa, en clase y posterior a la clase. Durante la fase de preparación previa a la clase, los estudiantes pudieron consultar ChatGPT sobre cualquier problema que encontraron, lo que facilitó una comprensión inicial de conceptos, terminología y casos médicos fundamentales. En un estudio, se pudo generar una serie de imágenes a partir de texto descriptivo utilizando un modelo de aprendizaje profundo basado en redes generativas adversarias. La herramienta se utiliza en el proceso narrativo visual para facilitar el aprendizaje mejorado por la tecnología y mejorar las habilidades de razonamiento lógico. [11]. Los modelos de aprendizaje profundo basados ​​en redes generativas adversarias desempeñan un papel clave en la simulación de varios tipos de entornos de aprendizaje y ayudan a desarrollar habilidades prácticas en modelos de asistentes de enseñanza virtuales. Los resultados experimentales muestran que este modelo mejora el efecto de aprendizaje de los estudiantes y mejora su motivación y capacidad de aprendizaje. [12]. En el aula, se empleó ChatGPT para simular las interacciones con los pacientes, proporcionando una plataforma para que los estudiantes practiquen habilidades de diagnóstico y comunicación en un entorno seguro y controlado. En sus interacciones con ChatGPT, los estudiantes son libres de practicar habilidades de diagnóstico y comunicación sin los riesgos que podría representar un paciente real. Un diagnóstico falso o una falta de comunicación no tiene un impacto real en el paciente, lo que permite a los estudiantes aprender mediante prueba y error. ChatGPT está disponible y los estudiantes pueden practicar a su propio ritmo y necesidades de aprendizaje, sin depender de un tiempo y lugar específicos. Esta flexibilidad hace que el aprendizaje sea más eficiente y conveniente. ChatGPT puede simular una variedad de escenarios clínicos y características del paciente para brindar una experiencia interactiva diversa. Los estudiantes están expuestos a diferentes condiciones y antecedentes de pacientes, mejorando así su capacidad para afrontar situaciones complejas. Después de clase, los estudiantes pueden interactuar con ChatGPT individualmente o en grupos de estudio, discutiendo preguntas de práctica proporcionadas por la herramienta, abordando preguntas difíciles o desafiantes y explorando el material desde varias perspectivas. A lo largo del proceso interactivo, los estudiantes evaluaron continuamente su comprensión del material, identificaron sus debilidades y ajustaron sus estrategias de aprendizaje y áreas de enfoque de manera oportuna para enfocarse en áreas específicas para revisión y refuerzo, asegurando que se mantuvieran en el camino correcto. [13]. De manera similar, los instructores podrían utilizar ChatGPT para recopilar recursos didácticos y estudios de casos relevantes durante la fase de preparación de la lección. Al aprovechar ChatGPT, podrían mejorar la participación de los estudiantes en el aula y utilizar la herramienta después de clase para recopilar y analizar los comentarios de los estudiantes sobre el proceso de enseñanza. Además, los estudiantes podrían utilizar ChatGPT para resolver rápidamente cualquier confusión relacionada con el conocimiento profesional. Con la capacitación del modelo ChatGPT, los estudiantes de medicina y los médicos pueden mejorar su razonamiento clínico y sus habilidades de toma de decisiones, mejorando así el desempeño del análisis y diagnóstico de casos. Además, ChatGPT proporciona a los estudiantes de medicina una experiencia de aprendizaje personalizada y eficiente a través de conversaciones simuladas, tutorías inteligentes y preguntas y respuestas automatizadas, profundizando así la comprensión de los conocimientos médicos de los estudiantes. [14].

Los resultados de este estudio indican que las puntuaciones teóricas de los grupos de estudio fueron significativamente más altas que las de los grupos de control, lo que refleja mejores resultados de aprendizaje. No se observaron diferencias significativas en las puntuaciones entre los dos grupos de estudio ni entre los dos grupos de control. Esto sugiere que la aplicación de ChatGPT en los grupos de estudio resultó en una comprensión y dominio superiores del conocimiento teórico en comparación con los métodos de enseñanza tradicionales utilizados en los grupos de control.

Los resultados de satisfacción docente de este estudio indican que los estudiantes de los grupos de estudio que utilizaron ChatGPT informaron puntuaciones de satisfacción total significativamente más altas, así como mejores calificaciones en la organización del curso y los métodos de enseñanza, en comparación con los grupos de control. Las diferencias en la satisfacción con el contenido del curso y los instructores fueron relativamente menores, lo que sugiere que el uso de ChatGPT como ayuda didáctica, a través de su novedoso y atractivo formato interactivo de preguntas y respuestas, su fuerte interactividad y su enfoque estructurado, parece mejorar la participación de los estudiantes. y participación en el aprendizaje. Esto indica que ChatGPT puede fomentar eficazmente un mayor interés y promover resultados educativos. La diferencia más notable entre los métodos de enseñanza radica en la ejecución en el aula; La capacidad de ChatGPT para simular varios escenarios y realizar análisis de casos, combinada con el acceso a recursos didácticos adicionales, mejora significativamente las habilidades de aplicación clínica de los estudiantes de medicina.

La evaluación del estudio sobre el cumplimiento del aprendizaje abarcó cuatro aspectos. Los hallazgos indican que no hubo diferencias significativas entre los grupos en cuanto al establecimiento de planes de aprendizaje. Sin embargo, para los otros tres aspectos (preparación autónoma previa a la clase y revisión posterior a la clase, participación en la enseñanza en el aula y búsqueda de retroalimentación y asistencia), los grupos de estudio exhibieron calificaciones significativamente más altas en comparación con los grupos de control. En muchos estudios y análisis estadísticos, una “puntuación más alta” suele considerarse un resultado positivo, lo que significa que el grupo de estudio obtuvo mejores resultados en algo. Los indicadores de evaluación de este estudio son todos positivos y se puede considerar que una “puntuación más alta” indica un mejor desempeño del grupo de investigación, lo que es un resultado positivo. Esto sugiere que la incorporación de ChatGPT como ayuda didáctica mejora el cumplimiento del aprendizaje de los estudiantes al promover el aprendizaje activo, fomentar el aprendizaje basado en la investigación y mejorar su interés y capacidad para el aprendizaje autónomo.

Si bien las mejoras en el cumplimiento son evidentes, la profundización continua de la comprensión antes, durante y después de la clase también contribuye a mejorar el pensamiento lógico y las habilidades analíticas. En particular, el estudio encontró una tasa relativamente baja de preguntas y solicitudes de ayuda de los estudiantes, durante y después de clase. Las diferencias observadas entre los grupos de estudio y control pueden atribuirse a la capacidad de ChatGPT para ayudar a los estudiantes a superar la timidez y no juzgar los errores. La herramienta de inteligencia artificial ayuda a los estudiantes a superar las dudas, permitiéndoles hacer preguntas de forma libre y repetida sin temor a ser juzgados o interacciones negativas. Al generar materiales de aprendizaje basados ​​en el estado de aprendizaje y las necesidades de cada estudiante, ChatGPT les permite adoptar un enfoque más autónomo del aprendizaje y tener una experiencia educativa adaptada a sus preferencias. Estas interacciones facilitan la aclaración oportuna, una comprensión más profunda y el dominio del material.

ChatGPT también puede adaptar planes y materiales de aprendizaje individualizados para cada estudiante para adaptarse a los diferentes estilos y habilidades de aprendizaje dentro del aula. Este enfoque personalizado fomenta un circuito de retroalimentación positiva, mejorando las capacidades de aprendizaje de los estudiantes.

La aplicación de ChatGPT en la educación médica sigue siendo un tema de considerable debate. Si bien ChatGPT ofrece funcionalidades innovadoras y ventajas potenciales, también plantea varias preocupaciones éticas y prácticas, el potencial de uso indebido, particularmente en los ámbitos de la educación y el mundo académico. [15]. Como chatbot, ChatGPT carece de la capacidad de pensar críticamente como un ser humano, lo que limita su capacidad para interpretar y analizar información médica más allá de sus algoritmos programados. No posee el juicio ni el discernimiento necesarios para los aspectos éticos o legales de la práctica médica y puede plantear riesgos relacionados con violaciones de datos y privacidad. [16, 17].

El auge de herramientas de inteligencia artificial como ChatGPT ha llevado a la deshonestidad académica, con informes de estudiantes que utilizan la tecnología para hacer trampa en sus trabajos de ensayo. [18]. Algunas investigaciones sugieren que ChatGPT puede no ser un recurso confiable para problemas complejos que requieren habilidades y conocimientos avanzados. [19]. Además, los académicos han estado preocupados por la confiabilidad de ChatGPT como fuente creíble de información. [20]. Según muchos educadores, ChatGPT puede ser utilizado fácilmente para hacer trampa por parte de estudiantes que toman cursos de comunicación y filosofía, pero es fácil de identificar. Una preocupación creciente es que los estudiantes eventualmente perderán la capacidad de generar ideas originales y no podrán presentar argumentos adecuados para demostrar un punto. [21]. La accesibilidad tecnológica es un desafío. El uso eficaz de ChatGPT depende de la conectividad de la red y la disponibilidad del dispositivo, lo que puede resultar problemático en diferentes regiones y entre poblaciones estudiantiles específicas. Se deben desarrollar políticas para utilizar ChatGPT en diferentes entornos técnicos. [22]. Una preocupación es la posible devaluación del aprendizaje cooperativo en la educación médica, particularmente en enfoques tradicionales como ABP, CBL y TBL. La colaboración y el trabajo en equipo son cruciales en estos enfoques, y ChatGPT puede reducir involuntariamente la importancia de las interacciones entre humanos. Mantener un equilibrio entre la tecnología y las relaciones es esencial para un aprendizaje eficaz. Si bien ChatGPT mejora el ABP mediante instrucción personalizada, los educadores deben enfatizar la importancia duradera del aprendizaje basado en el paciente y el trabajo en equipo. A pesar de las capacidades de simulación y los conocimientos teóricos de ChatGPT, no puede reemplazar la experiencia práctica obtenida a través de interacciones en el mundo real, especialmente en la educación médica. Reconocer las limitaciones de los modelos es esencial para evitar una dependencia excesiva del aprendizaje por simulación. Integrar perfectamente ChatGPT en los planes de estudio existentes es un desafío que requiere que los educadores inviertan tiempo en diseñar e integrar componentes impulsados ​​por IA que se alineen con los objetivos generales de aprendizaje. [23]. Dadas estas consideraciones, es esencial utilizar ChatGPT con prudencia como herramienta auxiliar de aprendizaje, complementando en lugar de reemplazar los métodos educativos y las técnicas de investigación tradicionales, y siendo consciente de las limitaciones de ChatGPT.

Continue Reading

Trending