Connect with us

Noticias

Sam Altman Reveals This Prior Flaw In OpenAI Advanced AI o1 During ChatGPT Pro Announcement But Nobody Seemed To Widely Notice

Published

on

In today’s column, I examine a hidden flaw in OpenAI’s advanced o1 AI model that Sam Altman revealed during the recent “12 Days Of OpenAI” video-streamed ChatGPT Pro announcement. His acknowledgment of the flaw was not especially noted in the media since he covered it quite nonchalantly in a subtle hand-waving fashion and claimed too that it was now fixed. Whether the flaw or some contend “inconvenience” was even worthy of consideration is another intriguing facet that gives pause for thought about the current state of AI and how far or close we are to the attainment of artificial general intelligence (AGI).

Let’s talk about it.

This analysis of an innovative proposition is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my analysis of the key features and vital advancements in the OpenAI o1 AI model, see the link here and the link here, covering various aspects such as chain-of-thought reasoning, reinforcement learning, and the like.

How Humans Respond To Fellow Humans

Before I delve into the meat and potatoes of the matter, a brief foundational-setting treatise might be in order.

When you converse with a fellow human, you normally expect them to timely respond as based on the nature of the conversation. For example, if you say “hello” to someone, the odds are that you expect them to respond rather quickly with a dutiful reply such as hello, hey, howdy, etc. There shouldn’t be much of a delay in such a perfunctory response. It’s a no-brainer, as they say.

On the other hand, if you ask someone to explain the meaning of life, the odds are that any seriously studious response will start after the person has ostensibly put their thoughts into order. They would presumably give in-depth consideration to the nature of human existence, including our place in the universe, and otherwise assemble a well-thought-out answer. This assumes that the question was asked in all seriousness and that the respondent is aiming to reply in all seriousness.

The gist is that the time to respond will tend to depend on the proffered remark or question.

A presented simple comment or remark involving no weighty question or arduous heaviness ought to get a fast response. The responding person doesn’t need to engage in much mental exertion in such instances. You get a near-immediate response. If the presented utterance has more substance to it, we will reasonably allow time for the other person to undertake a judicious reflective moment. A delay in responding is perfectly fine and fully expected in that case.

That is the usual cadence of human-to-human discourse.

Off-Cadence Timing Of Advanced o1 AI

For those that had perchance made use of the OpenAI o1 AI advanced model, you might have noticed something that was outside of the cadence that I just mentioned. The human-to-AI cadence bordered on being curious and possibly annoying.

The deal was this.

You were suitably forewarned when using o1 that to get the more in-depth answers there would be more extended time after entering a prompt and before getting a response from the AI. Wait time went up. This has to do with the internally added capabilities of advanced AI functionality including chain-of-thought reasoning, reinforcement learning, and so on, see my explanation at the link here. The response latency time had significantly increased.

Whereas in earlier and less advanced generative AI and LLMs we had all gotten used to near instantaneous responses, by and large, there was a willingness to wait longer to get more deeply mined responses via advanced o1 AI. That seems like a fair tradeoff. People will wait longer if they can get better answers. They won’t wait longer if the answers aren’t going to be better than when the response time was quicker.

You can think of this speed-of-response as akin to playing chess. The opening move of a chess game is usually like a flash. Each side quickly makes their initial move and countermove. Later in the game, the time to respond is bound to slow down as each player puts concentrated thoughts into the matter. Just about everyone experiences that expected cadence when playing chess.

What was o1 doing in terms of cadence?

Aha, you might have noticed that when you gave o1 a simple prompt, including even merely saying hello, the AI took about as much time to respond as when answering an extremely complex question. In other words, the response time was roughly the same for the simplest of prompts and the most complicated and deep-diving fully answered responses.

It was a puzzling phenomenon and didn’t conform to any reasonable human-to-AI experience expected cadence.

In coarser language, that dog don’t hunt.

Examples Of What This Cadence Was Like

As an illustrative scenario, consider two prompts, one that ought to be quickly responded to and the other that fairly we would allow more time to see a reply.

First, a simple prompt that ought to lead to a simple and quick response.

  • My entered prompt: “Hi.”
  • Generative AI response: “Hello, how can I help you?”

The time between the prompt and the response was about 10 seconds.

Next, I’ll try a beefy prompt.

  • My entered prompt: “Tell me how all of existence first began, covering all known theories.”
  • Generative AI response: “Here is a summary of all available theories on the topic…”

The time for the AI to generate a response to that beefier question was about 12 seconds.

I think we can agree that the first and extremely simple prompt should have had a response time of just a few seconds at most. The response time shouldn’t be nearly the same as when responding to the question about all of human existence. Yet, it was.

Something is clearly amiss.

But you probably wouldn’t have complained since the aspect that you could get in-depth answers was worth the irritating and eyebrow-raising length of wait time for the simpler prompts. I dare say most users just shrugged their shoulders and figured it was somehow supposed to work that way.

Sam Altman Mentioned That This Has Been Fixed

During the ChatGPT Pro announcement, Sam Altman brought up the somewhat sticky matter and noted that the issue had been fixed. Thus, you presumably should henceforth expect a fast response time to simple prompts. And, as already reasonably expected, only prompts requiring greater intensity of computational effort ought to take up longer response times.

That’s how the world is supposed to work. The universe has been placed back into proper balance. Hooray, yet another problem solved.

Few seemed to catch onto his offhand commentary on the topic. Media coverage pretty much skipped past that portion and went straight to the more exciting pronouncements. The whole thing about the response times was likely perceived as a non-issue and not worthy of talking about.

Well, for reasons I’m about to unpack, I think it is worthy to ruminate on.

Turns out there is a lot more to this than perhaps meets the eye. It is a veritable gold mine of intertwining considerations about the nature of contemporary AI and the future of AI. That being said, I certainly don’t want to make a mountain out of a molehill, but nor should we let this opportune moment pass without closely inspecting the gold nuggets that were fortuitously revealed.

Go down the rabbit hole with me, if you please.

Possible Ways In Which This Happened

Let’s take a moment to examine various ways in which the off-balance cadence in the human-to-AI interaction might have arisen. OpenAI considers their AI to be proprietary and they don’t reveal the innermost secrets, ergo I’ll have to put on my AI-analysis detective hat and do some outside-the-box sleuthing.

First, the easiest way to explain things is that an AI maker might decide to hold back all responses until some timer says to release the response.

Why do this?

A rationalization is that the AI maker wants all responses to come out roughly on the same cadence. For example, even if a response has been computationally determined in say 2 seconds, the AI is instructed to keep the response at bay until the time reaches say 10 seconds.

I think you can see how this works out to a seemingly even cadence. A tough-to-answer query might require 12 entire seconds. The response wasn’t ready until after the timer was done. That’s fine. At that juncture, you show the user the response. Only when a response takes less than the time limit will the AI hold back the response.

In the end, the user would get used to seeing all responses arising at above 10 seconds and fall into a mental haze that no matter what happens, they will need to wait at least that long to see a response. Boom, the user is essentially being behaviorally trained to accept that responses will take that threshold of time. They don’t know they are being trained. Nothing tips them to this ruse.

Best of all, from the AI maker’s perspective, no one will get upset about timing since nothing ever happens sooner than the hidden limit anyway. Elegant and the users are never cognizant of the under-the-hood trickery.

The Gig Won’t Last And Questions Will Be Asked

The danger for the AI maker comes to the fore when software sophisticates start to question the delays. Any proficient software developer or AI specialist would right away be suspicious that the simplest of entries is causing lengthy latency. It’s not a good look. Insiders begin to ask what’s up with that.

If a fake time limit is being used, that’s often frowned upon by insiders who would shame those developers undertaking such an unseemly route. There isn’t anything wrong per se. It is more of a considered low-brow or discreditable act. Just not part of the virtuous coding sense of ethos.

I am going to cross out that culprit and move toward a presumably more likely suspect.

It goes like this.

I refer to this other possibility as the gauntlet walk.

A brief tale will suffice as illumination. Imagine that you went to the DMV to get up-to-date license tags for your car. In theory, if all the paperwork is already done, all you need to do is show your ID and they will hand you the tags. Some modernized DMVs have an automated kiosk in the lobby that dispenses tags so that you can just scan your ID and viola, you instantly get your tags and walk right out the door. Happy face.

Sadly, some DMVs are not yet modernized. They treat all requests the same and make you wait as though you were there to have surgery done. You check in at one window. They tell you to wait over there. Your name is called, and you go to a pre-processing window. The agent then tells you to wait in a different spot until your name is once again called. At the next processing window, they do some of the paperwork but not all of it. On and on this goes.

The upshot is that no matter what your request consists of you are by-gosh going to walk the full gauntlet. Tough luck to you. Live with it.

A generative AI app or large language model (LLM) could be devised similarly. No matter what the prompt contains, an entire gauntlet of steps is going to occur. Everything must endure all the steps. Period, end of story.

In that case, you would typically have responses arriving outbound at roughly the same time. This could vary somewhat because the internal machinery such as the chain of thought mechanism is going to pass through the tokens without having to do nearly the same amount of computational work, see my explanation at the link here. Nonetheless, time is consumed even when the content is being merely shunted along.

That could account for the simplest of prompts taking much longer than we expect them to take.

How It Happens Is A Worthy Question

Your immediate thought might be why in the heck would a generative AI app or LLM be devised to treat all prompts as though they must walk the full gauntlet. This doesn’t seem to pass the smell test. It would seem obvious that a fast path like at Disneyland should be available for prompts that don’t need the whole kit-and-kaboodle.

Well, I suppose you could say the same about the DMV. Here’s what I mean. Most DMVs were probably set up without much concern toward allowing multiple paths. The overall design takes a lot more contemplation and building time to provide sensibly shaped forked paths. If you are in a rush to get a DMV underway, you come up with a single path that covers all the bases. Therefore, everyone is covered. Making everyone wait the same is okay because at least you know that nothing will get lost along the way.

Sure, people coming in the door who have trivial or simple requests will need to wait as long as those with the most complicated of requests, but that’s not something you need to worry about upfront. Later, if people start carping about the lack of speediness, okay, you then try to rejigger the process to allow for multiple paths.

The same might be said for when trying to get advanced AI out the door. You are likely more interested in making sure that the byzantine and innovative advanced capabilities work properly, versus whether some prompts ought to get the greased skids.

A twist to that is the idea that you are probably more worried about maximum latencies than you would be about minimums. This stands to reason. Your effort to optimize is going to focus on trying to keep the AI from running endlessly to generate a response. People will only wait so long to get a response, even for highly complex prompts. Put your elbow grease toward the upper bounds versus the lower bounds.

The Tough Call On Categorizing Prompts

An equally tough consideration is exactly how you determine which prompts are suitably deserving of quick responses.

Well, maybe you just count the number of words in the prompt.

A prompt with just one word would seem unlikely to be worthy of the full gauntlet. Let it pass through or maybe skip some steps. This though doesn’t quite bear out. A prompt with a handful of words might be easy-peasy, while another prompt with the same number of words might be a doozy. Keep in mind that prompts consist of everyday natural language, which is semantically ambiguous, and you can open a can of worms with just a scant number of words.

This is not like sorting apples or widgets.

All in all, a prudent categorization in this context cannot do something blindly such as purely relying on the number of words. The meaning of the prompt comes into the big picture. A five-word prompt that requires little computational analysis is likely only discerned as a small chore by determining what the prompt is all about.

Note that this means you indubitably have to do some amount of initial processing to gauge what the prompt constitutes. Once you’ve got that first blush done, you can have the AI flow the prompt through the other elements with a kind of flag that indicates this is a fly-by-night request, i.e., work on it quickly and move it along.

You could also establish a separate line of machinery for the short ones, but that’s probably more costly and not something you can concoct overnight. DMVs often kept the same arrangement inside the customer-facing processing center and merely adjusted by allowing the skipping of windows. Eventually, newer avenues were developed such as the use of automated kiosks.

Time will tell in the case of AI.

There is a wide variety of highly technical techniques underlying prompt-assessment and routing issues, which I will be covering in detail in later postings so keep your eyes peeled. Some of the techniques are:

  • (1) Prompt classification and routing
  • (2) Multi-tier model architecture
  • (3) Dynamic attention mechanisms
  • (4) Adaptive token processing
  • (5) Caching and pre-built responses
  • (6) Heuristic cutoffs for contextual expansion
  • (7) Model layer pruning on demand

I realize that seems relatively arcane. Admittedly, it’s one of those inside baseball topics that only heads-down AI researchers and developers are likely to care about. It is a decidedly niche aspect of generative AI and LLMs. In the same breath, we can likely agree that it is an important arena since people aren’t likely to use models that make them wait for simple prompts.

AI makers that seek widespread adoption of their AI wares need to give due consideration to the gauntlet walk problem.

Put On Your Thinking Cap And Get To Work

A few final thoughts before finishing up.

The prompt-assessment task is crucial in an additional fashion. The AI could inadvertently arrive at false positives and false negatives. Here’s what that foretells. Suppose the AI assesses that a prompt is simple and opts to therefore avoid full processing, but then the reality is that the answer produced is insufficient and the AI misclassified the prompt.

Oops, a user gets a shallow answer.

They are irked.

The other side of the coin is not pretty either. Suppose the AI assesses that a prompt should get the full treatment, shampoo and conditioner included, but essentially wastes time and computational resources such that the prompt should have been categorized as simple. Oops, the user waited longer than they should have, plus they paid for computational resources they needn’t have consumed.

Awkward.

Overall, prompt-assessment must strive for the Goldilocks principle. Do not be too cold or too hot. Aim to avoid false positives and false negatives. It is a dicey dilemma and well worth a lot more AI research and development.

My final comment is about the implications associated with striving for artificial general intelligence (AGI). AGI is considered the aspirational goal of all those pursuing advances in AI. The belief is that with hard work we can get AI to be on par with human intelligence, see my in-depth analysis of this at the link here.

How do the prompt-assessment issue and the vaunted gauntlet walk relate to AGI?

Get yourself ready for a mind-bending reason.

AGI Ought To Know Better

Efforts to get modern-day AI to respond appropriately such that simple prompts get quick response times while hefty prompts take time to produce are currently being devised by humans. AI researchers and developers go into the code and make changes. They design and redesign the processing gauntlet. And so on.

It seems that any AGI worth its salt would be able to figure this out on its own.

Do you see what I mean?

An AGI would presumably gauge that there is no need to put a lot of computational mulling toward simple prompts. Most humans would do the same. Humans interacting with fellow humans would discern that waiting a long time to respond is going to be perceived as an unusual cadence when in discourse covering simple matters. Humans would undoubtedly self-adjust, assuming they have the mental capacity to do so.

In short, if we are just a stone’s throw away from attaining AGI, why can’t AI figure this out on its own? The lack of AI being able to self-adjust and self-reflect is perhaps a telltale sign. The said-to-be sign is that our current era of AI is not on the precipice of becoming AGI.

Boom, drop the mic.

Get yourself a glass of fine wine and find a quiet place to reflect on that contentious contention. When digging into it, you’ll need to decide if it is a simple prompt or a hard one, and judge how fast you think you can respond to it. Yes, indeed, humans are generally good at that kind of mental gymnastics.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Prueba de manejo del modelo Gemini-Exp-1206 de Google en análisis de datos y visualizaciones

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Uno de los últimos modelos experimentales de Google, Gemini-Exp-1206, muestra el potencial de aliviar uno de los aspectos más agotadores del trabajo de cualquier analista: lograr que sus datos y visualizaciones se sincronicen perfectamente y proporcionen una narrativa convincente, sin tener que trabajar toda la noche. .

Los analistas de inversiones, los banqueros junior y los miembros de equipos de consultoría que aspiran a puestos de socios asumen sus roles sabiendo que largas horas de trabajo, fines de semana y pasar toda la noche ocasionalmente podrían darles una ventaja interna en un ascenso.

Lo que consume gran parte de su tiempo es realizar análisis de datos avanzados y al mismo tiempo crear visualizaciones que refuercen una historia convincente. Lo que hace que esto sea más desafiante es que cada firma bancaria, fintech y consultora, como JP Morgan, McKinsey y PwC, tiene formatos y convenciones únicos para el análisis y visualización de datos.

VentureBeat entrevistó a miembros de equipos de proyectos internos cuyos empleadores habían contratado a estas empresas y las habían asignado al proyecto. Los empleados que trabajan en equipos dirigidos por consultores dijeron que producir imágenes que condensen y consoliden la enorme cantidad de datos es un desafío persistente. Uno dijo que era común que los equipos de consultores trabajaran durante la noche y hicieran un mínimo de tres o cuatro iteraciones de las visualizaciones de una presentación antes de decidirse por una y prepararla para las actualizaciones a nivel de tablero.

Un caso de uso convincente para probar el último modelo de Google

El proceso en el que confían los analistas para crear presentaciones que respalden una historia con visualizaciones y gráficos sólidos tiene tantos pasos manuales y repeticiones que resultó ser un caso de uso convincente para probar el último modelo de Google.

Al lanzar el modelo a principios de diciembre, Patrick Kane de Google escribió: “Ya sea que esté enfrentando desafíos complejos de codificación, resolviendo problemas matemáticos para proyectos escolares o personales, o brindando instrucciones detalladas de varios pasos para elaborar un plan de negocios personalizado, Gemini-Exp-1206 le ayudará a navegar tareas complejas con mayor facilidad”. Google notó el rendimiento mejorado del modelo en tareas más complejas, incluido el razonamiento matemático, la codificación y el seguimiento de una serie de instrucciones.

VentureBeat llevó el modelo Exp-1206 de Google a una prueba exhaustiva esta semana. Creamos y probamos más de 50 scripts de Python en un intento de automatizar e integrar análisis y visualizaciones intuitivas y fáciles de entender que pudieran simplificar los datos complejos que se analizan. Dado que los hiperescaladores dominan los ciclos de noticias actuales, nuestro objetivo específico era crear un análisis de un mercado tecnológico determinado y al mismo tiempo crear tablas de apoyo y gráficos avanzados.

A través de más de 50 iteraciones diferentes de scripts de Python verificados, nuestros hallazgos incluyeron:

  • Cuanto mayor es la complejidad de una solicitud de código Python, más “piensa” el modelo e intenta anticipar el resultado deseado. Exp-1206 intenta anticipar lo que se necesita a partir de un mensaje complejo determinado y variará lo que produce incluso con el más mínimo cambio de matiz en un mensaje. Vimos esto en cómo el modelo alternaría entre formatos de tipos de tablas colocadas directamente encima del gráfico de araña del análisis de mercado de hiperescalador que creamos para la prueba.
  • Obligar al modelo a intentar realizar análisis y visualización de datos complejos y producir un archivo Excel genera una hoja de cálculo con varias pestañas. Sin que nunca le pidieran una hoja de cálculo de Excel con varias pestañas, Exp-1206 creó una. El análisis tabular principal solicitado estaba en una pestaña, las visualizaciones en otra y una tabla auxiliar en la tercera.
  • Decirle al modelo que repita los datos y recomiende las 10 visualizaciones que decida que mejor se ajustan a los datos ofrece resultados beneficiosos y reveladores. Con el objetivo de reducir el tiempo que supone tener que crear tres o cuatro iteraciones de presentaciones de diapositivas antes de una revisión por parte de la junta, obligamos al modelo a producir múltiples iteraciones conceptuales de imágenes. Estos podrían limpiarse e integrarse fácilmente en una presentación, ahorrando muchas horas de trabajo manual creando diagramas en diapositivas.

Impulsando a Exp-1206 hacia tareas complejas y en capas

El objetivo de VentureBeat era ver hasta dónde se podía llevar el modelo en términos de complejidad y tareas en capas. Su desempeño en la creación, ejecución, edición y ajuste de 50 scripts de Python diferentes mostró cuán rápido el modelo intenta captar matices en el código y reaccionar de inmediato. El modelo se flexiona y se adapta según el historial de indicaciones.

El resultado de ejecutar el código Python creado con Exp-1206 en Google Colab mostró que la granularidad matizada se extendía al sombreado y la translucidez de las capas en un gráfico de araña de ocho puntos que fue diseñado para mostrar cómo se comparan seis competidores hiperescaladores. Los ocho atributos que le pedimos a Exp-1206 que identificara en todos los hiperescaladores y que anclara el gráfico de araña se mantuvieron consistentes, mientras que las representaciones gráficas variaron.

Batalla de los hiperescaladores

Elegimos los siguientes hiperescaladores para comparar en nuestra prueba: Alibaba Cloud, Amazon Web Services (AWS), Digital Realty, Equinix, Google Cloud Platform (GCP), Huawei, IBM Cloud, Meta Platforms (Facebook), Microsoft Azure, NTT Global Data. Centros, Oracle Cloud y Tencent Cloud.

A continuación, escribimos un mensaje de 11 pasos de más de 450 palabras. El objetivo era ver qué tan bien Exp-1206 puede manejar la lógica secuencial y no perder su lugar en un proceso complejo de varios pasos. (Puede leer el mensaje en el apéndice al final de este artículo).

Luego enviamos el mensaje en Google AI Studio, seleccionando el modelo Gemini Experimental 1206, como se muestra en la siguiente figura.

A continuación, copiamos el código en Google Colab y lo guardamos en un cuaderno Jupyter (Comparación de Hyperscaler – Gemini Experimental 1206.ipynb), luego ejecutamos el script de Python. El script se ejecutó sin problemas y creó tres archivos (indicados con las flechas rojas en la parte superior izquierda).

Análisis comparativo de Hyperscaler y un gráfico, en menos de un minuto

La primera serie de instrucciones en el mensaje pedía a Exp-1206 que creara un script de Python que comparara 12 hiperescaladores diferentes por su nombre de producto, características y diferenciadores únicos y ubicaciones de centros de datos. A continuación se muestra cómo resultó el archivo de Excel que se solicitó en el script. Me llevó menos de un minuto formatear la hoja de cálculo para reducirla y ajustarla a las columnas.

Hoja de cálculo de la prueba de Google Gemini-Exp-1206

La siguiente serie de comandos solicitó una tabla de los seis principales hiperescaladores comparados en la parte superior de una página y el gráfico de araña a continuación. Exp-1206 eligió por sí solo representar los datos en formato HTML, creando la siguiente página.

Gráfico de la prueba de Google Gemini-Exp-1206

La secuencia final de comandos se centró en la creación de un gráfico de araña para comparar los seis hiperescaladores principales. Le asignamos a Exp-1206 la tarea de seleccionar los ocho criterios para la comparación y completar el gráfico. Esa serie de comandos se tradujo a Python y el modelo creó el archivo y lo proporcionó en la sesión de Google Colab.

Un modelo diseñado específicamente para ahorrar tiempo a los analistas

VentureBeat ha aprendido que en su trabajo diario, los analistas continúan creando, compartiendo y ajustando bibliotecas de indicaciones para modelos de IA específicos con el objetivo de optimizar los informes, el análisis y la visualización en todos sus equipos.

Los equipos asignados a proyectos de consultoría a gran escala deben considerar cómo modelos como Gemini-Exp-1206 pueden mejorar enormemente la productividad y aliviar la necesidad de semanas laborales de más de 60 horas y noches ocasionales en vela. Una serie de indicaciones automatizadas pueden realizar el trabajo exploratorio de observar las relaciones en los datos, lo que permite a los analistas producir imágenes con mucha mayor certeza sin tener que dedicar una cantidad excesiva de tiempo a llegar allí.

Apéndice:

Prueba rápida de Google Gemini Experimental 1206

Escriba un script de Python para analizar los siguientes hiperescaladores que han anunciado una presencia de centro de datos e infraestructura global para sus plataformas y cree una tabla comparándolos que capture las diferencias significativas en cada enfoque en presencia de centro de datos e infraestructura global.

Haga que la primera columna de la tabla sea el nombre de la empresa, la segunda columna sean los nombres de cada uno de los hiperescaladores de la empresa que tienen presencia de centro de datos e infraestructura global, la tercera columna sea lo que hace que sus hiperescaladores sean únicos y una inmersión profunda en los más diferenciados. características, y la cuarta columna son las ubicaciones de los centros de datos para cada hiperescalador a nivel de ciudad, estado y país. Incluya los 12 hiperescaladores en el archivo de Excel. No hagas web scraping. Genere un archivo de Excel del resultado y formatee el texto en el archivo de Excel para que no contenga corchetes ({}), comillas (‘), asteriscos dobles (**) ni ningún código HTML para mejorar la legibilidad. Nombra el archivo de Excel, Gemini_Experimental_1206_test.xlsx.

A continuación, cree una tabla de tres columnas de ancho y siete columnas de profundidad. La primera columna se titula Hiperescalador, la segunda Características únicas y diferenciadores y la tercera, Infraestructura y ubicaciones de centros de datos. Pon en negrita los títulos de las columnas y céntralos. Los títulos de los hiperescaladores también están en negrita. Verifique dos veces para asegurarse de que el texto dentro de cada celda de esta tabla se ajuste y no pase a la siguiente celda. Ajuste la altura de cada fila para asegurarse de que todo el texto quepa en la celda deseada. Esta tabla compara Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud, Meta Platforms (Facebook), Microsoft Azure y Oracle Cloud. Centre la tabla en la parte superior de la página de resultados.

A continuación, tomemos Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud, Meta Platforms (Facebook), Microsoft Azure y Oracle Cloud y defina los ocho aspectos más diferenciadores del grupo. Utilice esos ocho aspectos diferenciadores para crear un gráfico de araña que compare estos seis hiperescaladores. Cree un único gráfico de araña grande que muestre claramente las diferencias en estos seis hiperescaladores, utilizando diferentes colores para mejorar su legibilidad y la capacidad de ver los contornos o huellas de diferentes hiperescaladores. Asegúrese de titular el análisis, Lo que más diferencia a los hiperescaladores, diciembre de 2024. Asegúrese de que la leyenda sea completamente visible y no esté encima del gráfico.

Agregue el gráfico de la araña en la parte inferior de la página. Centre el gráfico de araña debajo de la tabla en la página de salida.

Estos son los hiperescaladores que se incluirán en el script Python: Alibaba Cloud, Amazon Web Services (AWS), Digital Realty, Equinix, Google Cloud Platform (GCP), Huawei, IBM Cloud, Meta Platforms (Facebook), Microsoft Azure, NTT Global Data. Centros, Oracle Cloud, Tencent Cloud.

Continue Reading

Noticias

Implementación y evaluación de un modelo de enseñanza de pasantía quirúrgica optimizado utilizando ChatGPT | Educación Médica BMC

Published

on

Los avances tecnológicos están haciendo avanzar significativamente la educación médica. Actualmente, el desarrollo del plan de estudios médico enfatiza la mejora de los métodos de enseñanza a través de la simulación médica, la discusión de la literatura y la investigación. Existe una creciente defensa de la integración de la inteligencia artificial y las pautas clínicas en la enseñanza para cultivar mejor el razonamiento clínico y las habilidades de pensamiento lógico de los estudiantes.

Múltiples estudios han demostrado los beneficios potenciales de ChatGPT en la educación médica. Los chatbots como ChatGPT pueden ser una herramienta poderosa para mejorar la alfabetización sanitaria, especialmente entre estudiantes y jóvenes estudiantes. [6]. En primer lugar, ChatGPT ofrece acceso rápido e inmediato a amplia información médica, lo que ayuda a los estudiantes de medicina novatos a analizar datos médicos complejos. [7]. En segundo lugar, al crear escenarios y estudios de casos, ChatGPT ayuda a los estudiantes a perfeccionar y mejorar sus habilidades de planificación de diagnóstico y tratamiento, mejorando así sus capacidades de razonamiento clínico y su preparación para situaciones clínicas del mundo real. [8]. En tercer lugar, ChatGPT puede respaldar las tareas académicas respondiendo preguntas y redactando resúmenes. Su capacidad para crear esquemas y revisiones de la literatura puede agilizar la investigación médica. Además, también facilita el resumen de publicaciones relevantes y destaca hallazgos importantes, lo que ayuda a los investigadores médicos a navegar por la gran cantidad de material disponible en línea. [9]. Finalmente, ChatGPT permite el aprendizaje personalizado para los estudiantes al actuar como tutor o asistente virtual, ayudándolos con las tareas y fomentando experiencias de aprendizaje interactivas. [10].

En este estudio, ChatGPT se utilizó en cuatro funciones clave en las fases de educación médica previa, en clase y posterior a la clase. Durante la fase de preparación previa a la clase, los estudiantes pudieron consultar ChatGPT sobre cualquier problema que encontraron, lo que facilitó una comprensión inicial de conceptos, terminología y casos médicos fundamentales. En un estudio, se pudo generar una serie de imágenes a partir de texto descriptivo utilizando un modelo de aprendizaje profundo basado en redes generativas adversarias. La herramienta se utiliza en el proceso narrativo visual para facilitar el aprendizaje mejorado por la tecnología y mejorar las habilidades de razonamiento lógico. [11]. Los modelos de aprendizaje profundo basados ​​en redes generativas adversarias desempeñan un papel clave en la simulación de varios tipos de entornos de aprendizaje y ayudan a desarrollar habilidades prácticas en modelos de asistentes de enseñanza virtuales. Los resultados experimentales muestran que este modelo mejora el efecto de aprendizaje de los estudiantes y mejora su motivación y capacidad de aprendizaje. [12]. En el aula, se empleó ChatGPT para simular las interacciones con los pacientes, proporcionando una plataforma para que los estudiantes practiquen habilidades de diagnóstico y comunicación en un entorno seguro y controlado. En sus interacciones con ChatGPT, los estudiantes son libres de practicar habilidades de diagnóstico y comunicación sin los riesgos que podría representar un paciente real. Un diagnóstico falso o una falta de comunicación no tiene un impacto real en el paciente, lo que permite a los estudiantes aprender mediante prueba y error. ChatGPT está disponible y los estudiantes pueden practicar a su propio ritmo y necesidades de aprendizaje, sin depender de un tiempo y lugar específicos. Esta flexibilidad hace que el aprendizaje sea más eficiente y conveniente. ChatGPT puede simular una variedad de escenarios clínicos y características del paciente para brindar una experiencia interactiva diversa. Los estudiantes están expuestos a diferentes condiciones y antecedentes de pacientes, mejorando así su capacidad para afrontar situaciones complejas. Después de clase, los estudiantes pueden interactuar con ChatGPT individualmente o en grupos de estudio, discutiendo preguntas de práctica proporcionadas por la herramienta, abordando preguntas difíciles o desafiantes y explorando el material desde varias perspectivas. A lo largo del proceso interactivo, los estudiantes evaluaron continuamente su comprensión del material, identificaron sus debilidades y ajustaron sus estrategias de aprendizaje y áreas de enfoque de manera oportuna para enfocarse en áreas específicas para revisión y refuerzo, asegurando que se mantuvieran en el camino correcto. [13]. De manera similar, los instructores podrían utilizar ChatGPT para recopilar recursos didácticos y estudios de casos relevantes durante la fase de preparación de la lección. Al aprovechar ChatGPT, podrían mejorar la participación de los estudiantes en el aula y utilizar la herramienta después de clase para recopilar y analizar los comentarios de los estudiantes sobre el proceso de enseñanza. Además, los estudiantes podrían utilizar ChatGPT para resolver rápidamente cualquier confusión relacionada con el conocimiento profesional. Con la capacitación del modelo ChatGPT, los estudiantes de medicina y los médicos pueden mejorar su razonamiento clínico y sus habilidades de toma de decisiones, mejorando así el desempeño del análisis y diagnóstico de casos. Además, ChatGPT proporciona a los estudiantes de medicina una experiencia de aprendizaje personalizada y eficiente a través de conversaciones simuladas, tutorías inteligentes y preguntas y respuestas automatizadas, profundizando así la comprensión de los conocimientos médicos de los estudiantes. [14].

Los resultados de este estudio indican que las puntuaciones teóricas de los grupos de estudio fueron significativamente más altas que las de los grupos de control, lo que refleja mejores resultados de aprendizaje. No se observaron diferencias significativas en las puntuaciones entre los dos grupos de estudio ni entre los dos grupos de control. Esto sugiere que la aplicación de ChatGPT en los grupos de estudio resultó en una comprensión y dominio superiores del conocimiento teórico en comparación con los métodos de enseñanza tradicionales utilizados en los grupos de control.

Los resultados de satisfacción docente de este estudio indican que los estudiantes de los grupos de estudio que utilizaron ChatGPT informaron puntuaciones de satisfacción total significativamente más altas, así como mejores calificaciones en la organización del curso y los métodos de enseñanza, en comparación con los grupos de control. Las diferencias en la satisfacción con el contenido del curso y los instructores fueron relativamente menores, lo que sugiere que el uso de ChatGPT como ayuda didáctica, a través de su novedoso y atractivo formato interactivo de preguntas y respuestas, su fuerte interactividad y su enfoque estructurado, parece mejorar la participación de los estudiantes. y participación en el aprendizaje. Esto indica que ChatGPT puede fomentar eficazmente un mayor interés y promover resultados educativos. La diferencia más notable entre los métodos de enseñanza radica en la ejecución en el aula; La capacidad de ChatGPT para simular varios escenarios y realizar análisis de casos, combinada con el acceso a recursos didácticos adicionales, mejora significativamente las habilidades de aplicación clínica de los estudiantes de medicina.

La evaluación del estudio sobre el cumplimiento del aprendizaje abarcó cuatro aspectos. Los hallazgos indican que no hubo diferencias significativas entre los grupos en cuanto al establecimiento de planes de aprendizaje. Sin embargo, para los otros tres aspectos (preparación autónoma previa a la clase y revisión posterior a la clase, participación en la enseñanza en el aula y búsqueda de retroalimentación y asistencia), los grupos de estudio exhibieron calificaciones significativamente más altas en comparación con los grupos de control. En muchos estudios y análisis estadísticos, una “puntuación más alta” suele considerarse un resultado positivo, lo que significa que el grupo de estudio obtuvo mejores resultados en algo. Los indicadores de evaluación de este estudio son todos positivos y se puede considerar que una “puntuación más alta” indica un mejor desempeño del grupo de investigación, lo que es un resultado positivo. Esto sugiere que la incorporación de ChatGPT como ayuda didáctica mejora el cumplimiento del aprendizaje de los estudiantes al promover el aprendizaje activo, fomentar el aprendizaje basado en la investigación y mejorar su interés y capacidad para el aprendizaje autónomo.

Si bien las mejoras en el cumplimiento son evidentes, la profundización continua de la comprensión antes, durante y después de la clase también contribuye a mejorar el pensamiento lógico y las habilidades analíticas. En particular, el estudio encontró una tasa relativamente baja de preguntas y solicitudes de ayuda de los estudiantes, durante y después de clase. Las diferencias observadas entre los grupos de estudio y control pueden atribuirse a la capacidad de ChatGPT para ayudar a los estudiantes a superar la timidez y no juzgar los errores. La herramienta de inteligencia artificial ayuda a los estudiantes a superar las dudas, permitiéndoles hacer preguntas de forma libre y repetida sin temor a ser juzgados o interacciones negativas. Al generar materiales de aprendizaje basados ​​en el estado de aprendizaje y las necesidades de cada estudiante, ChatGPT les permite adoptar un enfoque más autónomo del aprendizaje y tener una experiencia educativa adaptada a sus preferencias. Estas interacciones facilitan la aclaración oportuna, una comprensión más profunda y el dominio del material.

ChatGPT también puede adaptar planes y materiales de aprendizaje individualizados para cada estudiante para adaptarse a los diferentes estilos y habilidades de aprendizaje dentro del aula. Este enfoque personalizado fomenta un circuito de retroalimentación positiva, mejorando las capacidades de aprendizaje de los estudiantes.

La aplicación de ChatGPT en la educación médica sigue siendo un tema de considerable debate. Si bien ChatGPT ofrece funcionalidades innovadoras y ventajas potenciales, también plantea varias preocupaciones éticas y prácticas, el potencial de uso indebido, particularmente en los ámbitos de la educación y el mundo académico. [15]. Como chatbot, ChatGPT carece de la capacidad de pensar críticamente como un ser humano, lo que limita su capacidad para interpretar y analizar información médica más allá de sus algoritmos programados. No posee el juicio ni el discernimiento necesarios para los aspectos éticos o legales de la práctica médica y puede plantear riesgos relacionados con violaciones de datos y privacidad. [16, 17].

El auge de herramientas de inteligencia artificial como ChatGPT ha llevado a la deshonestidad académica, con informes de estudiantes que utilizan la tecnología para hacer trampa en sus trabajos de ensayo. [18]. Algunas investigaciones sugieren que ChatGPT puede no ser un recurso confiable para problemas complejos que requieren habilidades y conocimientos avanzados. [19]. Además, los académicos han estado preocupados por la confiabilidad de ChatGPT como fuente creíble de información. [20]. Según muchos educadores, ChatGPT puede ser utilizado fácilmente para hacer trampa por parte de estudiantes que toman cursos de comunicación y filosofía, pero es fácil de identificar. Una preocupación creciente es que los estudiantes eventualmente perderán la capacidad de generar ideas originales y no podrán presentar argumentos adecuados para demostrar un punto. [21]. La accesibilidad tecnológica es un desafío. El uso eficaz de ChatGPT depende de la conectividad de la red y la disponibilidad del dispositivo, lo que puede resultar problemático en diferentes regiones y entre poblaciones estudiantiles específicas. Se deben desarrollar políticas para utilizar ChatGPT en diferentes entornos técnicos. [22]. Una preocupación es la posible devaluación del aprendizaje cooperativo en la educación médica, particularmente en enfoques tradicionales como ABP, CBL y TBL. La colaboración y el trabajo en equipo son cruciales en estos enfoques, y ChatGPT puede reducir involuntariamente la importancia de las interacciones entre humanos. Mantener un equilibrio entre la tecnología y las relaciones es esencial para un aprendizaje eficaz. Si bien ChatGPT mejora el ABP mediante instrucción personalizada, los educadores deben enfatizar la importancia duradera del aprendizaje basado en el paciente y el trabajo en equipo. A pesar de las capacidades de simulación y los conocimientos teóricos de ChatGPT, no puede reemplazar la experiencia práctica obtenida a través de interacciones en el mundo real, especialmente en la educación médica. Reconocer las limitaciones de los modelos es esencial para evitar una dependencia excesiva del aprendizaje por simulación. Integrar perfectamente ChatGPT en los planes de estudio existentes es un desafío que requiere que los educadores inviertan tiempo en diseñar e integrar componentes impulsados ​​por IA que se alineen con los objetivos generales de aprendizaje. [23]. Dadas estas consideraciones, es esencial utilizar ChatGPT con prudencia como herramienta auxiliar de aprendizaje, complementando en lugar de reemplazar los métodos educativos y las técnicas de investigación tradicionales, y siendo consciente de las limitaciones de ChatGPT.

Continue Reading

Noticias

OpenAI de Musk y Warren chocan para dirigir el futuro de la gobernanza de la IA

Published

on

Un doble enfrentamiento (Elon Musk versus OpenAI y Musk versus la senadora Elizabeth Warren (demócrata por Massachusetts)) pone de relieve cuestiones cruciales sobre la combinación de propósitos organizacionales y el equilibrio del poder público y privado.

Musk está demandando a OpenAI, que él cofundó, alegando que su reorganización de una entidad sin fines de lucro a una con fines de lucro traiciona su misión original de garantizar que la IA beneficie a la humanidad.

Mientras tanto, Warren ha expresado su preocupación por la posible superposición de roles de Musk como empresario tecnológico (que resulta ser propietario de la mayoría de X.AI Corp., un competidor de OpenAI) y futuro funcionario gubernamental. Warren instó al presidente electo Donald Trump en una carta del 16 de diciembre a aplicar estrictamente un escrutinio de conflictos de intereses a Musk.

La forma en que se desarrollen estas dos confrontaciones dará forma a nuestro futuro tecnológico.

‘Franken-Gorgon’ de OpenAI

La demanda de Musk apunta a la matriz sin fines de lucro, OpenAI Inc., y esencialmente a todos los demás involucrados en la creación de una subsidiaria con ganancias limitadas, OpenAI LP. El llamado modelo híbrido permitió a los inversores de la filial obtener un retorno de la inversión de hasta 100 veces. Cualquier beneficio restante fluyó hacia la matriz. Musk sostiene que este cambio prioriza las ganancias sobre el bien público, convirtiendo a OpenAI en lo que él llama un Frankenstein.

Musk modificó su denuncia en noviembre para incluir acusaciones de que OpenAI Inc. se estaba reorganizando para convertirse en una corporación con fines de lucro en toda regla. En palabras de Musk (o de sus abogados), OpenAI pasó “de una organización benéfica exenta de impuestos a una gorgona con fines de lucro y que paraliza el mercado por valor de 157 mil millones de dólares, y en sólo ocho años”.

Dado que no existe una ley anti-Franken-Gorgon, las afirmaciones de Musk son una mezcla de supuestas violaciones de la ley antimonopolio, la ley de fideicomisos caritativos, la ley de agencia, fraude e incluso extorsión. Aunque Musk cita las promesas que le hizo Altman, no plantea un reclamo por incumplimiento de contrato.

OpenAI respondió el 13 de diciembre que el modelo de beneficio limitado es una solución innovadora que le permite competir con otras empresas de tecnología sin dejar de ser fiel a su misión. También argumentó que Musk carece de legitimación activa para demandar.

El modelo OpenAI plantea dudas sobre la transparencia y la gobernanza. ¿Puede servir a dos amos (su misión y sus inversores) sin comprometer a uno por el otro? Nadie ha descubierto cómo hacer que este tipo de teoría de las partes interesadas funcione en la práctica. Un objetivo a menudo es consumido por el otro, razón por la cual no existe una forma legal convencional de estructurar una llamada entidad híbrida.

Confusión del modelo híbrido

El modelo híbrido de OpenAI se hace eco de la reciente aparición de corporaciones de beneficio público, que están diseñadas para perseguir tanto ganancias como fines públicos. A diferencia de las corporaciones tradicionales, las PBC están obligadas por ley a considerar el impacto de sus decisiones en la sociedad y el medio ambiente, no sólo en los accionistas.

Esta estructura proporciona un modelo potencial para que organizaciones como OpenAI alineen la innovación con la responsabilidad. “Potencial” es la palabra clave aquí, porque la ley del PBC no contempla rendimientos máximos sobre la inversión.

Si bien el modelo de beneficio limitado es innovador, subraya la necesidad de marcos legales más claros para regir las entidades híbridas. Los formuladores de políticas deberían explorar la posibilidad de adaptar los principios del PBC para abordar los desafíos únicos que plantean la IA y otras industrias de alto riesgo. Quizás algún día los modelos de beneficio limitado puedan convertirse en una forma estándar.

Dilema de doble rol

Warren ha cuestionado públicamente si el doble papel de Musk como empresario privado de IA y copresidente del propuesto Departamento de Eficiencia Gubernamental crearía conflictos de intereses. Ha pedido estándares éticos más estrictos, particularmente dada la influencia de Musk sobre las políticas que afectan directamente sus empresas. Básicamente, ella respondió a su queja de que OpenAI no es ético devolviéndole la acusación.

Pero que los multimillonarios asesoren o participen en el gobierno no es un fenómeno nuevo. Desde la defensa de políticas impulsadas por la filantropía de Andrew Carnegie en el siglo XIX hasta el papel de Warren Buffett en el asesoramiento de políticas financieras durante la crisis económica de 2008, los líderes empresariales ricos a menudo han dado forma a las políticas públicas. La participación de Musk es parte de una larga tradición de aprovechar la experiencia del sector privado para la gobernanza pública.

Dicho esto, hay mucho en juego en la era de la IA. Como asesor gubernamental y empresario con intereses creados en el desarrollo de la IA, Musk debe afrontar este doble papel con cuidado. La transparencia y la rendición de cuentas son esenciales para mantener la confianza pública, especialmente cuando los límites entre la influencia privada y la responsabilidad pública se vuelven borrosos.

Debido a que Musk se está moviendo hacia lo que equivale a una casa de cristal de la atención de los medios, parece advertir Warren, tal vez no debería tirar piedras.

El futuro de la gobernanza de la IA

La disputa entre Musk y OpenAI es más que una batalla legal: es un caso de prueba de cómo gobernamos las organizaciones impulsadas por una misión en la era de la IA.

Los modelos híbridos, como la estructura Franken-Gorgon de OpenAI, desafían las leyes corporativas y sin fines de lucro existentes, lo que refuerza la necesidad de juntas directivas fuertes e independientes, actualizaciones regulatorias y una conducta ética superior a la junta. Las entidades híbridas necesitan tales juntas para garantizar que la misión siga siendo la prioridad.

La matriz sin fines de lucro de OpenAI ha enfrentado críticas por no brindar una supervisión suficiente de su subsidiaria con fines de lucro, lo que destaca la necesidad de estructuras de gobernanza más claras. En la medida en que los miembros de la junta directiva de la empresa sean beneficiarios financieros de los esfuerzos con fines de lucro, se encuentran en una posición sesgada al tomar decisiones sobre la misión sin fines de lucro.

Los formuladores de políticas deben reconocer que las leyes actuales no fueron diseñadas para híbridos. Adaptar los principios del PBC o crear marcos específicos para modelos híbridos podría proporcionar la claridad y la responsabilidad necesarias en la industria de la IA.

La confianza es clave. La transparencia es fundamental. Organizaciones como OpenAI deben comunicar claramente sus objetivos y estructuras para mantener la confianza con los donantes, los inversores y el público. Sin transparencia, los híbridos corren el riesgo de erosionar la confianza de la que dependen para operar con eficacia.

A medida que evoluciona el panorama de la IA, las decisiones que tomemos ahora guiarán no solo el futuro de la tecnología sino también los valores que sustentan su desarrollo. La historia de OpenAI es un microcosmos de estos desafíos: un recordatorio de que equilibrar las ganancias y el propósito tiene que ver tanto con la gobernanza como con la visión.

El caso es Musk v. Altman, ND Cal., No. 4:24-cv-04722, respuesta a la moción de orden judicial preliminar de los demandantes 13/12/24.

Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, ni de sus propietarios.

Información del autor

Anat Alon-Beck es profesora asociada de derecho en la Facultad de Derecho de la Universidad Case Western Reserve.

Seth Oranburg es profesor de la Facultad de Derecho de la Universidad de New Hampshire y director del Programa de Organizaciones, Negocios y Mercados del Instituto Liberal Clásico de la Universidad de Nueva York.

Escríbanos: Pautas para el autor

Continue Reading

Trending