Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More
A year ago today, Sam Altman returned to OpenAI after being fired just five days earlier. What really happened in the boardroom? Fable, a game and AI simulation company, built its AI Sim Francisco “war game” to find out why the behind closed doors board fight turned out the way it did.
It feels a bit weird to simulate a real-life event in this way, but Fable CEO Edward Saatchi is interested in whether a different set of decisions could have led to a different outcome for this company at the center of the generative AI revolution.
The simulation pits different board members and personalities against each other in a “multi-agent competition,” where each AI player is trying to come out on top. Here’s the war game research paper being released today that came from this experiment.
The SIM-1 framework for AI decision making is basically a simulation of the five days from when Sam Altman was removed as CEO of OpenAI to when he returned.
“Simulations offer a completely new way to explore AI decision making in rich environments — including in war game situations where predicting possible outcomes can be invaluable,” said Joshua Johnson, CEO of Tree, an AI startup which partnered with Fable on this research paper, said in a statement. “These aren’t simply chatbots. These AIs need to sleep and eat, and to balance many different physical, mental and emotional goals.”
OpenAI CEO Sam Altman only comes out a winner four out of 20 simulations.
SIM-1, in part using the new reasoning model GPT4o, gives its sense of what happened behind closed doors at OpenAI between Sam and Ilya, the hidden tactics of leading players such as Satya Nadella and Marc Andreessen, and what was said by the leading players as they grappled with an unprecedented crisis in the tech industry.
“It’s interesting to find out just how unlikely it was that Sam did return,” Saatchi said in an interview with GamesBeat. “That’s why people run war games in D.C. and beyond. How likely was it that a particular event happened? Then you can base decisions around that. This scenario showed that 16 out of 20 times, Sam did not return.”
Across 20 simulations, Sam Altman’s AI returned as CEO four times — showing just how unlikely this outcome was. In other outcomes, Mira Murati, the acting CEO remained CEO and in one, SIM-1 chose Elon Musk, Altman’s rival, to become the new CEO.
The results of the OpenAI board fight simulation.
“Today, AI agents are defined by their personality. We wanted to show agents operating on decision making in a complex simulation,” said Saatchi, in a statement. “In the five days from November 17 to November 21, the world watched some of its most intelligent people — people like Satya Nadella, Sam Altman and Ilya Sutskever – forced to operate in a rapid Game of Thrones, high pressure, short timeframe scenario, where they had to use game theory and deception to come out on top. We felt this was a perfect scenario to test out SIM-1, GPT4o and Sim Francisco.”
For us, Sim Francisco has actual power and intelligence around a struggle and factions. It gives us the ability to start to think about season-long arcs of stories that come out of San Francisco, instead of just little, tiny vignettes, which is what we showed last year. It gives us the ability to kind of tell richer, more complex stories in San Francisco, or have the AI tell them for us. There are strong factional objectives so that you could plausibly start to make a Game of Thrones story.”
Fable has won a couple of Primetime Emmy Awards and it has gone through a rich history of experimental inventions with virtual reality, gaming and AI technologies. It built SIM-1 in an attempt to solve the mystery of what happened in the OpenAI boardroom fight.
How it works
Each of the 20 simulations starts with the announcement that Sam Altman has been removed as CEO. Across four turns a day, each agent has the ability to cajole, charm and manipulate their way into the top position — replacing Sam as CEO, funding his new venture, or hiring the staff of OpenAI away.
The different AI agents can choose a strategy, like deception, to try to pull ahead of the others and become anointed the new CEO.
“AI characters today are ‘nice but dull.’ We wanted to show agents that were aggressive, intelligent, able to manipulate and deceive but also confused about their own decisions and goals — like real people AI characters must be complexand contain what Jung has called ‘The Shadow,’” Saatchi said. “The five days from when Sam Altman was removed and returned to OpenAI were game theory at lightspeed.”
Each AI agent is a different character in the OpenAI drama.
He said it was like watching a season of Game of Thrones play out in five days. The world watched as highly intelligent players vied to become the most powerful person in Silicon Valley, whether by hiring the entire staff of OpenAI, becoming the new CEO of OpenAI or funding Sam and Greg in a new venture for a chance at outsize investment returns.
“It was Game of Thrones in real life, and using AI to find out both what happened behind closed doors and to project different outcomes was an amazing challenge,” Saatchi said.
In the Simulation of Sim Francisco, over the five days, agents representing tech luminaries like Sam Altman, Satya Nadella and Ilya Sutskever each have 4 turns a day, including one for sleep, and can react to each other’s behavior. An adjudicator agent — similar to a dungeon keeper — decides which agent wins each round, as well as the overall winner.
In the 20 simulations attempted, the Sam Altman agent returned just four times – the most but still only 20% of the time showing just how unlikely his return was. Across different simulations agents used different techniques to win including alliance building, direct confrontation and more passive pure information gathering. In some cases agents only gathered information and avoided taking any aggressive actions. In one case Mira Murati became the permanent CEO while allowing other agents to aggressively undermine each other.
Elon Musk came out a winner one out of 20 times.
Different agents were given different goals appropriate to their role. For example, Dario Amodei, the CEO of Anthropic, balanced a desire to recruit for Anthropic, taking the opportunity to fundraise, to push for his vision of safety, as well as decide whether to aim to become the new CEO of a combined entity.
The interesting part of the simulation is that the LLM knows who the different players are, given that they’re all relatively famous people. It can guess how they will behave in a given situation, and what could unfold turn by turn as they try to outwit each other in a boardroom fight.
“It’s like a video game in that turn by turn, they’re making choices across different axes, and then they’re reacting to each other,” Saatchi said. “A choice that someone makes in turn seven can lead others to react in turn eight. There’s an adjudicator agent, who is like a dungeon master. That agent decides who won each round and who’s ahead, and then who decides at the end, wins as the most effective agent in the war game.”
Humans have what we call internally “the shadow,” or the other side of themselves and their personalities. The characters can feature aggression, paranoia, ambition, deception and more. When you mix together a bunch of different personalities, you can get a variety of outcomes in the simulations.
“We noticed LLM design isn’t based on decision making, which is really important for gaming. It’s based more on personality. And if you want to have a strategy game, nobody really cares about your personality. They care about your decision making. How are you under pressure? What have you done over the last 20 years that would give you a feel for what they might do in the future?”
Are simulations the future of gaming?
Demis Hassabis was a game simulation maker before doing AI.
Saatchi thinks that AI agents acting within simulations are the future of gaming.
“We are building on the shoulders of giants with Demis’ work on Republic The Revolution, Joon Park’s Generative Agents paper and the recent work of Altera in Minecraft” said Saatchi said.
“Our theory is that the future of games and storytelling is simulations. If you wanted to build both The Simpsons game and The Simpsons TV show, you would, in the future, build Springfield, and that would then generate for you episodes of The Simpsons that would generate for you games and places to explore within Springfield as a game.”
He added, “You can tell many different stories within tribulations, once you get those simulations properly working. And we’ve got an alpha where people are uploading themselves to San Francisco as characters, telling stories, telling their own story.”
And he said, “You would build Springfield, and then you can guide what might happen in Springfield and say what might happen in Springfield, or you could just let it generate itself. It’s a pretty big mind shift of how entertainment, games and shows will be made in the future.”
Saatchi noted that AI researcher Noam Brown did a fascinating experiment with the game Diplomacy. He and other researchers “obtained a dataset of 125,261 games of Diplomacy played online at web Diplomacy.net.” Of those, 40,408 games contained dialogue, with a total of 12,901,662 messages exchanged between players. Their aim was to train a human-level AI agent, capable of strategic reasoning, by playing games of Diplomacy.
Diplomacy teaches us about agent strategy.
“We were really inspired by how he did that. He had countries and we were adding into the mix different personalities with particular positions. We liked the idea of a very compressed timeline,” where the whole scenario would play out quickly and over and over again, Saatchi said.
There has been a rich history of work in simulations in both the games industry and beyond. Demis Hassabis, who founded Deepmind (acquired by Google) and who recently won the Nobel Prize in Chemistry 2024 for computational protein design, actually began as a video game AI designer. Hassabis worked extensively with Peter Molyneux on several games which include simulation elements such as Theme Park, Black & White and Syndicate.
Hassabis also started his own company to make Republic: The Revolution. It’s a political simulation game in which the player leads a political faction to overthrow the government of a fictional totalitarian country in Eastern Europe, using diplomacy, subterfuge, and violence. According to Hassabis, Republic: The Revolution charts the whole of a revolutionary power struggle from beginning to end.
Your job is to kind of take over the Soviet Republic as either a union boss or a politician or a police officer or a journalist, and it’s got full day-night cycles. It raises the question of how you have a 3D world where agents live and whether proximity to each other plays a role.
For the Sim Francisco OpenAI project, it illustrated the potential for a power struggle against AIs.
Saatchi said the above examples shows how game technology often serves as the breeding ground for radical new ideas and as a jumping off ground for AI research. For example, one of the leading engineers on Deepmind AlphaFold started their career as an AI programmer on The Sims.
Richard Evans’ GDC talk on The Sims 3 — the researcher went from programming AI for The Sims to Deepmind in a reversal of Demis Hassabis’ journey from games to founding Deepmind.
Demis Hassabis’ Republic: The Revolution.
Evans GDC Talk, Modeling Individual Personalities in The Sims 3, is very influential talk. He went on to join Deepmind after working on The Sims. The gaming world and the AI world have significant overlap that is a potential area for further academic research, Saatchi said.
One of Saatchi’s options is to let players loose with the simulations, creating their own, and then uploading the stories that are told through the simulations.
Saatchi has done some other experiments with AI-generated South Park episodes and AI characters battling each other in a Westworld setting.
“It felt like six seasons of Game of Thrones in five days, because it was the most powerful position in the most powerful industry in the world,” Saatchi said. “There was also a lot of faith that this person would be guiding us into a new era of super intelligence. You could say it wsa the most important person in the history of the planet.”
President Trump and the Taiwan invasion
How will President Trump fare in a showdown with China over Taiwan?
Next, Fable intends to run a Sim Washington DC-based simulation around a future President Trump’s responses to a Chinese invasion of Taiwan.
As a next project to test out SIM-1’s decision making framework, Fable intends to test out a one-week period of buildup and conflict between Taiwan, China and the United States under President Donald Trump.
Fable has interviewed several Pentagon war games organizers to get a feeling for the strengths and weaknesses of the current Taiwan scenario.
Fable is building agents representing Chinese leader Xi Jingping, Cai Qi (first ranked secretary to the secretariat of the Communist Party), Chinese defense leader Dong Jun, Chinese premier Li Qiang, Taiwan’s leader Lai Ching-Te, Japan’s leader Shigeru Ishiba, UK prime minister Keir Starmer, French President Emmanuel Macron, Russia’s Vladimir Putin, North Korean leader Kim Jong Un and Elon Musk.
With this set of characters, the simulation would determine whether the war would happen and how would each major player act during such a crisis. All of these characters are known personalities.
“It allows you to see how powerful AI has become at like projecting outcomes,” Saatchi said. “It moves us out of this boring world of dumping an LLM into an NPC. You can talk to the tab and keeper for 40 hours. Nobody wants to do that. What we want is highly sophisticated, aggressive agents that we could play against, but also that we can, like, watch and understand what’s going on in that world.”
Many of the war game simulations are aimed at how to avoid a war, perhaps through forming alliances or other maneuvers that drive up the cost of war.
“We think the more realistic we can make our AIs, the more entertaining they will be,” Saatchi said.
VB Daily
Stay in the know! Get the latest news in your inbox daily
By subscribing, you agree to VentureBeat’s Terms of Service.
Thanks for subscribing. Check out more VB newsletters here.
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Como Openai introdujo lo que todos los demás llaman a los agentes SDK, admitió que usar las capacidades existentes de manera unida “puede ser un desafío, a menudo requerir una amplia iteración rápida y una lógica de orquestación personalizada sin suficiente visibilidad o soporte incorporado”. En resumen, el uso de agentes necesitaba bastante programación, y esa no es la historia que cualquier proveedor de IA quiere vender.
Para devolver la narración a la idea de que gastar dinero en IA eventualmente erradicará la necesidad de un costoso desarrollo de software humano, o de hecho humanos, Openai está implementando una estructura para permitir una orquestación simple.
Primero resumamos cuáles son los problemas. Las tareas de agente implican al menos dos procesos que funcionan individualmente, con una tarea que comienza otra y con los resultados que se informan a un proceso de informes finales al final, con suerte en momentos similares. Los “resultados” también deben estar en un formato conocido (por ejemplo, una oración, un archivo, una imagen, una base de datos), pero esto no es fácil de generalizar. Incluso el camino feliz es un buen equilibrio: lidiar y explicar errores es otro problema. Todos estos son problemas de orquestación familiares. Pero como industria, nadie cree que la orquestación es un problema “resuelto”. Heavy LLM Uso también agrega la necesidad de controlar el uso del token; Las fichas son el nuevo oro negro.
Para comenzar el viaje de orquestación, OpenAI ha agregado algunas API nuevas a su plataforma central. En particular, ha introducido un básico Respuestas API Eso limpia algunos de los supuestos hechos por los agentes de chat.
En el sentido más simple, esto puede capturar la salida:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
aporte=“Escribe una historia de una oración a la hora de dormir sobre un unicornio”.
)
imprimir(respuesta.output_text)
Puede analizar imágenes en este nivel; y agregue una de las herramientas a continuación. Cuidado: es probable que los nuevos modelos dejen de admitir la API de finalización de chat existente: muchas características nuevas solo admiten la API de nuevas respuestas.
Veamos estas nuevas herramientas. Búsqueda web Permite que un agente rastree la web para tareas simples. El breve script de Python a continuación muestra cómo se le da a un modelo la opción de usar esta herramienta:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
herramientas=[{“type”:“web_search_preview”}],
aporte=“¿Qué historia de Kubernetes apareció hoy?”
)
imprimir(respuesta.output_text)
El reesponse También contendrá referencias a cualquier artículo citado. Estas consultas se pueden definir por tiempo o ubicación. También puede sopesar el costo, la calidad y la latencia.
Búsqueda de archivos es efectivamente una tienda vectorial alojada. Usted indica que la búsqueda de archivos es una herramienta disponible e identifica su tienda vectorial:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O-Mini”,
aporte=“¿Qué es la investigación profunda de Operai?”,
herramientas=[{
“type”:“file_search”,
“vector_store_ids”:[“<vector_store_id>”]
}]
)
imprimir(respuesta)
Si es necesario, un agente lo usará. La respuesta citará los documentos utilizados en la respuesta. Puede limitar las respuestas a controlar el uso y la latencia del token. Hay límites para el tamaño total del archivo, los archivos buscados y el tamaño de la tienda Vector. Los tipos de documentos que se pueden buscar (por tipo de archivo) parecen extensos.
El Uso de la computadora La herramienta es interesante:
“La herramienta de uso de la computadora funciona en un bucle continuo. Envía acciones de la computadora, como click(x,y) o type(text)que su código se ejecuta en un entorno de computadora o navegador y luego devuelve capturas de pantalla de los resultados al modelo “.
Parece que está fingiendo ser selenio, la herramienta que usamos para probar las interfaces web a través de scripts. Obviamente, esto reconoce que todavía no estamos en el AIS solo hablando con otro mundo de AIS todavía. Pero al menos es un guiño a la idea de que no todo es un sitio web.
Probar agentes
Usaré los ejemplos de Python (definitivamente es un producto de Python-First, pero los documentos también muestran el script equivalente de JavaScript). Hemos ejecutado Python varias veces en mis publicaciones, pero en mi nuevo MacBook, solo verificaré que tenga Python instalado:
El resultado fue que python@3.13 3.13.2 ya está instalado y actualizado.
Mi pip también está allí (como PIP3).
Así que ahora puedo instalar los paquetes Operai:
Ah, recuerdo esto. Necesitamos un virtual:
Luego activo el virtual:
Y estamos listos para proceder.
Ahora, por supuesto, deberá usar y establecer un OpenAI_API_KEY. Me creé una nueva clave en la página de mi cuenta y establecí el opanai_api_key (no te preocupes, es mucho más largo que esto):
Y tienes que asegurarte de tener un poco de oro negro, me refiero a las fichas. He presentado algunas de las formas de evitar pagar OpenAi usando modelos locales, pero para esta publicación asumiré que está pagando por los tokens.
Como es tradicional, comencemos con una verificación de que los conceptos básicos anteriores están en su lugar a través de una simple solicitud con lo siguiente Haiku.py:
deagentes importarAgente,Corredor
agente=Agente(nombre=“Asistente”,instrucciones=“Eres un asistente útil”)
resultado=Corredor.run_sync(agente,“Escribe un haiku sobre la recursión en la programación”.)
imprimir(resultado.final_output)
Y obtenemos una buena respuesta:
(Un buen haiku tradicional debería mencionar las temporadas que pasan, pero no es por eso que estamos aquí). Por lo general, también verificaría mi equilibrio, pero no ha sido perturbado.
Nido de agentes
Como puede ver, ya hemos usado un agente. No es que interviniera de ninguna manera, pero llegaremos a eso.
OpenAI ha simplificado el proceso de orquestación con algunos términos simples. A manos libres es una introducción al mundo asincrónico, donde algo tiene que esperar algo más. Desglosemos su ejemplo, que ejecutaré como hola.py:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
deagentes importarAgente,Corredor
importarasincio
español_agent=Agente(
nombre=“Agente español”,
instrucciones=“Solo hablas español”.,
)
inglés_agent=Agente(
nombre=“Agente inglés”,
instrucciones=“Solo hablas inglés”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Esto muestra dos cosas básicas. En primer lugar, la configuración de roles para los agentes en inglés simple a los que estamos acostumbrados, pero también estableciendo la interacción entre los agentes. El agente de transferencia mantiene una lista de agentes disponibles para responder respuestas.
Ahora, esto implica que mi solicitud alemana no obtendrá la respuesta correcta. Entonces, si cambiamos la consulta dentro hola.py:
…
asíncrata defensorprincipal():
resultado=esperar Corredor.correr(triaje_agent,
aporte=“Wie Geht es Ihnen?”)
…
Y ejecutar nuestro nido de agentes:
Entonces, aunque OpenAi no tuvo problemas para traducir alemán, el agente de triaje no tenía un agente de idiomas relevante a la mano, por lo que hizo el trabajo y respondió en inglés. Es poco probable que nuestros clientes alemanes estén demasiado molestos, pero podemos mejorar.
Entonces, si finalmente agregamos el agente alemán y lo ponemos en la lista de transferencias a hola.py:
…
German_agent=Agente(
nombre=“Agente alemán”,
instrucciones=“Solo hablas alemán”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Podemos intentar esa solicitud alemana nuevamente:
Esta vez se llama al agente correcto y responde. Nuestros clientes alemanes ahora están más felices: ¡Ausgezeichnet! No olvides que mi terminal de urdimbre también te está dando los tiempos para estas respuestas.
Conclusión
Primero observamos el bucle de respuesta, que puede incluir más llamadas de herramientas. Si la respuesta tiene una transferencia, establecemos el agente en el nuevo agente y volvemos al inicio.
Hay opciones de registro debajo de esto, pero como de costumbre, OpenAI está dando una API de alto nivel en esta etapa, lo que debería fomentar la experimentación sin la necesidad de involucrarse demasiado con la orquestación.
Si bien he introducido agentes aquí, en publicaciones posteriores, veré más partes del SDK.
Vía Sahin Ahmed
Youtube.com/thenewstack
La tecnología se mueve rápidamente, no te pierdas un episodio. Suscríbase a nuestro canal de YouTube para transmitir todos nuestros podcasts, entrevistas, demostraciones y más.
David ha sido un desarrollador de software profesional con sede en Londres con Oracle Corp. y British Telecom, y un consultor que ayuda a los equipos a trabajar de una manera más ágil. Escribió un libro sobre diseño de la interfaz de usuario y ha estado escribiendo artículos técnicos desde entonces …
Géminis todavía está lejos de ser perfecto, pero lentamente se cultiva en mí. Específicamente, sin embargo, es el modo de conversación en vivo el que más me atrae porque es todo lo que siempre quise del Asistente de Google, y algo más. Puedo hablar con la IA, interrumpirlo, pedirle que lo repita, corregirlo y pedir más detalles, todo en una conversación muy natural y relajada.
Pero si eres alguien como yo y estás acostumbrado a hablar tres idiomas al mismo tiempo, a menudo en la misma oración, y tu cerebro funciona así de forma predeterminada, lo que hace que sea difícil mantener una conversación completa en un idioma, entonces probablemente hayas estado mordiendo en los bits, esperando que Gemini vive para apoyar varios idiomas. Con la caída del píxel de marzo, la función ahora está aquí, y oh. Mi. Cielos. ¿Es mucho mejor de lo que esperaba o qué?
¿Has intentado hablar con Gemini en varios idiomas?
2 votos
Más intuitivo y confiable que el varios idiomas de Google Assistant
Cuando Google lo anunció, pensé que el soporte de varios idiomas en Géminis Live significaba que podría tener una conversación en inglés y luego otra conversación en francés sin cambiar manualmente el idioma. Este ha sido el caso con el Asistente de Google durante años, excepto que tuve que configurar manualmente exactamente qué idiomas quería usar en el Asistente, y nunca funcionó tan bien como se esperaba.
Con Gemini Live, como puede ver en el video de arriba, ese no es el caso:
No tuve que elegir el idioma cada vez; Acabo de comenzar una nueva charla, y me entendió.
Fuera de la caja, funciona con todos los idiomas compatibles con Live. No tengo que limitarme a solo dos como con el asistente.
Aunque tuve algunos silencios incómodos de Géminis y tuve que repetir algunas oraciones, la tasa de éxito de la IA para reconocer diferentes idiomas ha superado el 90% en mis pruebas, y eso es más de lo que el asistente podría soñar.
Hablo tres idiomas casi nativamente (inglés, francés, árabe) y puedo entender y hablar (con un acento grueso) algunos español, italiano y alemán. Entonces, puse esto a prueba e probé diferentes chats con Gemini en vivo en todo esto. Me consiguió todos mis acentos nativos y gruesos cada vez.
El único con el que tuve problemas es, por extraño que parezca, mi lengua materna árabe. Podría hablar en árabe formal escrito, pero eso no es algo natural para mí. En cambio, cuando hablo, está en el dialecto libanés informal. Géminis, sin embargo, parece hablar una mezcla entre un dialecto levantino informal no descriptivo y el árabe formal escrito. Culpo esto a los millones de dialectos regionales y cuán complicados y ampliamente diferentes son, pero incluso entonces, la tasa de éxito fue más alta de lo que esperaba o había experimentado con Asistente en árabe.
Todo esto ya fue una victoria, pero luego decidí avanzar más. Y ahí es donde Gemini vive en sentido figurado me voló los calcetines.
¡Las habilidades de varios idiomas de Gemini Live funcionan a mitad de chat y a mitad de oración!
Rita El Khoury / Android Authority
Como tenía una experiencia tan positiva con diferentes chats en diferentes idiomas, quería ver si Gemini podía manejarme cambiando idiomas a mitad de chat. Así que comencé una simple discusión en inglés, luego cambié al francés, árabe, español, italiano, alemán, y me siguió a través de los seis, nunca sudando. Puedes verlo en el video a continuación.
Mirando hacia atrás en la transcripción, pude ver que realmente entendía cada palabra que dije en cada idioma y cambió sus respuestas en consecuencia.
Pero no pude parar allí, ¿verdad? Ahora, tenía curiosidad por ver si podía manejar el cambio a mitad de la oración. Así que comencé una oración en inglés, la terminé en francés y esperé con la respiración con la respuesta. ¡Y lo consiguió! Probé para otro lado. ¡Éxito!
Honestamente, en este punto, estaba gritando internamente: “¡Hechicería!” Después de vivir con el Asistente de Google durante 10 años y ver que lucha saber la diferencia entre “Bonjour” y “Bone Joke”, había perdido toda esperanza en los algoritmos de reconocimiento de voz y AIS. Pero Géminis Live restauró esa fe. Compruébalo en acción:
Comencé a mezclarme en árabe y español y seguí cambiando a mitad de la oración, y obtuvo todos ellos. A menudo respondía en el primer idioma con el que comencé mi oración, pero su respuesta era una prueba de que entendía toda la pregunta, no solo la primera parte. Incluso abrió mi herida sobre la última falla de Randal Kolo Muani en la última Copa Mundial de la FIFA y me burló de mí sobre la excelente salvación de Emiliano Martínez. Oh, bueno.
Rita El Khoury / Android Authority
Más allá de eso, quería intentar desestabilizar a Gemini en vivo aún más y llevarlo a su límite. Entonces, comencé a hablar como normalmente lo hago con mi familia y amigos, mezclando inglés, francés y árabe en la misma oración: la verdadera forma de hablar libanese, por así decirlo. Para mi sorpresa absoluta de mordisco, recibió a nuestro famoso “Hola, Kifak, CA VA?” Y siguió bien (aparte de la incómoda limitación de acento árabe que mencioné anteriormente).
¿Una palabra en un idioma diferente en medio de toda una oración en inglés? Ningún problema
Finalmente, simplemente fui por el ejemplo más extremo que se me ocurrió: hablar una oración completa en un idioma pero poner una palabra en otra. Para ser justos, así es como hablo con mi esposo el 90% del tiempo. Si estamos usando inglés, algunas palabras nos eludirán, y en el medio de nuestro flujo, solo usamos la palabra francesa o árabe. O si hablamos árabe o francés, intercalamos algunas palabras en los otros idiomas sin pensarlo mucho. Es cómo nuestros cerebros funcionan normalmente, y es por eso que nunca me siento muy cómodo hablando con asistentes de voz porque tengo que forzarme a usar un idioma. Pero Géminis Live lo consiguió.
Le pregunté: “Se llama una planta habaq En árabe, ¿qué es eso en inglés? Me dijo que es Basilio. cibuleta ¿en Inglés?” Dijo cebollino. roquettes“Mientras rodaba mi R, entendía que estaba hablando de hojas de cohetes/rúcula. Y finalmente, cuando pregunté qué”Jozt El Tib“Estaba en inglés, dijo correctamente que es una nuez moscada (sí, estaba en mi cocina e intentaba obtener ideas para las pruebas de Géminis).
Rita El Khoury / Android Authority
Mirando hacia atrás en el registro de chat durante todo esto, la transcripción no es 100% precisa o en el idioma correcto. Está “Haba” y “Rocket” y “Rose to Tibe”, mientras que “Ciboulette” ni siquiera está escrito de ninguna manera. Pero la respuesta demuestra que Gemini Live recibió la palabra correcta en el idioma correcto cada vez.
Y estos no son solo casos extremos. Todas son preguntas que realmente me he hecho o usé el traductor de Google en un momento de mi vida. No puedes creer cuántas veces quiero buscar recetas con calabacín y todo lo que mi cerebro quiere escribir es “calabacín recetas “. Así que solía traducirlo primero, recuerda que es calabacín, luego regresa para hacer mi búsqueda. sfouf (Curcuma Cake) Receta con 3e2de safra (curcuma) y busque lugares para comprar granos para la recomendación de mi padre ba2le (Verde) Planta sin sudar.
Regresé a mis pruebas e intenté las mismas preguntas con el modo de chat de voz de Chatgpt. Mientras consiguió los franceses roquettes y cibuletafalló con el árabe habaq y Jozt El Tibdiciéndome que son fenogrecidos y cominos. Oof. No querría fenogreco en mi pesto.
Después de todas estas pruebas, no puedo, pero no puedo inclinar mi sombrero al equipo de Géminis por clavar el soporte de varios idiomas y hacer que funcione tan impresionantemente bien desde el primer momento. Cada vez que lo empujaba más, me sorprendía ver que todavía me mantenía al día. Este es el primer agente de IA que me entiende de la forma en que hablo naturalmente, por lo que ya no tengo que recordar la palabra exacta en inglés si quiero continuar una conversación con ella. Todavía tengo que transformar un poco mi acento árabe para que me entienda, pero ese es un pequeño precio a pagar por un agente de voz de IA tan versátil. Sin embargo, una vez que comprenda el dialecto libanés como es, será una perfección absoluta.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.