Noticias
OpenAI Newly Released AI Product ‘Swarm’ Swiftly Brings Agentic AI Into The Real World

Here’s what you need to know about the latest in agentic AI and the release of OpenAI’s new Swarm.
getty
In today’s column, I examine the newly announced OpenAI product called Swarm and explain how this significant unveiling brings the emerging realm of agentic AI into tangible reality.
There is increasing momentum regarding agentic AI as the future next-stretch for the advent of advances in generative AI and large language models or LLMs. Anyone interested in where AI is going ought to be up-to-speed about Swarm since it comes from OpenAI, the 600-pound gorilla or big whale when it comes to advances in generative AI.
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
Agentic AI Fundamentals
Before I do the unpacking of Swarm, I want to make sure we are all on the same page about agentic AI. I’ll provide the keystones of interest. For my detailed coverage of agentic AI, see the link here.
Here’s the deal.
Imagine that you are using generative AI to plan a vacation trip. You would customarily log into your generative AI account such as making use of the widely popular ChatGPT by OpenAI. The planning of your trip would be easy-peasy due to the natural language fluency of ChatGPT. All you need to do is describe where you want to go, and then seamlessly engage in a focused dialogue about the pluses and minuses of places to stay and the transportation options available.
When it comes to booking your trip, the odds are you would have to exit generative AI and start accessing the websites of the hotels, amusement parks, airlines, and other locales to buy your tickets. Few of the major generative AI available today will take that next step on your behalf. It is up to you to perform those tasks.
This is where agents and agentic AI come into play.
In earlier days, you would undoubtedly phone a travel agent to make your bookings. Though there are still human travel agents, another avenue would be to use an AI-based agent that is based on generative AI. The AI has the interactivity that you expect with generative AI. It also has been preloaded with a series of routines or sets of tasks that underpin the efforts of a travel agent. Using everyday natural language, you interact with the agentic AI which works with you on your planning and can proceed to deal with the nitty-gritty of booking your travel plans.
As a use case, envision that there is an overall AI agent that will aid your travel planning and booking. This agentic AI might make use of other AI agents to get the full job done for you. For example, there might be an AI agent booking hotels and doing nothing other than that specific task. Another AI agent books flights. And so on.
The overarching AI travel agent app would invoke or handoff phases of the travel booking activity to the respective AI agents. Those AI agents would perform their particular tasks and then go back to the overarching AI travel agent to indicate how things went.
You could say that the AI travel agent app is orchestrating the overall planning and booking process. This is done via a network of associated AI agents that undertake specialized tasks. The AI agents communicate with each other by passing data back and forth. For example, you might have given your name and credit card info to the AI travel agent app and it passes that along to the AI agent booking the hotel and the AI agent booking your flights.
In a sense, the AI agents are collaborating with each other. I somewhat hesitate to use the word “collaborate” because that might imply a semblance of sentience and overly anthropomorphize AI. Let’s just agree that the AI agents are computationally interacting with each other during the processing of these tasks. We will be a bit generous and suggest they are being collaborative.
Those Agentic AI Advantages
The beauty of this arrangement is that if the AI agents are all based on generative AI, the setup can make use of natural language to bring all the agents together and engage them in working with you interactively. A normal computer program that isn’t based on natural language capabilities would either not interact in a natural language manner, or the collaboration between the various routines or separate apps would have to be programmatically devised.
These AI agents can also make use of tools during their processing. The AI travel agent might have a backend database that keeps track of your various trips. To access the database, the AI travel agent invokes a tool that was built to record data in the database. By using such tools, each AI agent can leverage other available programs that aren’t necessarily natural language based.
I have now introduced you to some of the key terminology associated with agentic AI, consisting of these six primary considerations:
- (1) Orchestration. A generative AI agent will at times orchestrate the use of other AI agents and conduct them toward fulfilling a particular purpose or goal.
- (2) Network of AI agents. Various AI agents are often considered part of a virtual network that allows them to readily access each other.
- (3) Communicate with each other. AI agents are typically set up to communicate with each other by passing data back and forth and performing handoffs with each other to get things done.
- (4) Collaborate with each other. AI agents work in concert or collaborate, though not quite as robustly as humans would, so we’ll loosely say the AI kind of collaborates computationally, including doing handoffs and passing data to each other.
- (5) Autonomously perform tasks. AI agents are said to be at times autonomous in that a human does not necessarily need to be in the loop when the various tasks are being performed by the AI.
- (6) Expressed in natural language. The beauty of AI agents that are devised or based on the use of natural language is that rather than having to laboriously write program code to get them to do things, the use of natural language can be leveraged instead.
Shifting Into The OpenAI Swarm
OpenAI recently announced and made available access to their new product known as Swarm.
I will be quoting from the OpenAI blog about Swarm as posted on October 9, 2024. For those of you interested in actively trying out Swarm, right now it is considered experimental, and you’ll need to use the code that OpenAI has made available on GitHub. If you have sufficient Python coding skills and know how to make use of the generative AI APIs or application programming interface capabilities, you should be able to quickly try out the new product.
This is a one-liner by OpenAI that describes what Swarm is:
- “An educational framework exploring ergonomic, lightweight multi-agent orchestration.”
Swarm is essentially an experimental and educational setup to get agentic AI underway by OpenAI and provides AI developers with a means of trying out agentic AI capabilities. I suppose that the name Swarm refers to the idea that you can have a whole bunch of AI agents working together. In addition, if you think of swarms such as a swarm of bees, swarms often have some overall purpose, such as bees defending against a perceived invader.
The OpenAI blog description quoted above says that the AI agents are lightweight. This suggests that the AI agents are somewhat narrowly scoped and not heavy-duty in terms of any particular agent doing a huge amount of work entirely on its own. That is also where the multi-agent aspects come to the fore. You are presumably going to use lots of said-to-be lightweight AI agents and orchestrate them together to achieve a noted end goal.
An Example Of Agentic AI In Action
The GitHub site and the blog about Swarm showcase some examples of how things work. I have opted to make up my own example and loosely based it on the official ones they posted. I am going to leave out the Python coding to make this example easier to comprehend. By and large, the example generally exemplifies the core essence involved.
My scenario is this.
A company I’ll name as the Widget Corporation wants to develop an automated Customer Support Agent using generative AI. This will be made available to existing customers. A customer will interact directly with the AI agent. The AI agent will find out what the customer’s concerns are. Based on those concerns, the AI agent will attempt to provide a potential resolution. If a resolution is not feasible, the customer will be able to return the item that they bought and get a refund.
I’d dare say this is a pretty common task and usually involves a series of subtasks.
The usual approach for a software developer would be to code this from scratch. It could take gobs of hours to write the code, test it, and field it. Instead, we will use agentic AI and indicate the primary agent, a Customer Support Agent, via the use of natural language.
To illustrate the notion of communication and collaboration, I will define two agents, a Customer Support Agent (considered an AI agentic “Routine” and my primary agent) and a second agent that is Refunds And Returns Agent (considered another AI agentic “Routine” and used by the primary agent). They will do handoffs and make use of tools.
Here is my definition of the Customer Support Agent.
- AI agent routine with tool use and a handoff: Customer Support Agent
“You are a customer support agent for the Widget Corporation.”
“Follow this standard routine:
“(1) When a customer contacts you, make sure to ask sufficient questions to grasp what their customer support issue consists of.”
“(2) Access the Widget Corp internal customer support database WidgetSys to see if any similar issues have ever been logged.”
“(3) Try to come up with a solution for the customer that will resolve their support issue.”
“(4) Provide the proposed solution to the customer and get their feedback.”
“(5) If the customer wants to do a product return and get a refund then invoke the Returns And Refunds Agent and provide relevant details about the customer.”
End of definition
I’d like you to notice that the definition is written in natural language.
If you fed that same text into generative AI such as ChatGPT as a prompt, the AI would generally be able to proceed.
Give that a reflective moment of thought. Imagine the vast amount of arduous coding or programming you would have to write to do the same thing. All we had to do here was express what we wanted via the use of everyday natural language.
Boom, drop the mic.
Inside the natural language description in Step #2, I refer to a tool, the WidgetSys tool. This is a program that the Widget Corporation has developed to access its internal customer service records database.
In Step #5, I mention another AI agent, known as the Returns And Refunds Agent. This is a handoff activity that will occur when Step #5 is performed. In addition, I indicated that relevant customer data should be passed over.
The Allied AI Agent For This Example
Now that you’ve seen the primary AI agent, let’s take a look at the allied AI agent.
Here it is.
- AI agent routine with tool use and a handoff: Returns And Refunds Agent
“You are a product returns and refund agent for the Widget Corporation.”
“Follow this standard routine:”
“(1) Ask the customer if they want to return the product and get a refund.”
“(2) If the customer says no then go back to Customer Support Agent.”
“(3) Access the WidgetSys database to mark that the product is being returned and the customer will be given a refund.”
“(4) Tell the customer how to return the product and let them know they will be given a refund.”
“(5) Go back to Customer Support Agent and inform that the return and refund processing is now underway.”
End of definition
Once again, the AI agent is defined via the use of natural language.
A handoff back to the primary agent happens in Step #2. Access to the tool WidgetSys takes place at Step #3. Another handoff back to the primary agent occurs in Step #5.
This allied AI agent takes on the task of processing a potential item return and refund. This could have been embedded entirely in the Customer Support Agent, but it turns out to be better for us to make it into a separate routine. Doing so means that we can always make use of the AI agent from other agentic AI that might need to invoke that specific task.
Vital Considerations About These AI Agents
Let’s be contemplative and mindfully explore the big picture. Life is always full of tradeoffs. The use of AI agents is no exception to that rule of thumb. You’ve seen first-hand that a notable plus is the ease of development via natural language.
Time to discuss some of the downsides or qualms.
I provided five steps for the Customer Support Agent and another five steps for the Returns And Refunds Agent. Is that sufficient to cover the wide range of aspects that might arise when successfully performing a customer support role?
Probably not.
Okay, so we might proceed to add more steps. But does that really solve the dilemma of completeness? Probably not. You aren’t likely to lay out all possible steps along with the endless number of permutations and combinations. The generative AI is going to be expected to do the right thing when having to go beyond the stipulated steps.
The generative AI might opt to do something that we would be chagrined or concerned about upon going beyond the stated steps. Keep in mind that the AI is not sentient. It works based on mathematical and computational pattern-matching. Do not expect a kind of human commonsense to be at play, see my analysis at the link here.
Another issue is that everyday words and natural language are said to be semantically ambiguous (see my detailed discussion at the link here). When I told the AI to resolve the customer issue (as part of Step #3 in Customer Support Agent), what does that exactly mean? Resolving something can be a vague concept. The AI could go in many different directions. Some of those directions might be desirable and we would be pleased, while other directions might frustrate a customer and cause poor customer service.
You must also anticipate that the AI could momentarily go off the rails. There are so-called AI hallucinations that generative AI can encounter, see my coverage at the link here. I don’t like the catchphrase because it implies that AI hallucinates in a manner akin to human hallucinations, which is a false anthropomorphizing of AI. In any case, the AI can make up something out of thin air that appears to be sensible but is not factually grounded. Imagine if the AI tells a customer that they can get a refund if they stand on one leg and whoop and holler. Not a good look.
These and other sobering considerations need to be cooked into how you devise the AI agents and how you opt to ensure they operate in a safe and sane manner.
Excerpts Of How OpenAI Explains Swarm
Congratulations, you are now up to speed on the overall gist of agentic AI. You are also encouraged to dig more deeply into Swarm, which is one framework or approach to AI agents. See my coverage at the link here for competing AI agentic frameworks and methods.
Since you are now steeped in some of the agentic AI vocabularies, I have a bit of an informative test or quiz for you. Take a look at these excerpts from the OpenAI blog. I am hoping that you are familiar enough with the above discussion that you can readily discern what the excerpts have to say.
I’m selecting these excerpts from “Orchestrating Agents: Routines and Handoffs” by Ilan Bigio, OpenAI blog, October 9, 2024:
- “The notion of a ‘routine’ is not strictly defined, and instead meant to capture the idea of a set of steps. Concretely, let’s define a routine to be a list of instructions in natural language (which we’ll represent with a system prompt), along with the tools necessary to complete them.”
- “Notice that these instructions contain conditionals much like a state machine or branching in code. LLMs can actually handle these cases quite robustly for small and medium-sized routines, with the added benefit of having ‘soft’ adherence – the LLM can naturally steer the conversation without getting stuck in dead-ends.”
- “Dynamically swapping system instructions and tools may seem daunting. However, if we view ‘routines’ as ‘agents’, then this notion of handoffs allows us to represent these swaps simply – as one agent handing off a conversation to another.”
- “Let’s define a handoff as an agent (or routine) handing off an active conversation to another agent, much like when you get transferred to someone else on a phone call. Except in this case, the agents have complete knowledge of your prior conversation!”
- “As a proof of concept, we’ve packaged these ideas into a sample library called Swarm. It is meant as an example only and should not be directly used in production. However, feel free to take the ideas and code to build your own!”
How did you do?
I had my fingers crossed that the excerpts made abundant sense to you.
Getting Used To Agentic AI
A few final thoughts for now about the rising tide of agentic AI.
Conventional generative AI that you might be using day-to-day tends to do things one step at a time. Agentic AI boosts this by providing potential end-to-end processing for tasks that you might want to have performed on your behalf. Much of the time, agentic AI leans into the capabilities of generative AI.
Lots of AI agents can potentially get big things done.
I am reminded of the famous quote by Isoroku Yamamoto: “The fiercest serpent may be overcome by a swarm of ants.”
Though the bandwagon is definitely toward agentic AI, we need to keep our wits about us and realize that there are strengths and weaknesses involved. Suppose an agentic AI goes wild and like a swarm of bees’ attacks anything within range. Not a good look. All manners of AI ethics and AI law ramifications are going to arise.
You might brazenly assert that a swarm of them will soon emerge.
Noticias
¿Puede Operai abandonar su “propósito” sin fines de lucro?

Rose Chan Loui explica la controversia actual que rodea la decisión de Openi de abandonar su estado sin fines de lucro. Para obtener más información sobre la reestructuración propuesta por OpenAI, lo que significa para que la carrera desarrolle inteligencia general artificial y cómo resalta el concepto legal difícil del “propósito” de una organización sin fines de lucro, escuche la reciente aparición de Chan Loui sobre Capital no.
¿Qué es el “propósito”? ¿Es una portería que uno se establece para uno mismo, una promesa bien intencionada entre amigos o un compromiso legalmente vinculante? En el mundo sin fines de lucro, el propósito es un compromiso vinculante con el público, y la ley no facilita la abandono. Allí se encuentra la controversia actual que rodea al desarrollador de inteligencia artificial OpenAi, ya que busca cambiar su propósito fundador sin fines de lucro. Cómo se resuelve esta controversia tiene implicaciones para miles de millones de dólares en fondos y el futuro del desarrollo de la inteligencia artificial.
La compañía con sede en California conocida como OpenAI es en realidad una red de empresas controlada por una organización sin fines de lucro, que para la intención de este artículo, llamaremos “sin fines de lucro OpenAI”. La organización sin fines de lucro Openai se fundó a fines de 2015 “con el objetivo de construir inteligencia general artificial segura y beneficiosa para el beneficio de la humanidad”. Openai define la inteligencia artificial como “sistemas altamente autónomos que superan a los humanos a la mayoría de los trabajos económicamente valiosos”. La compañía afirma además: “Intentaremos construir directamente AGI seguro y beneficioso, pero también consideraremos que nuestra misión se cumple si nuestro trabajo ayuda a otros a lograr este resultado”.
El propósito legal sin fines de lucro Openai, que se encuentra en su certificado de incorporación, es “garantizar que la inteligencia general artificial beneficie a toda la humanidad, incluso mediante la realización y/o financiamiento de la investigación de inteligencia artificial”. El certificado de incorporación elabora aún más que “la corporación puede También investigue y/o apoye los esfuerzos para desarrollar y distribuir de manera segura dicha tecnología y sus beneficios asociados, incluido el análisis de los impactos sociales de la tecnología y el apoyo a la investigación e iniciativas de políticas educativas, económicas y de seguridad relacionadas “. Finalmente, el certificado promete que “[t]La tecnología resultante beneficiará al público y la corporación buscará distribuirla para el beneficio público cuando corresponda “.
Como los ex empleados de Operai han representado en una presentación judicial, la organización sin fines de lucro OpenAI se comprometió con este propósito de atraer y retener lo mejor y lo más brillante en el campo de la investigación y el desarrollo de la IA.
La estructura inusual de Openai se produjo en 2019, cuando la junta sin fines de lucro de OpenAI decidió que la financiación filantrópica no sería suficiente para apoyar su trabajo de desarrollo y necesitaban una estructura sin fines de lucro que permitiera una inversión externa. Al expandir su estructura de entidad única a la red actual de entidades, la compañía se comprometió a dar el control del 100% de la corporación con fines de lucro (lo que llamaremos “OpenAI con fines de lucro”) a OpenAI sin fines de lucro. La compañía afirmó además que el propósito sin fines de lucro de OpenAI, no para obtener ganancias, sería primordial en las operaciones de OpenAI con fines de lucro. Proporcionando una mayor garantía de que el propósito sin fines de lucro OpenAI controlaría, la organización sin fines de lucro Openai cometió que la mayoría de su junta sería “independiente” (definida estrechamente como no tener equidad en OpenAI con fines de lucro).
La compañía dejó en claro esta estructura de inversión a medida para los inversores, incluso afirmando en sus acuerdos de inversores que las contribuciones de capital a OpenAI con fines de lucro deben verse “en el espíritu de una donación”. OpenAI con fines de lucro no tendrá la obligación de obtener ganancias y sería libre de invertir cualquiera o la totalidad de su flujo de efectivo en la investigación y el desarrollo sin ninguna obligación (como distribuciones) para los inversores. Si se obtuvieran ganancias, el interés de los inversores se limitaría a 100 veces la inversión, con el valor residual para ir a la organización sin fines de lucro OpenAI. Según esta estructura, se estima que OpenAI atrajo más de $ 20 mil millones en inversiones.
Sin embargo, hacia fines de 2024, Openai anunció que implementaría otra reestructuración significativa. “Una vez más, necesitamos recaudar más capital de lo que habíamos imaginado. Los inversores quieren respaldarnos, pero, a esta escala de capital, necesitan capital convencional y menos validez estructural”. Según una publicación de blog de diciembre de 2024 de la compañía, la reestructuración propuesta eliminaría la organización sin fines de lucro OpenAI de su posición de control dentro de la compañía. La organización sin fines de lucro Operai recibiría una participación minoritaria en la empresa con fines de lucro y apoyaría “iniciativas caritativas en sectores como la atención médica, la educación y la ciencia”. OpenAI con fines de lucro se convertiría en una Corporación de Beneficios Públicos con fines de lucro de Delaware (“PBC”), una estructura que permite a la empresa considerar el bien público en lugar de centrarse exclusivamente en maximizar las ganancias de los accionistas. En particular, un PBC típico de Delaware es responsable solo de su propia junta con respecto a cómo (o si) está sirviendo a un bien público.
En resumen, la estructura corporativa de OpenAI se encendería, con el padre sin fines de lucro que controla actualmente, relegado a ser una base corporativa típica controlada por la corporación con fines de lucro. Dependiendo de cuánto y qué tipo de compensación sin fines de lucro que OpenAi recibe en la reestructuración propuesta, TI podría Sea uno de los cimientos de subvenciones más recurrentes del país con el potencial de hacer mucho bien. Sin embargo, la reestructuración abandonaría el propósito de la organización sin fines de lucro OpenAi, ya que su propósito principal era controlar cómo OpenAi hizo su trabajo de desarrollo de IA.
Según la ley sin fines de lucro, una organización benéfica no puede cambiar su propósito general sin saltar a través de algunos aros legales, al menos no con respecto a los activos que ya estaban dedicados a ese propósito. Los aros legales implican que un tribunal autorice el cambio de propósito, con el fiscal general estatal pertinente presentado como una “parte necesaria” para proporcionar su punto de vista. Los Fiscales Generales con autoridad sobre OpenAi sin fines de lucro son el Fiscal General de Delaware, donde se incorpora sin fines de lucro OpenAI, y el Fiscal General de California, donde OpenAI sin fines de lucro lleva a cabo sus negocios y posee activos.
Al decidir si el cambio en el propósito debe ser autorizado, el Tribunal y los Fiscales Generales de Delaware y California deberían considerar la doctrina de “CY Pres”. Según la doctrina CY Pres, el propósito solo se puede cambiar si se ha vuelto ilegal, imposible, impracticable o derrochador para que la organización benéfica lleve a cabo sus propósitos: un obstáculo bastante alto. Si se justifica un cambio en el propósito, los activos de la organización benéfica deben dirigirse a fines de caridad que se aproximan razonablemente a los propósitos originales de la organización benéfica.
El propósito de la organización sin fines de lucro Openai ciertamente no se ha vuelto ilegal, imposible o derrochador. De hecho, con el desarrollo de AGI en el horizonte, muchos argumentan que el propósito de la organización sin fines de lucro OpenAi se ha vuelto cada vez más crítico. Sin embargo, podría La compañía argumenta que el propósito se ha vuelto “impracticable”: la gerencia de OpenAI afirma que la compañía no puede recaudar fondos para su búsqueda de AGI sin eliminar la organización sin fines de lucro OpenAi de su posición de control. Por otro lado, los expertos en IA que temen los riesgos existenciales del desarrollo sin restricciones de AGI argumentan que la organización sin fines de lucro OpenAi y sus subsidiarias pueden seguir AGI, pero a un ritmo reducido y más reflexivo, y que ese era exactamente el propósito de la estructura sin fines de lucro de OpenAI. En resumen, la impracticabilidad no se aplica, porque el propósito primordial sin fines de lucro OpenAI es garantizar que AGI beneficie a la humanidad, que no sea la primera en desarrollar AGI.
La posición de la compañía parece ser que la reestructuración propuesta es solo un cambio en el actividades De la compañía, no es un cambio en el propósito: que al usar la parte sin fines de lucro de OpenAI de las ganancias obtenidas por las operaciones con fines de lucro, la continua organización sin fines de lucro OpenAI seguirá beneficiando a la humanidad. Si bien este es un argumento plausible para las organizaciones sin fines de lucro con un propósito caritativo general, el propósito de la organización sin fines de lucro OpenAI está vinculado de manera única y muy específica a su control de las operaciones con fines de lucro OpenAI. La actividad principal sin fines de lucro OpenAI es supervisar el desarrollo de AGI por parte de la compañía para garantizar que beneficie a la humanidad. De hecho, la compañía afirma que si otra compañía está desarrollando AGI mejor que OpenAI, OpenAi sin fines de lucro apoyará a la otra compañía con sus recursos.
En abril de 2025, Openai completó otra ronda de financiación, esta vez por $ 40 mil millones a una valoración de $ 300 mil millones. En particular, esta ronda de fondos viene con condiciones: si la subsidiaria con fines de lucro de OpenAI no se reestructura en una entidad totalmente con fines de lucro a fines de 2025, se podría requerir que Operai devuelva $ 20 mil millones de la nueva financiación.
El propósito de la organización sin fines de lucro OpenAI es claro. La pregunta es si el propósito altruista sin fines de lucro de OpenAI para desarrollar AGI en beneficio de toda la humanidad, el propósito que atrajo a sus donantes fundadores y a sus brillantes científicos de IA a la compañía, puede sobrevivir a los enormes incentivos y la presión para permitir que la Compañía ahora sea valorada en $ 300 mil millones, para maximizar las ganancias sin restricciones, enriqueciendo a sus empleados y inversores, mientras que se deja a un lado de la Compañía de su control de su control de su control de su control de su control de su control de su control de su control.
Divulgación del autor: El autor no informa conflictos de intereses. Puede leer nuestra política de divulgación aquí.
Los artículos representan las opiniones de sus escritores, no necesariamente las de la Universidad de Chicago, la Escuela de Negocios Booth o su facultad.
Noticias
Conoce a Mira Murati, ex-Openai CTO Building AI Startup Thinking Machines
Mira Murati es la charla de Silicon Valley.
Murati llegó a muchos titulares en 2023 y 2024 en medio de la agitación y la fuga de cerebros en OpenAi. Y a principios de 2025, ya está captando más atención por recaudar una nueva ronda masiva de fondos para su nueva startup de IA.
La joven de 36 años está construyendo Machines Lab, la secretaria startup de IA que lanzó a fines de 2024 después de salir de Openai, donde se desempeñó como directora de tecnología. Murati no ha revelado muchos detalles sobre lo que está desarrollando la startup, pero en una reciente publicación de blog, compartió que la compañía está desarrollando modelos de IA centrados en la colaboración humana y de IA.
Thinking Machines Lab está buscando $ 2 mil millones en fondos iniciales, informó Business Insider, que podría ser la ronda de semillas más grande de la historia. La ronda podría valorar la startup en más de $ 10 mil millones, dijeron dos fuentes a BI.
En enero de 2025, BI informó que la startup de Murati buscaba $ 1 mil millones en fondos iniciales con una valoración de $ 9 mil millones.
Un representante de Murati declinó hacer comentarios para esta historia.
Slaven Vlasic/Getty Images
Murati fue nombrada en la lista de la revista Time de las 100 personas más influyentes en la IA en septiembre de 2024. Ese mismo año, Dartmouth College, su alma mater, le otorgó un doctor honorario en ciencias por su trabajo democratizando la tecnología y que fue más seguro para que las personas usen.
Antes de fundar Thinking Machines Lab, Murati pasó seis años y medio en Operai y fue su CTO desde 2022 hasta 2024. Cuando Sam Altman fue expulsado brevemente como CEO de la startup de IA a fines de 2023, Murati intervino para liderar la compañía en forma interina. En OpenAI, Murati lideró el desarrollo de ChatGPT y el modelo de texto a imagen Dall-E.
Anteriormente en su carrera, Murati trabajó en Tesla y en la startup de realidad aumentada, Ultraleap.
Aquí hay un vistazo a la vida y la carrera de Murati hasta ahora.
La vida temprana de Mira Murati, educación
Ermira “Mira” Murati nació en Vlorë, una ciudad costera en el suroeste de Albania. Vivió allí hasta los 16 años, cuando ganó una beca académica para estudiar en Pearson College, un programa previo a la universidad de dos años en Victoria, Columbia Británica.
Murati participó en un programa de doble grado que permite a los estudiantes ganar dos grados de dos escuelas de artes liberales en cinco años. Obtuvo una Licenciatura en Artes de Colby College en Waterville, Maine, en 2011 y una licenciatura en ingeniería de la Thayer School of Engineering de Dartmouth College en Hanover, New Hampshire, en 2012.
Después de graduarse de la universidad, Murati internó en Goldman Sachs en Tokio y la compañía aeroespacial francesa Zodiac Aerospace. Luego pasó tres años en Tesla, donde fue gerente de productos que ayudó a desarrollar el automóvil Tesla Model X. Desde 2016-2018, Murati trabajó en la startup de realidad aumentada Leapmotion, donde trabajó para reemplazar los teclados de computadora con la tecnología. Leapmotion ahora se conoce como Ultraleap.
La carrera de Mira Murati en Operai
Murati originalmente se unió a Openai en 2018 como vicepresidente de IA aplicada y asociaciones. En diciembre de 2020, se convirtió en vicepresidenta senior de investigación, productos y asociaciones.
Fue promovida a ser CTO de la startup en mayo de 2022, liderando el trabajo de la compañía para desarrollar el generador de imágenes Dall-E, el generador de video Sora, el chatbot chatgpt y sus modelos subyacentes.
El 17 de noviembre de 2023, la junta de OpenAI sorprendió al mundo tecnológico al anunciar que Altman renunciaba como CEO y como miembro de la Junta, con vigencia de inmediato. La junta en una publicación de blog dijo que “ya no tiene confianza en su capacidad para continuar liderando OpenAi”, y agregó que Altman “no era constantemente sincero en sus comunicaciones”.
Murati fue nombrado CEO interino de Openi en su lugar, pero la posición no duró mucho: solo una semana después de que fue expulsado, Altman fue reinstalado para el primer puesto de Openi con nuevos miembros de la junta, y Murati dijo que ella apoyó el regreso de Altman.
Murati se ha hecho conocido por su enfoque más cauteloso para la IA y ha dicho que cree que debería estar regulado.
Ya en 2023, Murati reconoció que existen peligros asociados con la IA, particularmente cuando se trata de malos actores mal uso de la tecnología. En una entrevista, le dijo a la revista Time que no debería depender de OpenAi y otras compañías de IA para autorregularse y que los reguladores y los gobiernos deberían “definitivamente” involucrarse para garantizar que el uso de la IA esté alineado con los valores humanos.
Patrick T. Fallon/AFP a través de Getty Images
Después de su breve tiempo como CEO interino de OpenAI, Murati asumió un papel más orientado en la compañía. En mayo de 2024, ayudó a anunciar ChatGPT 4-O, el nuevo modelo insignia de la startup que es más rápido que su predecesor y puede razonar a través del texto, la voz y la visión.
Operai también debutó un chatbot personalizado en la Gala Met 2024, con Murati asistiendo al evento exclusivo.
Mientras intervino en la pérdida de empleo impulsada por la IA, Murati dijo que algunos trabajos creativos podrían desaparecer, “pero tal vez no deberían haber estado allí en primer lugar”. Sus comentarios enfurecieron a muchos, con un escritor que le dijo a BI que representaban “una declaración de guerra contra el trabajo creativo”.
Mira Murati y Laboratorio de máquinas de pensamiento
Murati partió de Openai en septiembre de 2024, un movimiento que sorprendió a muchas personas en el mundo tecnológico.
Desde que se fue, ha estado trabajando en silencio en su nueva startup, Thinking Machines Lab, que ha captado la atención de muchos en Silicon Valley. Si bien hasta ahora se sabe poco sobre la startup, es un laboratorio de investigación y productos con el objetivo de hacer que la IA sea más accesible.
La startup salió oficialmente del sigilo en febrero de 2025.
Ella ha reclutado una larga lista de ex empleados de Operai para Thinking Machines Lab. Ex-Meta y empleados antrópicos también se han unido.
Hasta ahora, los empleados de Thinking Machines Lab de OpenAI incluyen a John Schulman, quien fue co-lideró la creación de ChatGPT; Jonathan Lachman, anteriormente jefe de proyectos especiales en OpenAI; Barret Zoph, un cocreador de Chatgpt; y Alexander Kirillov, que trabajó estrechamente con Murati en el modo de voz de Chatgpt.
Múltiples empleados de Operai han dejado a la compañía para unirse a Thinking Machines Lab, incluidos dos cocreadores de ChatGPT, John Schulman y Barret Zoph.
Kimberly White/Getty Images para Wired
A principios de 2025, BI informó que Thinking Machines Lab estaba recaudando una ronda de $ 1 mil millones con una valoración de $ 9 mil millones. En abril de 2025, Bi informó que Murati duplicó su objetivo y ahora estaba tratando de recaudar una ronda de $ 2 mil millones, que sería la ronda de semillas más grande de la historia. Dos fuentes le dijeron a BI que la ronda podría valorar el laboratorio de máquinas de pensamiento en más de $ 10 mil millones.
Ayude a BI a mejorar nuestra cobertura de negocios, tecnología e innovación compartiendo un poco sobre su papel; nos ayudará a adaptar el contenido que más importe para personas como usted.
¿Cuál es tu título de trabajo?
(1 de 2)
¿Qué productos o servicios puede aprobar para la compra en su rol?
(2 de 2)
Al proporcionar esta información, usted acepta que Business Insider puede usar estos datos para mejorar la experiencia de su sitio y para la publicidad dirigida. Al continuar, acepta que acepte los términos de servicio y la política de privacidad.
Gracias por compartir ideas sobre su papel.
La vida personal de Mira Murati
Poco se sabe sobre la vida personal, la familia o las relaciones de Murati.
En el Festival de Cine de los Leones de Cannes en 2024, Murati compartió una anécdota humorística sobre la primera interacción de su madre con Chatgpt fue preguntarle al chatbot cuándo se casaría Murati.
Murati le dijo a la revista Time que la película de 1968 2001: una odisea espacial Avierte su imaginación, específicamente, las imágenes y la música de la película en la escena donde el transbordador espacial atraca.
La película sigue a los astronautas y una supercomputadora de IA mientras viajan al espacio para encontrar el origen de un artefacto misterioso. Mientras la tripulación viaja al planeta Júpiter, la computadora intenta matar a los astronautas.
Murati también le dijo a la revista que le gusta la canción Paranoid Android de Radiohead, así como el libro Duino Elegies, que es una colección de poemas de Rainer Maria Rilke.
Una fuerza impulsora para el trabajo de Murati es lograr AGI, o inteligencia general artificial, que es AI que imita las habilidades humanas. AGI podría adaptarse a una amplia gama de tareas, enseñarse nuevas habilidades y aplicar ese conocimiento a nuevas situaciones.
La búsqueda de este objetivo llevó a Murati de Tesla, a Leapmotion, a OpenAi, le dijo a Wired en una entrevista de 2023.
“Rápidamente creí que AGI sería la última y más importante tecnología importante que construimos, y que quería estar en el corazón”, dijo.