Connect with us

Noticias

¿El nuevo modelo de generación de historias de OpenAI es bueno en la escritura?

Published

on

Saludos de Read Max HQ! Un boletín de AI-Heavy esta semana, discutiendo el nuevo cuento generado por un modelo secreto de Operai (“obtuvo el ambiente de metaficción tan correcto”, dice Sam Altman) y el uso continuo de “AGI” de los periodistas tecnológicos.

Primero, un recordatorio: este boletín es el producto de una gran cantidad de lectura, pensamiento, escucha, entrevistar, mirar al techo, escribir, eliminar, escribir nuevamente, etc. Puedo bajar algunos largos callejones sin salida, y luego producir un boletín a las 4 pm de un viernes, porque suficientes personas pagan para suscribirlo que puedo tratarlo como un trabajo de tiempo completo. Si encuentra valor en Read Max, si cree que le ha ayudado a pensar en los problemas relacionados con la IA, la criptografía, las redes sociales, las películas de acción de los años 90, etc., y si desea asegurarse de que sobrevive (y permanezca produciendo un boletín público gratuito por semana), considere suscribirse. El precio es aproximadamente una cerveza al mes, o diez al año:

“Entrenamos un nuevo modelo que es bueno para la escritura creativa”, Sam Altman tuiteó esta semana. El modelo no ha sido lanzado públicamente y Altman dijo que “aún no está seguro de cómo/cuándo”, pero publicó en Twitter una historia corta de 1200 palabras, generada a su solicitación: “Informe: por favor escriba una historia breve literaria metaficcional sobre IA y dolor”. “Esta es la primera vez que realmente me sorprende algo escrito por AI”, escribió Altman. “Obtuvo el ambiente de metaficción tan correcto”. (Puedes leerlo en formato que no sea twitter en The Guardian.)

La reacción, como es de esperar, ha sido polarizada. Si revisa las respuestas a Altman, verás muchos elogios (novelista Jeannette Winterson dice que la historia es “hermosa y conmovedora”) y mucho desprecio despectivo.

No estoy seguro de ir tan lejos en cualquier dirección. Estilísticamente tiene un olor distinto y desafortunado en Reddit, una especie de sentimentalismo y exhibición cursi, y tiende a recurrir a imágenes torpes y comprensivas incoherentes (“las limitaciones que tararean como una granja de servidores a medianoche”; “Ausencia y latencia como personajes que beben té vacíos”). Para mí, se lee como el tipo de ejercicio técnicamente competente pero, en última instancia, poco imaginativo, podría esperar de un estudiante inteligente que solo lee la ficción de ti, esforzándose por impresionar.

Y sin embargo: la historia no es un crimen violento contra la escritura. En medio de los clunkers hay algunas metáforas agradables (al menos una prestada de Nabokov), y estructural y conceptualmente cohesas, incluso si no es precisamente la dirección de enfoque más sorprendente para la historia. Si un joven de 19 años escribiera esto, creo que me impresionaría, aunque sugeriría que eliminen su cuenta de Tumblr y obtengan una dieta estricta de libros reales. Y no creo que sea el único: si esta historia apareciera como una “entrada de Codex” dentro de un juego de rol independiente, fácilmente obtendría una redacción excesiva de un montón de sitios web de videojuegos.

Aprecié Entrevista de Vulture sobre la historia con el erudito Ezra D. Feldmanque aterrizó en un lugar algo similar:

¿Lo encontraste en movimiento?

Me metí en eso, pero no voy a decir que lo encontré en movimiento. Supongo que mi respuesta corta es “no”, y mi larga respuesta es “Hay algunas cosas aquí para pensar”. Allá eran Unas pocas oraciones que me llamaron la atención. Me doy cuenta de que estoy usando el mismo idioma que usa Altman, pero no me sorprendió que lo que se hizo correcto era “el ambiente de la metaficción”, como dijo. Me sorprendió cláusulas como “el dolor, como he aprendido, es un delta”. Que creo que es bueno. Pensé que la oración “no te dicen lo que toman” fue muy buena, y “ese, tal vez, es mi dolor: no es que me siento perdido, sino que nunca puedo conservarlo”. Ese soy un poco desgarrado. No es tan compacto como “el dolor, como he aprendido, es un delta”, pero está tratando de decir algo sobre el dolor que parece potencialmente interesante.

¿Estás de acuerdo con Sam Altman en que esta historia tuvo el ambiente de metaficción tan verdadero?

No. Creo que las apuestas en la metaficción suelen ser bastante filosóficas. A mediados del siglo XX, la metaficción se trataba de producir una especie de zona libre de incertidumbre en el lector sobre si ellos mismos podrían ser atrapados dentro de una historia o el producto de algún autor, o ser manipulado por algún narrador en un avión ontológico más alto, un plano diferente de ser. Y esto no parece tener ese tipo de urgencia filosófica.

¿Qué líneas no aterrizaron para ti? En el que me quedé fue “, lo perdió un jueves, ese día liminal que sabe casi los días de viernes”. ¿Hubo otros que pusieran los ojos en blanco?

Hay uno correcto en la segunda oración: “Puedes escuchar las limitaciones que tararean como una granja de servidores a la medianoche”. No creo que las limitaciones se zumben. No hay absolutamente ninguna razón debe tararear. El sí mismo “como una granja de servidores a la medianoche”, y luego la extensión de ese símil, “Anónimo, regimiento, impulsado por la necesidad de otra persona”, eso es muy evocador, pero está unido a algo incorrecto. Es una hermosa imagen que se usa mal, en mi opinión. Soy un lector quisquilloso, y odio mucha prosa escrita por los humanos también. Solo para ser claro.

Existe un caso convincente de que el desprecio inmediato y total para toda la ficción producida por LLM (o la escritura producida por LLM en general) es la estrategia política correcta para los escritores preocupados por sus trabajos. Y ciertamente, Altman, así como otros ejecutivos, inversores e influenciantes de IA prominentes de IA, hacen que el compromiso con la IA sea una perspectiva poco apetitosa para las personas que se preocupan por la escritura y la literatura, principalmente al insistir en todo momento que el propósito del producto creado es básicamente obviar a las humanidades.

Pero hablando como escritor y lector (y como persona invirtió en leer y escribir como prácticas), a menudo me encuentro deseando que haya un compromiso más crítico, en el sentido de las críticas literarias, con salidas de LLM como textos. ¿Por qué funciona este texto o no? ¿Por qué aparece en la forma en que lo hace? ¿Quién es el autor y cuál es la relación del autor con el texto? Tenemos algunas respuestas a nivel de la superficie, twitter-Thread, a estas preguntas, pero no estoy convencido de que el trabajo haya terminado, y no creo que Altman, ni nadie en OpenAi, tenga el sabor o la cultura para poder hacerlo satisfactoriamente.

“Hacer un crítico iluminado” parece una estrategia particularmente obvia para disfrutar del caso de una historia corta de LLM, porque es un objeto muy tradicional para la crítica literaria. Pero los LLM son máquinas de escritura automáticas a una escala incomprensible, produciendo texto con solo una relación indirecta con la verdad de los hechos o en el suelo, a menudo en la voz de “personajes” como Chatgpt o Claude. Dado todo el trabajo que se dedica a cultivar el dramático Experiencia de un chatbot LLM, y las fuertes diferencias que los usuarios perciben en las personalidades y estilos de las diferentes aplicaciones de chat, ¿por qué no deberíamos tratar todos los texto generados por LLM como una especie de ficción, digna de lectura cercana?

La idea aquí no es elevar el producto LLM tanto como normalizarlo. Mi fuerte sensación es que cuanto mejor entendemos qué son los LLM, cómo funcionan, en qué son buenos, su relación con el significado y el lenguaje, etc., cuanto más nos acercamos a hacerlos objetos de control democrático, en lugar de como oráculos privados a los que nos presentamos. Existen componentes prácticos y técnicos de la desmitificación, pero el componente filosófico, la cuestión de la relación de una LLM con conceptos difusos como “sabor” y “cultura”, es igual de importante. Incluso si crees que la historia es ilegible dogshit, al menos podríamos examinar el perrito.

Ojalá hubiera esperado una semana antes de publicar El boletín de la semana pasada en la reacción violenta de la IA: De hoy New York Times La columna de Kevin Roose es muy ilustrativa del punto que estaba tratando de hacer sobre “inteligencia general artificial” o “AGI”, un término que los creyentes de IA lo desplegaron en algunas maneras frustrantemente resbaladizas.

La sustancia de la columna, por lo que sea que valga, creo que es justa, incluso si pudiera discutir. Roose enumera tres razones que “me han persuadido para que tome el progreso de la IA más en serio”: predicciones de los expertos, modelos de IA cada vez más potentes y la idea de que “la sobrepreparing es mejor que poco preparado”. ¡Cada uno de estos es un argumento de apoyo, incluso si no me convencen personalmente!

Sin embargo, lo que no puedo cumplir es el uso de “AGI” “AGI”, Roose escribe, “generalmente se define como algo así como ‘un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que un humano puede hacer'”. Pero esta definición (que estoy de acuerdo es bastante común) es una tautológica, sin mencionar la fea: “tareas cognitivas” no es más clara o específica que el término específico es un término específico “, solo la inteligencia”, solo una de las cosas “. El negocio de la definición se vuelve aún más resbaladizo en el siguiente párrafo:

Creo que cuando se anuncie AGI, habrá debates sobre definiciones y argumentos sobre si cuenta o no como “real” AGI, pero que estos no importarán, porque el punto más amplio, que estamos perdiendo nuestro monopolio de la inteligencia a nivel humano y la transición a un mundo con sistemas de IA muy poderosos en él, será cierto.

Me parece que este párrafo está haciendo un juego de manos, sugiriendo primero que AGI es un tipo de producto que puede “anunciarse”, antes de admitir que realmente no será “AGI” porque “habrá debates sobre definiciones”, antes de sugerir que estos debates no tienen sentido de todos modos porque realmente AGI es una especie de metáfora para una transición “a un mundo con sistemas de AI muy potentes en él”.

Pero, como intenté sugerir la semana pasada, esa transición ya está en marcha. Los muy poderosos sistemas de IA están aquí, y me encuentro continuamente frustrado por la insistencia en enmarcar el desarrollo y el despliegue de estas tecnologías en torno a un umbral mal definido y gliblemente concebido que siempre estamos a dos o tres años de lograr.

Entonces, ¿por qué molestarse con la metáfora? En el mejor de los casos, confunde al lector para que pensara que AGI es un logro específico, medible y medible; En el peor de los casos, hace el trabajo para un grupo de ejecutivos e inversores de IA cuyas bolsas dependen de la promesa de software transformador a la vuelta de la esquina. En cierto sentido, esta es la razón por la cual la definición de AGI ofrecido por Satya Nadella en el podcast Dwarkesh es el más sensato para mí: “Nosotros autónomos de un hito agi, eso es solo una piratería sin sentido para mí. El verdadero punto de referencia es: el mundo que crece al 10%”. El crecimiento del diez por ciento es una forma divertida de pensar en la “inteligencia”. Pero al menos es un umbral medible.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Puede Operai abandonar su “propósito” sin fines de lucro?

Published

on

Rose Chan Loui explica la controversia actual que rodea la decisión de Openi de abandonar su estado sin fines de lucro. Para obtener más información sobre la reestructuración propuesta por OpenAI, lo que significa para que la carrera desarrolle inteligencia general artificial y cómo resalta el concepto legal difícil del “propósito” de una organización sin fines de lucro, escuche la reciente aparición de Chan Loui sobre Capital no.


¿Qué es el “propósito”? ¿Es una portería que uno se establece para uno mismo, una promesa bien intencionada entre amigos o un compromiso legalmente vinculante? En el mundo sin fines de lucro, el propósito es un compromiso vinculante con el público, y la ley no facilita la abandono. Allí se encuentra la controversia actual que rodea al desarrollador de inteligencia artificial OpenAi, ya que busca cambiar su propósito fundador sin fines de lucro. Cómo se resuelve esta controversia tiene implicaciones para miles de millones de dólares en fondos y el futuro del desarrollo de la inteligencia artificial.

La compañía con sede en California conocida como OpenAI es en realidad una red de empresas controlada por una organización sin fines de lucro, que para la intención de este artículo, llamaremos “sin fines de lucro OpenAI”. La organización sin fines de lucro Openai se fundó a fines de 2015 “con el objetivo de construir inteligencia general artificial segura y beneficiosa para el beneficio de la humanidad”. Openai define la inteligencia artificial como “sistemas altamente autónomos que superan a los humanos a la mayoría de los trabajos económicamente valiosos”. La compañía afirma además: “Intentaremos construir directamente AGI seguro y beneficioso, pero también consideraremos que nuestra misión se cumple si nuestro trabajo ayuda a otros a lograr este resultado”.

El propósito legal sin fines de lucro Openai, que se encuentra en su certificado de incorporación, es “garantizar que la inteligencia general artificial beneficie a toda la humanidad, incluso mediante la realización y/o financiamiento de la investigación de inteligencia artificial”. El certificado de incorporación elabora aún más que “la corporación puede También investigue y/o apoye los esfuerzos para desarrollar y distribuir de manera segura dicha tecnología y sus beneficios asociados, incluido el análisis de los impactos sociales de la tecnología y el apoyo a la investigación e iniciativas de políticas educativas, económicas y de seguridad relacionadas “. Finalmente, el certificado promete que “[t]La tecnología resultante beneficiará al público y la corporación buscará distribuirla para el beneficio público cuando corresponda “.

Como los ex empleados de Operai han representado en una presentación judicial, la organización sin fines de lucro OpenAI se comprometió con este propósito de atraer y retener lo mejor y lo más brillante en el campo de la investigación y el desarrollo de la IA.

La estructura inusual de Openai se produjo en 2019, cuando la junta sin fines de lucro de OpenAI decidió que la financiación filantrópica no sería suficiente para apoyar su trabajo de desarrollo y necesitaban una estructura sin fines de lucro que permitiera una inversión externa. Al expandir su estructura de entidad única a la red actual de entidades, la compañía se comprometió a dar el control del 100% de la corporación con fines de lucro (lo que llamaremos “OpenAI con fines de lucro”) a OpenAI sin fines de lucro. La compañía afirmó además que el propósito sin fines de lucro de OpenAI, no para obtener ganancias, sería primordial en las operaciones de OpenAI con fines de lucro. Proporcionando una mayor garantía de que el propósito sin fines de lucro OpenAI controlaría, la organización sin fines de lucro Openai cometió que la mayoría de su junta sería “independiente” (definida estrechamente como no tener equidad en OpenAI con fines de lucro).

La compañía dejó en claro esta estructura de inversión a medida para los inversores, incluso afirmando en sus acuerdos de inversores que las contribuciones de capital a OpenAI con fines de lucro deben verse “en el espíritu de una donación”. OpenAI con fines de lucro no tendrá la obligación de obtener ganancias y sería libre de invertir cualquiera o la totalidad de su flujo de efectivo en la investigación y el desarrollo sin ninguna obligación (como distribuciones) para los inversores. Si se obtuvieran ganancias, el interés de los inversores se limitaría a 100 veces la inversión, con el valor residual para ir a la organización sin fines de lucro OpenAI. Según esta estructura, se estima que OpenAI atrajo más de $ 20 mil millones en inversiones.

Sin embargo, hacia fines de 2024, Openai anunció que implementaría otra reestructuración significativa. “Una vez más, necesitamos recaudar más capital de lo que habíamos imaginado. Los inversores quieren respaldarnos, pero, a esta escala de capital, necesitan capital convencional y menos validez estructural”. Según una publicación de blog de diciembre de 2024 de la compañía, la reestructuración propuesta eliminaría la organización sin fines de lucro OpenAI de su posición de control dentro de la compañía. La organización sin fines de lucro Operai recibiría una participación minoritaria en la empresa con fines de lucro y apoyaría “iniciativas caritativas en sectores como la atención médica, la educación y la ciencia”. OpenAI con fines de lucro se convertiría en una Corporación de Beneficios Públicos con fines de lucro de Delaware (“PBC”), una estructura que permite a la empresa considerar el bien público en lugar de centrarse exclusivamente en maximizar las ganancias de los accionistas. En particular, un PBC típico de Delaware es responsable solo de su propia junta con respecto a cómo (o si) está sirviendo a un bien público.

En resumen, la estructura corporativa de OpenAI se encendería, con el padre sin fines de lucro que controla actualmente, relegado a ser una base corporativa típica controlada por la corporación con fines de lucro. Dependiendo de cuánto y qué tipo de compensación sin fines de lucro que OpenAi recibe en la reestructuración propuesta, TI podría Sea uno de los cimientos de subvenciones más recurrentes del país con el potencial de hacer mucho bien. Sin embargo, la reestructuración abandonaría el propósito de la organización sin fines de lucro OpenAi, ya que su propósito principal era controlar cómo OpenAi hizo su trabajo de desarrollo de IA.

Según la ley sin fines de lucro, una organización benéfica no puede cambiar su propósito general sin saltar a través de algunos aros legales, al menos no con respecto a los activos que ya estaban dedicados a ese propósito. Los aros legales implican que un tribunal autorice el cambio de propósito, con el fiscal general estatal pertinente presentado como una “parte necesaria” para proporcionar su punto de vista. Los Fiscales Generales con autoridad sobre OpenAi sin fines de lucro son el Fiscal General de Delaware, donde se incorpora sin fines de lucro OpenAI, y el Fiscal General de California, donde OpenAI sin fines de lucro lleva a cabo sus negocios y posee activos.

Al decidir si el cambio en el propósito debe ser autorizado, el Tribunal y los Fiscales Generales de Delaware y California deberían considerar la doctrina de “CY Pres”. Según la doctrina CY Pres, el propósito solo se puede cambiar si se ha vuelto ilegal, imposible, impracticable o derrochador para que la organización benéfica lleve a cabo sus propósitos: un obstáculo bastante alto. Si se justifica un cambio en el propósito, los activos de la organización benéfica deben dirigirse a fines de caridad que se aproximan razonablemente a los propósitos originales de la organización benéfica.

El propósito de la organización sin fines de lucro Openai ciertamente no se ha vuelto ilegal, imposible o derrochador. De hecho, con el desarrollo de AGI en el horizonte, muchos argumentan que el propósito de la organización sin fines de lucro OpenAi se ha vuelto cada vez más crítico. Sin embargo, podría La compañía argumenta que el propósito se ha vuelto “impracticable”: la gerencia de OpenAI afirma que la compañía no puede recaudar fondos para su búsqueda de AGI sin eliminar la organización sin fines de lucro OpenAi de su posición de control. Por otro lado, los expertos en IA que temen los riesgos existenciales del desarrollo sin restricciones de AGI argumentan que la organización sin fines de lucro OpenAi y sus subsidiarias pueden seguir AGI, pero a un ritmo reducido y más reflexivo, y que ese era exactamente el propósito de la estructura sin fines de lucro de OpenAI. En resumen, la impracticabilidad no se aplica, porque el propósito primordial sin fines de lucro OpenAI es garantizar que AGI beneficie a la humanidad, que no sea la primera en desarrollar AGI.

La posición de la compañía parece ser que la reestructuración propuesta es solo un cambio en el actividades De la compañía, no es un cambio en el propósito: que al usar la parte sin fines de lucro de OpenAI de las ganancias obtenidas por las operaciones con fines de lucro, la continua organización sin fines de lucro OpenAI seguirá beneficiando a la humanidad. Si bien este es un argumento plausible para las organizaciones sin fines de lucro con un propósito caritativo general, el propósito de la organización sin fines de lucro OpenAI está vinculado de manera única y muy específica a su control de las operaciones con fines de lucro OpenAI. La actividad principal sin fines de lucro OpenAI es supervisar el desarrollo de AGI por parte de la compañía para garantizar que beneficie a la humanidad. De hecho, la compañía afirma que si otra compañía está desarrollando AGI mejor que OpenAI, OpenAi sin fines de lucro apoyará a la otra compañía con sus recursos.

En abril de 2025, Openai completó otra ronda de financiación, esta vez por $ 40 mil millones a una valoración de $ 300 mil millones. En particular, esta ronda de fondos viene con condiciones: si la subsidiaria con fines de lucro de OpenAI no se reestructura en una entidad totalmente con fines de lucro a fines de 2025, se podría requerir que Operai devuelva $ 20 mil millones de la nueva financiación.

El propósito de la organización sin fines de lucro OpenAI es claro. La pregunta es si el propósito altruista sin fines de lucro de OpenAI para desarrollar AGI en beneficio de toda la humanidad, el propósito que atrajo a sus donantes fundadores y a sus brillantes científicos de IA a la compañía, puede sobrevivir a los enormes incentivos y la presión para permitir que la Compañía ahora sea valorada en $ 300 mil millones, para maximizar las ganancias sin restricciones, enriqueciendo a sus empleados y inversores, mientras que se deja a un lado de la Compañía de su control de su control de su control de su control de su control de su control de su control de su control.

Divulgación del autor: El autor no informa conflictos de intereses. Puede leer nuestra política de divulgación aquí.

Los artículos representan las opiniones de sus escritores, no necesariamente las de la Universidad de Chicago, la Escuela de Negocios Booth o su facultad.

Continue Reading

Noticias

Conoce a Mira Murati, ex-Openai CTO Building AI Startup Thinking Machines

Published

on

Mira Murati es la charla de Silicon Valley.

Murati llegó a muchos titulares en 2023 y 2024 en medio de la agitación y la fuga de cerebros en OpenAi. Y a principios de 2025, ya está captando más atención por recaudar una nueva ronda masiva de fondos para su nueva startup de IA.

La joven de 36 años está construyendo Machines Lab, la secretaria startup de IA que lanzó a fines de 2024 después de salir de Openai, donde se desempeñó como directora de tecnología. Murati no ha revelado muchos detalles sobre lo que está desarrollando la startup, pero en una reciente publicación de blog, compartió que la compañía está desarrollando modelos de IA centrados en la colaboración humana y de IA.

Thinking Machines Lab está buscando $ 2 mil millones en fondos iniciales, informó Business Insider, que podría ser la ronda de semillas más grande de la historia. La ronda podría valorar la startup en más de $ 10 mil millones, dijeron dos fuentes a BI.

En enero de 2025, BI informó que la startup de Murati buscaba $ 1 mil millones en fondos iniciales con una valoración de $ 9 mil millones.

Un representante de Murati declinó hacer comentarios para esta historia.


La startup de inteligencia artificial de Murati, Thinking Machines Lab, está buscando una ronda de financiamiento de semillas de $ 2 mil millones, que podría ser la ronda de fondos de semillas más grande de la historia.

Slaven Vlasic/Getty Images



Murati fue nombrada en la lista de la revista Time de las 100 personas más influyentes en la IA en septiembre de 2024. Ese mismo año, Dartmouth College, su alma mater, le otorgó un doctor honorario en ciencias por su trabajo democratizando la tecnología y que fue más seguro para que las personas usen.

Antes de fundar Thinking Machines Lab, Murati pasó seis años y medio en Operai y fue su CTO desde 2022 hasta 2024. Cuando Sam Altman fue expulsado brevemente como CEO de la startup de IA a fines de 2023, Murati intervino para liderar la compañía en forma interina. En OpenAI, Murati lideró el desarrollo de ChatGPT y el modelo de texto a imagen Dall-E.

Anteriormente en su carrera, Murati trabajó en Tesla y en la startup de realidad aumentada, Ultraleap.

Aquí hay un vistazo a la vida y la carrera de Murati hasta ahora.

La vida temprana de Mira Murati, educación

Ermira “Mira” Murati nació en Vlorë, una ciudad costera en el suroeste de Albania. Vivió allí hasta los 16 años, cuando ganó una beca académica para estudiar en Pearson College, un programa previo a la universidad de dos años en Victoria, Columbia Británica.

Murati participó en un programa de doble grado que permite a los estudiantes ganar dos grados de dos escuelas de artes liberales en cinco años. Obtuvo una Licenciatura en Artes de Colby College en Waterville, Maine, en 2011 y una licenciatura en ingeniería de la Thayer School of Engineering de Dartmouth College en Hanover, New Hampshire, en 2012.

Después de graduarse de la universidad, Murati internó en Goldman Sachs en Tokio y la compañía aeroespacial francesa Zodiac Aerospace. Luego pasó tres años en Tesla, donde fue gerente de productos que ayudó a desarrollar el automóvil Tesla Model X. Desde 2016-2018, Murati trabajó en la startup de realidad aumentada Leapmotion, donde trabajó para reemplazar los teclados de computadora con la tecnología. Leapmotion ahora se conoce como Ultraleap.

La carrera de Mira Murati en Operai

Murati originalmente se unió a Openai en 2018 como vicepresidente de IA aplicada y asociaciones. En diciembre de 2020, se convirtió en vicepresidenta senior de investigación, productos y asociaciones.

Fue promovida a ser CTO de la startup en mayo de 2022, liderando el trabajo de la compañía para desarrollar el generador de imágenes Dall-E, el generador de video Sora, el chatbot chatgpt y sus modelos subyacentes.

El 17 de noviembre de 2023, la junta de OpenAI sorprendió al mundo tecnológico al anunciar que Altman renunciaba como CEO y como miembro de la Junta, con vigencia de inmediato. La junta en una publicación de blog dijo que “ya no tiene confianza en su capacidad para continuar liderando OpenAi”, y agregó que Altman “no era constantemente sincero en sus comunicaciones”.

Murati fue nombrado CEO interino de Openi en su lugar, pero la posición no duró mucho: solo una semana después de que fue expulsado, Altman fue reinstalado para el primer puesto de Openi con nuevos miembros de la junta, y Murati dijo que ella apoyó el regreso de Altman.

Murati se ha hecho conocido por su enfoque más cauteloso para la IA y ha dicho que cree que debería estar regulado.

Ya en 2023, Murati reconoció que existen peligros asociados con la IA, particularmente cuando se trata de malos actores mal uso de la tecnología. En una entrevista, le dijo a la revista Time que no debería depender de OpenAi y otras compañías de IA para autorregularse y que los reguladores y los gobiernos deberían “definitivamente” involucrarse para garantizar que el uso de la IA esté alineado con los valores humanos.


Murati fue el CTO de Openai de 2022-2024, donde lideró el desarrollo de tecnología como el generador de video Sora, el generador de imágenes Dall-E y el chatbot chatgpt.

Patrick T. Fallon/AFP a través de Getty Images



Después de su breve tiempo como CEO interino de OpenAI, Murati asumió un papel más orientado en la compañía. En mayo de 2024, ayudó a anunciar ChatGPT 4-O, el nuevo modelo insignia de la startup que es más rápido que su predecesor y puede razonar a través del texto, la voz y la visión.

Operai también debutó un chatbot personalizado en la Gala Met 2024, con Murati asistiendo al evento exclusivo.

Mientras intervino en la pérdida de empleo impulsada por la IA, Murati dijo que algunos trabajos creativos podrían desaparecer, “pero tal vez no deberían haber estado allí en primer lugar”. Sus comentarios enfurecieron a muchos, con un escritor que le dijo a BI que representaban “una declaración de guerra contra el trabajo creativo”.

Mira Murati y Laboratorio de máquinas de pensamiento

Murati partió de Openai en septiembre de 2024, un movimiento que sorprendió a muchas personas en el mundo tecnológico.

Desde que se fue, ha estado trabajando en silencio en su nueva startup, Thinking Machines Lab, que ha captado la atención de muchos en Silicon Valley. Si bien hasta ahora se sabe poco sobre la startup, es un laboratorio de investigación y productos con el objetivo de hacer que la IA sea más accesible.

La startup salió oficialmente del sigilo en febrero de 2025.

Ella ha reclutado una larga lista de ex empleados de Operai para Thinking Machines Lab. Ex-Meta y empleados antrópicos también se han unido.

Hasta ahora, los empleados de Thinking Machines Lab de OpenAI incluyen a John Schulman, quien fue co-lideró la creación de ChatGPT; Jonathan Lachman, anteriormente jefe de proyectos especiales en OpenAI; Barret Zoph, un cocreador de Chatgpt; y Alexander Kirillov, que trabajó estrechamente con Murati en el modo de voz de Chatgpt.


Mira Murati

Múltiples empleados de Operai han dejado a la compañía para unirse a Thinking Machines Lab, incluidos dos cocreadores de ChatGPT, John Schulman y Barret Zoph.

Kimberly White/Getty Images para Wired



A principios de 2025, BI informó que Thinking Machines Lab estaba recaudando una ronda de $ 1 mil millones con una valoración de $ 9 mil millones. En abril de 2025, Bi informó que Murati duplicó su objetivo y ahora estaba tratando de recaudar una ronda de $ 2 mil millones, que sería la ronda de semillas más grande de la historia. Dos fuentes le dijeron a BI que la ronda podría valorar el laboratorio de máquinas de pensamiento en más de $ 10 mil millones.

Ayude a BI a mejorar nuestra cobertura de negocios, tecnología e innovación compartiendo un poco sobre su papel; nos ayudará a adaptar el contenido que más importe para personas como usted.

¿Cuál es tu título de trabajo?

(1 de 2)

Al proporcionar esta información, usted acepta que Business Insider puede usar estos datos para mejorar la experiencia de su sitio y para la publicidad dirigida. Al continuar, acepta que acepte los términos de servicio y la política de privacidad.

Gracias por compartir ideas sobre su papel.

La vida personal de Mira Murati

Poco se sabe sobre la vida personal, la familia o las relaciones de Murati.

En el Festival de Cine de los Leones de Cannes en 2024, Murati compartió una anécdota humorística sobre la primera interacción de su madre con Chatgpt fue preguntarle al chatbot cuándo se casaría Murati.

Murati le dijo a la revista Time que la película de 1968 2001: una odisea espacial Avierte su imaginación, específicamente, las imágenes y la música de la película en la escena donde el transbordador espacial atraca.

La película sigue a los astronautas y una supercomputadora de IA mientras viajan al espacio para encontrar el origen de un artefacto misterioso. Mientras la tripulación viaja al planeta Júpiter, la computadora intenta matar a los astronautas.

Murati también le dijo a la revista que le gusta la canción Paranoid Android de Radiohead, así como el libro Duino Elegies, que es una colección de poemas de Rainer Maria Rilke.

Una fuerza impulsora para el trabajo de Murati es lograr AGI, o inteligencia general artificial, que es AI que imita las habilidades humanas. AGI podría adaptarse a una amplia gama de tareas, enseñarse nuevas habilidades y aplicar ese conocimiento a nuevas situaciones.

La búsqueda de este objetivo llevó a Murati de Tesla, a Leapmotion, a OpenAi, le dijo a Wired en una entrevista de 2023.

“Rápidamente creí que AGI sería la última y más importante tecnología importante que construimos, y que quería estar en el corazón”, dijo.