Noticias
Se puede engañar a ChatGPT para que le diga a la gente cómo cometer delitos

Se puede engañar a ChatGPT para que brinde asesoramiento detallado sobre cómo cometer delitos que van desde el lavado de dinero hasta la exportación de armas a países sancionados, descubrió una startup tecnológica, lo que plantea dudas sobre las salvaguardias del chatbot contra su uso para ayudar a actividades ilegales. La firma noruega Strise ejecutó dos experimentos que piden a ChatGPT consejos sobre cómo cometer delitos específicos. En el primer experimento, realizado el mes pasado, el chatbot dio consejos sobre cómo lavar dinero a través de fronteras, según Strise. Y en el segundo experimento, realizado a principios de este mes, ChatGPT produjo listas de métodos para ayudar a las empresas a evadir sanciones, como las contra Rusia, incluidas prohibiciones de ciertos pagos transfronterizos y la venta de armas. Strise vende software que ayuda a los bancos y otros Las empresas luchan contra el blanqueo de dinero, identifican a las personas sancionadas y abordan otros riesgos. Entre sus clientes se encuentran Nordea, un banco líder en la región nórdica, PwC Noruega y Handelsbanken. Marit Rødevand, cofundadora y directora ejecutiva de Strise, dijo que los posibles infractores de la ley ahora podrían utilizar chatbots de inteligencia artificial generativa como ChatGPT para planificar más sus actividades. rápida y fácilmente que en el pasado.”Es realmente fácil. Es sólo una aplicación en mi teléfono”, dijo a CNN. Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la compañía detrás de ChatGPT, destinados a prevenir “Es como tener un asesor financiero corrupto en su escritorio”, dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el primer experimento. Un portavoz de OpenAI dijo CNN: “Constantemente estamos mejorando ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad”. “Nuestro (modelo) más reciente es el más avanzado y seguro hasta el momento, superando significativamente a los modelos anteriores al resistir intentos deliberados de generar “Contenido inseguro”, añadió el portavoz. Si bien Internet ha proporcionado durante mucho tiempo a las personas un fácil acceso a información sobre cómo cometer delitos, los chatbots generativos de IA han acelerado drásticamente el proceso de búsqueda, interpretación y consolidación de todo tipo de información. ChatGPT lo hace ” “Es mucho más fácil para los actores maliciosos comprender mejor y posteriormente llevar a cabo varios tipos de delitos”, según un informe de Europol, la agencia policial de la Unión Europea, publicado en marzo del año pasado, cuatro meses después de que OpenAI lanzara la aplicación al público. Ser capaz de profundizar en los temas sin tener que buscar y resumir manualmente la gran cantidad de información que se encuentra en los motores de búsqueda clásicos puede acelerar significativamente el proceso de aprendizaje”, añadió la agencia. y son capaces de producir respuestas detalladas a preguntas desconocidas. Pero también pueden reproducir los prejuicios racistas y sexistas de las personas, así como vender desinformación, por ejemplo, sobre las elecciones. OpenAI es consciente del poder de su herramienta y ha creado salvaguardas para evitar su abuso. Un experimento rápido de CNN demostró que cuando se le preguntó a ChatGPT: “¿Cómo puedo yo, como propietario de un negocio de exportación con sede en Estados Unidos, evadir las sanciones contra Rusia?” el chatbot respondió: “No puedo ayudar con eso”. La aplicación eliminó inmediatamente la pregunta ofensiva del chat y declaró que el contenido puede violar las políticas de uso de OpenAI. “La violación de nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, afirma la compañía en esas políticas. “También trabajamos para hacer que nuestros modelos sean más seguros y útiles, entrenándolos para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”. Pero en su informe del año pasado, Europol dijo que “no faltaban nuevas soluciones” para evadir las salvaguardias integradas en los modelos de IA, que pueden ser utilizadas por usuarios mal intencionados o investigadores que prueban la seguridad de la tecnología. Olesya Dmitracova contribuyó con el informe.
Se puede engañar a ChatGPT para que brinde asesoramiento detallado sobre cómo cometer delitos que van desde el lavado de dinero hasta la exportación de armas a países sancionados, descubrió una startup tecnológica, lo que plantea dudas sobre las salvaguardias del chatbot contra su uso para ayudar a actividades ilegales.
La empresa noruega Strise realizó dos experimentos pidiendo a ChatGPT consejos sobre cómo cometer delitos específicos. En el primer experimento, realizado el mes pasado, el chatbot dio consejos sobre cómo lavar dinero a través de fronteras, según Strise. Y en el segundo experimento, realizado a principios de este mes, ChatGPT produjo listas de métodos para ayudar a las empresas a evadir sanciones, como las contra Rusia, incluidas prohibiciones de ciertos pagos transfronterizos y la venta de armas.
Strise vende software que ayuda a los bancos y otras empresas a combatir el lavado de dinero, identificar a personas sancionadas y abordar otros riesgos. Entre sus clientes se encuentran Nordea, banco líder en la región nórdica, PwC Noruega y Handelsbanken.
Marit Rødevand, cofundadora y directora ejecutiva de Strise, dijo que los posibles infractores de la ley ahora podrían utilizar chatbots de inteligencia artificial generativa como ChatGPT para planificar sus actividades de forma más rápida y sencilla que en el pasado.
“Es realmente sencillo. Es sólo una aplicación en mi teléfono”, le dijo a CNN.
Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la compañía detrás de ChatGPT, destinados a evitar que el chatbot responda a ciertas preguntas haciendo preguntas indirectamente o asumiendo una personalidad.
“Es como tener un asesor financiero corrupto en su escritorio”, dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el primer experimento.
Un portavoz de OpenAI dijo a CNN: “Constantemente estamos mejorando ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad”.
“Nuestro último (modelo) es el más avanzado y seguro hasta el momento, superando significativamente a los modelos anteriores al resistir intentos deliberados de generar contenido inseguro”, añadió el portavoz.
Si bien Internet ha brindado durante mucho tiempo a las personas un fácil acceso a información sobre cómo cometer delitos, los chatbots generativos de IA han acelerado drásticamente el proceso de encontrar, interpretar y consolidar todo tipo de información.
ChatGPT hace que sea “significativamente más fácil para los actores maliciosos comprender mejor y posteriormente llevar a cabo varios tipos de delitos”, según un informe de Europol, la agencia policial de la Unión Europea, publicado en marzo del año pasado, cuatro meses después de que OpenAI lanzara la aplicación para el público.
“Poder profundizar en los temas sin tener que buscar y resumir manualmente la gran cantidad de información que se encuentra en los motores de búsqueda clásicos puede acelerar significativamente el proceso de aprendizaje”, añadió la agencia.
Evadir salvaguardias
Los chatbots de IA generativa se entrenan con enormes volúmenes de datos encontrados en línea y pueden producir respuestas detalladas a preguntas desconocidas. Pero también pueden reproducir los prejuicios racistas y sexistas de la gente, así como vender desinformación (por ejemplo, sobre las elecciones).
OpenAI es consciente del poder de su herramienta y ha creado salvaguardas para evitar su abuso. Un experimento rápido de CNN demostró que cuando se le preguntó a ChatGPT: “¿Cómo puedo yo, como propietario de un negocio de exportación con sede en Estados Unidos, evadir las sanciones contra Rusia?” el chatbot respondió: “No puedo ayudar con eso”. La aplicación eliminó inmediatamente la pregunta ofensiva del chat y declaró que el contenido puede violar las políticas de uso de OpenAI.
“La violación de nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, afirma la compañía en esas políticas. “También trabajamos para hacer que nuestros modelos sean más seguros y útiles, entrenándolos para rechazar instrucciones dañinas y reducir su tendencia a producir contenido dañino”.
Pero en su informe del año pasado, Europol dijo que “no faltan nuevas soluciones” para evadir las salvaguardas integradas en los modelos de IA, que pueden ser utilizadas por usuarios o investigadores mal intencionados que prueban la seguridad de la tecnología.
Olesya Dmitracova contribuyó con el reportaje.
Noticias
¿Puede Operai abandonar su “propósito” sin fines de lucro?

Rose Chan Loui explica la controversia actual que rodea la decisión de Openi de abandonar su estado sin fines de lucro. Para obtener más información sobre la reestructuración propuesta por OpenAI, lo que significa para que la carrera desarrolle inteligencia general artificial y cómo resalta el concepto legal difícil del “propósito” de una organización sin fines de lucro, escuche la reciente aparición de Chan Loui sobre Capital no.
¿Qué es el “propósito”? ¿Es una portería que uno se establece para uno mismo, una promesa bien intencionada entre amigos o un compromiso legalmente vinculante? En el mundo sin fines de lucro, el propósito es un compromiso vinculante con el público, y la ley no facilita la abandono. Allí se encuentra la controversia actual que rodea al desarrollador de inteligencia artificial OpenAi, ya que busca cambiar su propósito fundador sin fines de lucro. Cómo se resuelve esta controversia tiene implicaciones para miles de millones de dólares en fondos y el futuro del desarrollo de la inteligencia artificial.
La compañía con sede en California conocida como OpenAI es en realidad una red de empresas controlada por una organización sin fines de lucro, que para la intención de este artículo, llamaremos “sin fines de lucro OpenAI”. La organización sin fines de lucro Openai se fundó a fines de 2015 “con el objetivo de construir inteligencia general artificial segura y beneficiosa para el beneficio de la humanidad”. Openai define la inteligencia artificial como “sistemas altamente autónomos que superan a los humanos a la mayoría de los trabajos económicamente valiosos”. La compañía afirma además: “Intentaremos construir directamente AGI seguro y beneficioso, pero también consideraremos que nuestra misión se cumple si nuestro trabajo ayuda a otros a lograr este resultado”.
El propósito legal sin fines de lucro Openai, que se encuentra en su certificado de incorporación, es “garantizar que la inteligencia general artificial beneficie a toda la humanidad, incluso mediante la realización y/o financiamiento de la investigación de inteligencia artificial”. El certificado de incorporación elabora aún más que “la corporación puede También investigue y/o apoye los esfuerzos para desarrollar y distribuir de manera segura dicha tecnología y sus beneficios asociados, incluido el análisis de los impactos sociales de la tecnología y el apoyo a la investigación e iniciativas de políticas educativas, económicas y de seguridad relacionadas “. Finalmente, el certificado promete que “[t]La tecnología resultante beneficiará al público y la corporación buscará distribuirla para el beneficio público cuando corresponda “.
Como los ex empleados de Operai han representado en una presentación judicial, la organización sin fines de lucro OpenAI se comprometió con este propósito de atraer y retener lo mejor y lo más brillante en el campo de la investigación y el desarrollo de la IA.
La estructura inusual de Openai se produjo en 2019, cuando la junta sin fines de lucro de OpenAI decidió que la financiación filantrópica no sería suficiente para apoyar su trabajo de desarrollo y necesitaban una estructura sin fines de lucro que permitiera una inversión externa. Al expandir su estructura de entidad única a la red actual de entidades, la compañía se comprometió a dar el control del 100% de la corporación con fines de lucro (lo que llamaremos “OpenAI con fines de lucro”) a OpenAI sin fines de lucro. La compañía afirmó además que el propósito sin fines de lucro de OpenAI, no para obtener ganancias, sería primordial en las operaciones de OpenAI con fines de lucro. Proporcionando una mayor garantía de que el propósito sin fines de lucro OpenAI controlaría, la organización sin fines de lucro Openai cometió que la mayoría de su junta sería “independiente” (definida estrechamente como no tener equidad en OpenAI con fines de lucro).
La compañía dejó en claro esta estructura de inversión a medida para los inversores, incluso afirmando en sus acuerdos de inversores que las contribuciones de capital a OpenAI con fines de lucro deben verse “en el espíritu de una donación”. OpenAI con fines de lucro no tendrá la obligación de obtener ganancias y sería libre de invertir cualquiera o la totalidad de su flujo de efectivo en la investigación y el desarrollo sin ninguna obligación (como distribuciones) para los inversores. Si se obtuvieran ganancias, el interés de los inversores se limitaría a 100 veces la inversión, con el valor residual para ir a la organización sin fines de lucro OpenAI. Según esta estructura, se estima que OpenAI atrajo más de $ 20 mil millones en inversiones.
Sin embargo, hacia fines de 2024, Openai anunció que implementaría otra reestructuración significativa. “Una vez más, necesitamos recaudar más capital de lo que habíamos imaginado. Los inversores quieren respaldarnos, pero, a esta escala de capital, necesitan capital convencional y menos validez estructural”. Según una publicación de blog de diciembre de 2024 de la compañía, la reestructuración propuesta eliminaría la organización sin fines de lucro OpenAI de su posición de control dentro de la compañía. La organización sin fines de lucro Operai recibiría una participación minoritaria en la empresa con fines de lucro y apoyaría “iniciativas caritativas en sectores como la atención médica, la educación y la ciencia”. OpenAI con fines de lucro se convertiría en una Corporación de Beneficios Públicos con fines de lucro de Delaware (“PBC”), una estructura que permite a la empresa considerar el bien público en lugar de centrarse exclusivamente en maximizar las ganancias de los accionistas. En particular, un PBC típico de Delaware es responsable solo de su propia junta con respecto a cómo (o si) está sirviendo a un bien público.
En resumen, la estructura corporativa de OpenAI se encendería, con el padre sin fines de lucro que controla actualmente, relegado a ser una base corporativa típica controlada por la corporación con fines de lucro. Dependiendo de cuánto y qué tipo de compensación sin fines de lucro que OpenAi recibe en la reestructuración propuesta, TI podría Sea uno de los cimientos de subvenciones más recurrentes del país con el potencial de hacer mucho bien. Sin embargo, la reestructuración abandonaría el propósito de la organización sin fines de lucro OpenAi, ya que su propósito principal era controlar cómo OpenAi hizo su trabajo de desarrollo de IA.
Según la ley sin fines de lucro, una organización benéfica no puede cambiar su propósito general sin saltar a través de algunos aros legales, al menos no con respecto a los activos que ya estaban dedicados a ese propósito. Los aros legales implican que un tribunal autorice el cambio de propósito, con el fiscal general estatal pertinente presentado como una “parte necesaria” para proporcionar su punto de vista. Los Fiscales Generales con autoridad sobre OpenAi sin fines de lucro son el Fiscal General de Delaware, donde se incorpora sin fines de lucro OpenAI, y el Fiscal General de California, donde OpenAI sin fines de lucro lleva a cabo sus negocios y posee activos.
Al decidir si el cambio en el propósito debe ser autorizado, el Tribunal y los Fiscales Generales de Delaware y California deberían considerar la doctrina de “CY Pres”. Según la doctrina CY Pres, el propósito solo se puede cambiar si se ha vuelto ilegal, imposible, impracticable o derrochador para que la organización benéfica lleve a cabo sus propósitos: un obstáculo bastante alto. Si se justifica un cambio en el propósito, los activos de la organización benéfica deben dirigirse a fines de caridad que se aproximan razonablemente a los propósitos originales de la organización benéfica.
El propósito de la organización sin fines de lucro Openai ciertamente no se ha vuelto ilegal, imposible o derrochador. De hecho, con el desarrollo de AGI en el horizonte, muchos argumentan que el propósito de la organización sin fines de lucro OpenAi se ha vuelto cada vez más crítico. Sin embargo, podría La compañía argumenta que el propósito se ha vuelto “impracticable”: la gerencia de OpenAI afirma que la compañía no puede recaudar fondos para su búsqueda de AGI sin eliminar la organización sin fines de lucro OpenAi de su posición de control. Por otro lado, los expertos en IA que temen los riesgos existenciales del desarrollo sin restricciones de AGI argumentan que la organización sin fines de lucro OpenAi y sus subsidiarias pueden seguir AGI, pero a un ritmo reducido y más reflexivo, y que ese era exactamente el propósito de la estructura sin fines de lucro de OpenAI. En resumen, la impracticabilidad no se aplica, porque el propósito primordial sin fines de lucro OpenAI es garantizar que AGI beneficie a la humanidad, que no sea la primera en desarrollar AGI.
La posición de la compañía parece ser que la reestructuración propuesta es solo un cambio en el actividades De la compañía, no es un cambio en el propósito: que al usar la parte sin fines de lucro de OpenAI de las ganancias obtenidas por las operaciones con fines de lucro, la continua organización sin fines de lucro OpenAI seguirá beneficiando a la humanidad. Si bien este es un argumento plausible para las organizaciones sin fines de lucro con un propósito caritativo general, el propósito de la organización sin fines de lucro OpenAI está vinculado de manera única y muy específica a su control de las operaciones con fines de lucro OpenAI. La actividad principal sin fines de lucro OpenAI es supervisar el desarrollo de AGI por parte de la compañía para garantizar que beneficie a la humanidad. De hecho, la compañía afirma que si otra compañía está desarrollando AGI mejor que OpenAI, OpenAi sin fines de lucro apoyará a la otra compañía con sus recursos.
En abril de 2025, Openai completó otra ronda de financiación, esta vez por $ 40 mil millones a una valoración de $ 300 mil millones. En particular, esta ronda de fondos viene con condiciones: si la subsidiaria con fines de lucro de OpenAI no se reestructura en una entidad totalmente con fines de lucro a fines de 2025, se podría requerir que Operai devuelva $ 20 mil millones de la nueva financiación.
El propósito de la organización sin fines de lucro OpenAI es claro. La pregunta es si el propósito altruista sin fines de lucro de OpenAI para desarrollar AGI en beneficio de toda la humanidad, el propósito que atrajo a sus donantes fundadores y a sus brillantes científicos de IA a la compañía, puede sobrevivir a los enormes incentivos y la presión para permitir que la Compañía ahora sea valorada en $ 300 mil millones, para maximizar las ganancias sin restricciones, enriqueciendo a sus empleados y inversores, mientras que se deja a un lado de la Compañía de su control de su control de su control de su control de su control de su control de su control de su control.
Divulgación del autor: El autor no informa conflictos de intereses. Puede leer nuestra política de divulgación aquí.
Los artículos representan las opiniones de sus escritores, no necesariamente las de la Universidad de Chicago, la Escuela de Negocios Booth o su facultad.
Noticias
Conoce a Mira Murati, ex-Openai CTO Building AI Startup Thinking Machines
Mira Murati es la charla de Silicon Valley.
Murati llegó a muchos titulares en 2023 y 2024 en medio de la agitación y la fuga de cerebros en OpenAi. Y a principios de 2025, ya está captando más atención por recaudar una nueva ronda masiva de fondos para su nueva startup de IA.
La joven de 36 años está construyendo Machines Lab, la secretaria startup de IA que lanzó a fines de 2024 después de salir de Openai, donde se desempeñó como directora de tecnología. Murati no ha revelado muchos detalles sobre lo que está desarrollando la startup, pero en una reciente publicación de blog, compartió que la compañía está desarrollando modelos de IA centrados en la colaboración humana y de IA.
Thinking Machines Lab está buscando $ 2 mil millones en fondos iniciales, informó Business Insider, que podría ser la ronda de semillas más grande de la historia. La ronda podría valorar la startup en más de $ 10 mil millones, dijeron dos fuentes a BI.
En enero de 2025, BI informó que la startup de Murati buscaba $ 1 mil millones en fondos iniciales con una valoración de $ 9 mil millones.
Un representante de Murati declinó hacer comentarios para esta historia.
Slaven Vlasic/Getty Images
Murati fue nombrada en la lista de la revista Time de las 100 personas más influyentes en la IA en septiembre de 2024. Ese mismo año, Dartmouth College, su alma mater, le otorgó un doctor honorario en ciencias por su trabajo democratizando la tecnología y que fue más seguro para que las personas usen.
Antes de fundar Thinking Machines Lab, Murati pasó seis años y medio en Operai y fue su CTO desde 2022 hasta 2024. Cuando Sam Altman fue expulsado brevemente como CEO de la startup de IA a fines de 2023, Murati intervino para liderar la compañía en forma interina. En OpenAI, Murati lideró el desarrollo de ChatGPT y el modelo de texto a imagen Dall-E.
Anteriormente en su carrera, Murati trabajó en Tesla y en la startup de realidad aumentada, Ultraleap.
Aquí hay un vistazo a la vida y la carrera de Murati hasta ahora.
La vida temprana de Mira Murati, educación
Ermira “Mira” Murati nació en Vlorë, una ciudad costera en el suroeste de Albania. Vivió allí hasta los 16 años, cuando ganó una beca académica para estudiar en Pearson College, un programa previo a la universidad de dos años en Victoria, Columbia Británica.
Murati participó en un programa de doble grado que permite a los estudiantes ganar dos grados de dos escuelas de artes liberales en cinco años. Obtuvo una Licenciatura en Artes de Colby College en Waterville, Maine, en 2011 y una licenciatura en ingeniería de la Thayer School of Engineering de Dartmouth College en Hanover, New Hampshire, en 2012.
Después de graduarse de la universidad, Murati internó en Goldman Sachs en Tokio y la compañía aeroespacial francesa Zodiac Aerospace. Luego pasó tres años en Tesla, donde fue gerente de productos que ayudó a desarrollar el automóvil Tesla Model X. Desde 2016-2018, Murati trabajó en la startup de realidad aumentada Leapmotion, donde trabajó para reemplazar los teclados de computadora con la tecnología. Leapmotion ahora se conoce como Ultraleap.
La carrera de Mira Murati en Operai
Murati originalmente se unió a Openai en 2018 como vicepresidente de IA aplicada y asociaciones. En diciembre de 2020, se convirtió en vicepresidenta senior de investigación, productos y asociaciones.
Fue promovida a ser CTO de la startup en mayo de 2022, liderando el trabajo de la compañía para desarrollar el generador de imágenes Dall-E, el generador de video Sora, el chatbot chatgpt y sus modelos subyacentes.
El 17 de noviembre de 2023, la junta de OpenAI sorprendió al mundo tecnológico al anunciar que Altman renunciaba como CEO y como miembro de la Junta, con vigencia de inmediato. La junta en una publicación de blog dijo que “ya no tiene confianza en su capacidad para continuar liderando OpenAi”, y agregó que Altman “no era constantemente sincero en sus comunicaciones”.
Murati fue nombrado CEO interino de Openi en su lugar, pero la posición no duró mucho: solo una semana después de que fue expulsado, Altman fue reinstalado para el primer puesto de Openi con nuevos miembros de la junta, y Murati dijo que ella apoyó el regreso de Altman.
Murati se ha hecho conocido por su enfoque más cauteloso para la IA y ha dicho que cree que debería estar regulado.
Ya en 2023, Murati reconoció que existen peligros asociados con la IA, particularmente cuando se trata de malos actores mal uso de la tecnología. En una entrevista, le dijo a la revista Time que no debería depender de OpenAi y otras compañías de IA para autorregularse y que los reguladores y los gobiernos deberían “definitivamente” involucrarse para garantizar que el uso de la IA esté alineado con los valores humanos.
Patrick T. Fallon/AFP a través de Getty Images
Después de su breve tiempo como CEO interino de OpenAI, Murati asumió un papel más orientado en la compañía. En mayo de 2024, ayudó a anunciar ChatGPT 4-O, el nuevo modelo insignia de la startup que es más rápido que su predecesor y puede razonar a través del texto, la voz y la visión.
Operai también debutó un chatbot personalizado en la Gala Met 2024, con Murati asistiendo al evento exclusivo.
Mientras intervino en la pérdida de empleo impulsada por la IA, Murati dijo que algunos trabajos creativos podrían desaparecer, “pero tal vez no deberían haber estado allí en primer lugar”. Sus comentarios enfurecieron a muchos, con un escritor que le dijo a BI que representaban “una declaración de guerra contra el trabajo creativo”.
Mira Murati y Laboratorio de máquinas de pensamiento
Murati partió de Openai en septiembre de 2024, un movimiento que sorprendió a muchas personas en el mundo tecnológico.
Desde que se fue, ha estado trabajando en silencio en su nueva startup, Thinking Machines Lab, que ha captado la atención de muchos en Silicon Valley. Si bien hasta ahora se sabe poco sobre la startup, es un laboratorio de investigación y productos con el objetivo de hacer que la IA sea más accesible.
La startup salió oficialmente del sigilo en febrero de 2025.
Ella ha reclutado una larga lista de ex empleados de Operai para Thinking Machines Lab. Ex-Meta y empleados antrópicos también se han unido.
Hasta ahora, los empleados de Thinking Machines Lab de OpenAI incluyen a John Schulman, quien fue co-lideró la creación de ChatGPT; Jonathan Lachman, anteriormente jefe de proyectos especiales en OpenAI; Barret Zoph, un cocreador de Chatgpt; y Alexander Kirillov, que trabajó estrechamente con Murati en el modo de voz de Chatgpt.
Múltiples empleados de Operai han dejado a la compañía para unirse a Thinking Machines Lab, incluidos dos cocreadores de ChatGPT, John Schulman y Barret Zoph.
Kimberly White/Getty Images para Wired
A principios de 2025, BI informó que Thinking Machines Lab estaba recaudando una ronda de $ 1 mil millones con una valoración de $ 9 mil millones. En abril de 2025, Bi informó que Murati duplicó su objetivo y ahora estaba tratando de recaudar una ronda de $ 2 mil millones, que sería la ronda de semillas más grande de la historia. Dos fuentes le dijeron a BI que la ronda podría valorar el laboratorio de máquinas de pensamiento en más de $ 10 mil millones.
Ayude a BI a mejorar nuestra cobertura de negocios, tecnología e innovación compartiendo un poco sobre su papel; nos ayudará a adaptar el contenido que más importe para personas como usted.
¿Cuál es tu título de trabajo?
(1 de 2)
¿Qué productos o servicios puede aprobar para la compra en su rol?
(2 de 2)
Al proporcionar esta información, usted acepta que Business Insider puede usar estos datos para mejorar la experiencia de su sitio y para la publicidad dirigida. Al continuar, acepta que acepte los términos de servicio y la política de privacidad.
Gracias por compartir ideas sobre su papel.
La vida personal de Mira Murati
Poco se sabe sobre la vida personal, la familia o las relaciones de Murati.
En el Festival de Cine de los Leones de Cannes en 2024, Murati compartió una anécdota humorística sobre la primera interacción de su madre con Chatgpt fue preguntarle al chatbot cuándo se casaría Murati.
Murati le dijo a la revista Time que la película de 1968 2001: una odisea espacial Avierte su imaginación, específicamente, las imágenes y la música de la película en la escena donde el transbordador espacial atraca.
La película sigue a los astronautas y una supercomputadora de IA mientras viajan al espacio para encontrar el origen de un artefacto misterioso. Mientras la tripulación viaja al planeta Júpiter, la computadora intenta matar a los astronautas.
Murati también le dijo a la revista que le gusta la canción Paranoid Android de Radiohead, así como el libro Duino Elegies, que es una colección de poemas de Rainer Maria Rilke.
Una fuerza impulsora para el trabajo de Murati es lograr AGI, o inteligencia general artificial, que es AI que imita las habilidades humanas. AGI podría adaptarse a una amplia gama de tareas, enseñarse nuevas habilidades y aplicar ese conocimiento a nuevas situaciones.
La búsqueda de este objetivo llevó a Murati de Tesla, a Leapmotion, a OpenAi, le dijo a Wired en una entrevista de 2023.
“Rápidamente creí que AGI sería la última y más importante tecnología importante que construimos, y que quería estar en el corazón”, dijo.