Connect with us

Noticias

El modelo de razonamiento O3-Mini de OpenAI llega para contrarrestar el consumo profundo

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha lanzado un nuevo modelo de IA patentado a tiempo para contrarrestar el rápido ascenso del rival de código abierto Deepseek R1, pero ¿será suficiente para afectar el éxito de este último?

Hoy, después de varios días de rumores y una anticipación creciente entre los usuarios de IA en las redes sociales, Openal está debutando a O3-Mini, el segundo modelo en su nueva familia de “razonadores”, modelos que tardan un poco más en “pensar”, analizar su propios procesos y reflexionar sobre sus propias “cadenas de pensamiento” antes de responder a las consultas y entradas de los usuarios con nuevas salidas.

El resultado es un modelo que puede funcionar a nivel de un estudiante de doctorado o incluso titular de titulares para responder preguntas difíciles en matemáticas, ciencias, ingeniería y muchos otros campos.

El modelo O3-Mini ya está disponible en ChatGPT, incluido el nivel gratuito y la interfaz de programación de aplicaciones de OpenAI (API), y en realidad es menos costoso, más rápido y más desempeñada que el modelo de alta gama anterior, OpenAi’s O1 y su más rápido, su Hermano de recuento de parámetros inferiores, O1-Mini.

Si bien inevitablemente se comparará con Deepseek R1, y la fecha de lanzamiento se ve como una reacción, es importante recordar que O3 y O3-Mini se anunciaron bien antes del lanzamiento de enero de Deepseek R1, en diciembre de 2024, y que el CEO de Operai Sam Altman declaró anteriormente en X que, debido a los comentarios de desarrolladores e investigadores, llegaría a ChatGPT y la API de OpenAI al mismo tiempo.

A diferencia de Deepseek R1, O3-Mini no estará disponible como modelo de código abierto, lo que significa que el código no se puede tomar y descargar para el uso fuera de línea, ni personalizado en la misma medida, lo que puede limitar su atractivo en comparación con Deepseek R1 para algunas aplicaciones.

Operai no proporcionó más detalles sobre el (presunto) modelo O3 más grande anunciado en diciembre junto con O3-Mini. En ese momento, el formulario desplegable de opción de OpenAI para probar O3 declaró que se sometería a un “retraso de varias semanas” antes de que los terceros pudieran probarlo.

Rendimiento y características

Similar a O1, Operai O3-Mini está optimizado para el razonamiento en matemáticas, codificación y ciencia.

Su rendimiento es comparable a OpenAI O1 cuando se usa un esfuerzo de razonamiento medio, pero ofrece las siguientes ventajas:

  • Tiempos de respuesta del 24% más rápidos en comparación con O1-Mini (OpenAi no proporcionó un número específico aquí, pero buscando pruebas de análisis artificial del grupo de evaluación de terceros, el tiempo de respuesta de O1-Mini es de 12.8 segundos para recibir y producir 100 tokens. Entonces, para O3-Mini, un aumento de velocidad del 24% reduciría el tiempo de respuesta a 10.32 segundos).
  • Precisión mejorada, con probadores externos que prefieren las respuestas de O3-Mini el 56% del tiempo.
  • 39% menos errores importantes en preguntas complejas del mundo real.
  • Un mejor rendimiento en la codificación y las tareas STEM, particularmente cuando se usa un esfuerzo de razonamiento.
  • Tres niveles de esfuerzo de razonamiento (bajo, medio y alto), lo que permite a los usuarios y desarrolladores equilibrar la precisión y la velocidad.

También cuenta con impresionantes puntos de referencia, incluso superando a O1 en algunos casos, según la tarjeta del sistema O3-Mini OpenAi lanzado en línea (y que se publicó antes del anuncio oficial de disponibilidad del modelo).

La ventana de contexto de O3-Mini, el número de tokens combinados que puede ingresar/salir en una sola interacción, es de 200,000, con un máximo de 100,000 en cada salida. Eso es lo mismo que el modelo O1 completo y supera la ventana de contexto de Deepseek R1 de alrededor de 128,000/130,000 tokens. Pero está muy por debajo de la ventana de contexto de Google Gemini 2.0 Flash Thinking de hasta 1 millón de tokens.

Si bien O3-Mini se centra en las capacidades de razonamiento, todavía no tiene capacidades de visión. Los desarrolladores y usuarios que buscan cargar imágenes y archivos deben seguir usando O1 mientras tanto.

La competencia se calienta

La llegada de las marcas O3-Mini la primera vez OpenAI está haciendo que un modelo de razonamiento esté disponible para los usuarios gratuitos de ChatGPT. La familia de modelos O1 anteriores solo estaba disponible para pagar a los suscriptores de los planes ChatGPT Plus, Pro y otros planes, así como a través de la interfaz de programación de aplicaciones pagas de OpenAI.

Como lo hizo con los chatbots con el modelo de idioma grande (LLM) a través del lanzamiento de ChatGPT en noviembre de 2022, Operai esencialmente creó toda la categoría de modelos de razonamiento en septiembre de 2024 cuando presentó O1 por primera vez, una nueva clase de modelos con una nueva capacitación régimen y arquitectura.

Pero OpenAi, de acuerdo con su historia reciente, no hizo O1 Open Source, contrario a su nombre y misión de fundación original. En cambio, mantuvo el código del modelo propietario.

Y en las últimas dos semanas, O1 ha sido eclipsado por la startup china de IA Deepseek, que lanzó R1, un modelo de razonamiento de código abierto rival, altamente eficiente, en gran medida abierto, disponible gratuitamente para tomar, volver a entrenar y personalizar por cualquier persona en todo el mundo, así como Como uso de forma gratuita en el sitio web y la aplicación móvil de Deepseek, un modelo, según los informes, capacitado a una fracción del costo de O1 y otros LLM de los mejores laboratorios.

Los términos de licencia del MIT permisivos de Deepseek R1, la aplicación/sitio web gratuitos para los consumidores y la decisión de poner en código de código de R1 a disposición de la base y modificarlo a la vez que lo ha llevado a una verdadera explosión de uso tanto en los mercados de consumo como en las empresas, incluso el inversor de OpenAi Microsoft y el patrocinador antrópico Amazon se apresura a agregar variantes a sus mercados de nubes. La perplejidad, la compañía de búsqueda de IA, también agregó rápidamente una variante para los usuarios.

También destronó la aplicación ChatGPT iOS para el lugar número uno en la tienda de aplicaciones de Apple de EE. UU., Y es notable por superar a OpenAI conectando Deepseek R1 a la búsqueda web, algo que OpenAI aún no ha hecho para O1, lo que lleva a una mayor ansiedad techno entre tecnología. Los trabajadores y otros en línea que China se está poniendo al día o ha superado a los Estados Unidos en la innovación de IA, incluso la tecnología en general.

Sin embargo, muchos investigadores de IA y científicos y los principales VC como Marc Andreessen han acogido con beneplácito el aumento de Deepseek y su abastecimiento abierto en particular como una marea que levanta todos los barcos en el campo de la IA, aumentando la inteligencia disponible para todos al tiempo que reduce los costos.

Disponibilidad en chatgpt

El modelo ahora se está implementando a nivel mundial para usuarios gratuitos, además de Team, y Pro, con acceso a la empresa y la educación que llegará la próxima semana.

  • Los usuarios gratuitos pueden probar O3-Mini por primera vez seleccionando el botón “Razón” en la barra de chat o regenerando una respuesta.
  • Los límites de mensajes han aumentado 3 veces para los usuarios más y del equipo, de 50 a 150 mensajes por día.
  • Los usuarios profesionales obtienen acceso ilimitado tanto a O3-Mini como a una nueva variante, incluso de mayor condición, O3-Mini-High.

Además, O3-Mini ahora admite la integración de búsqueda dentro de ChatGPT, proporcionando respuestas con enlaces web relevantes. Esta característica todavía se encuentra en sus primeras etapas, ya que OpenAI refina las capacidades de búsqueda en sus modelos de razonamiento.

Integración y precios de API

Para los desarrolladores, O3-Mini está disponible a través de la API de finalización de chat, la API de asistentes y la API por lotes. El modelo admite llamadas de función, salidas estructuradas y mensajes de desarrollador, lo que facilita la integración en aplicaciones del mundo real.

Una de las ventajas más notables de O3-Mini es su eficiencia de costo: es un 63% más barato que OpenAI O1-Mini y 93% más barato que el modelo O1 completo, con un precio de $ 1.10/$ 4.40 por millón de tokens In/Out (con un descuento de 50% en caché ).

Sin embargo, todavía palidece en comparación con la asequibilidad de la oferta oficial de R1 de la API de DeepSeek a $ 0.14/$ 0.55 por millón de tokens. Pero Dado Deepseek se basa en China y viene con conciencia geopolítica y preocupaciones de seguridad sobre los datos del usuario/empresa que fluyen dentro y fuera del modelo, es probable que Operai siga siendo la API preferida para algunos clientes y empresas centradas en la seguridad en los Estados Unidos. y Europa.

Los desarrolladores también pueden ajustar el nivel de esfuerzo de razonamiento (bajo, medio, alto) en función de sus necesidades de aplicación, lo que permite un mayor control sobre las compensaciones de latencia y precisión.

Sobre seguridad, Operai dice que usó algo llamado “alineación deliberativa” con O3-Mini. Esto significa que se le pidió al modelo que razonara sobre las pautas de seguridad de autorización humana que se le dio, comprenden más de su intención y los daños que están diseñados para prevenir, y se les ocurre sus propias formas de garantizar que se eviten esos daños. Operai dice que permite que el modelo sea menos censurado cuando se discute temas delicados al tiempo que preserva la seguridad.

Operai dice que el modelo supera a GPT-4O en el manejo de los desafíos de seguridad y jailbreak, y que realizó una amplia prueba de seguridad externa antes de su lanzamiento hoy.

Un informe reciente cubierto en Cableado (Donde trabaja mi esposa) demostró que Deepseek sucumbió a cada aviso de jailbreak e intento de 50 probados por investigadores de seguridad, lo que puede darle a OpenAI O3-Mini la ventaja sobre Deepseek R1 en los casos en que la seguridad y la seguridad son primordiales.

Qué próximo?

El lanzamiento de O3-Mini representa el esfuerzo más amplio de Openai para hacer que el razonamiento avanzado AI sea más accesible y rentable frente a una competencia más intensa que nunca de R1 y otros de Deepseek, como Google, que recientemente lanzó una versión gratuita propia propia. Modelo de razonamiento rival Gemini 2 Flash Pensamiento con un contexto de entrada ampliado de hasta 1 millón de tokens.

Con su enfoque en el razonamiento y la asequibilidad STEM, OpenAI tiene como objetivo expandir el alcance de la resolución de problemas impulsada por la IA en aplicaciones de consumidores y desarrolladores.

Pero a medida que la compañía se vuelve más ambiciosa que nunca en sus objetivos, recientemente anunciando un proyecto de infraestructura de centros de datos de $ 500 mil millones llamado Stargate con el respaldo de SoftBank, la pregunta sigue siendo si su estrategia valdrá lo suficientemente bien como para justificar los multibonos hundidos en él. Inversores de bolsillo profundamente como Microsoft y otros VC.

A medida que los modelos de código abierto cierran cada vez más la brecha con OpenAi en el rendimiento y lo superan en el costo, según los informes, sus medidas de seguridad superiores, capacidades potentes, API fácil de usar e interfaces fáciles de usar ser suficientes para mantener a los clientes, especialmente en la empresa, en la empresa, ¿Quién puede priorizar el costo y la eficiencia sobre estos atributos? Informaremos sobre los desarrollos a medida que se desarrollen.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Cómo ChatGPT está abriendo el enclave digital ‘Galápagos’ de Corea

Published

on

Una ilustración del logotipos de aplicaciones de Chatgpt, Naver, Daum, Kakao, Papago, A. y WRTN [KOREA JOONGANG DAILY]

Antes de la llegada de CHATGPT, eran foros o blogs impulsados ​​por el usuario administrados por portales nacionales Naver o Daum, donde los coreanos buscaban información sobre una amplia gama de temas, desde el trivial, como el mejor restaurante de un vecindario, hasta lo significativo, incluidos los hechos sobre las relaciones inter-koreanas.

El traductor en línea de los coreanos solía ser Papago, un servicio de traducción automática desarrollado por Naver, antes del surgimiento del chatbot de OpenAi.

El dominio de los servicios de Internet de cosecha propia le valió al país un apodo, “Galápagos”, en comparación con otros mercados dominados por Google, pero más usuarios ahora se están volviendo hacia servicios relativamente nuevos como ChatGPT para sus consultas, debido a la reputación de chatbots por proporcionar respuestas más precisas que las búsquedas tradicionales basadas en palabras clave a menudo.

Como resultado, los usuarios activos mensuales de ChatGPT (MAU) han aumentado unos 6,180 por ciento a 3.14 millones entre mayo de 2023 y enero de 2025, mientras que Naver y Kakao, al tiempo que dominan en la búsqueda y el chat, están perdiendo el tiempo de pantalla, lo que los lleva a conducir hacia adelante con sus negocios de AI para bloquear a los usuarios.

Esta edición de Explicador explora la cultura en línea cambiante de Corea y su impacto en la industria tecnológica.



P. ¿Qué tan dominantes son Naver y Kakao en Corea?

A. Las dos plataformas coreanas se destacan en un mercado de búsqueda del cual Google posee un 89 por ciento, según datos de la plataforma de análisis web Statcounter. Combinados, Naver y Kakao convirtieron una participación comparable en el mercado de Corea en 2015.

Ese dominio sobre la búsqueda se ha retirado en 2024, pero las dos compañías aún ven una buena cantidad de uso en sus diversos servicios. Los usuarios activos mensuales (MAU) de las aplicaciones de Naver para Android e iOS numeraron 43.92 millones en enero de 2025, lo que significa que una gran mayoría de la población de 51.75 millones de Corea todavía usa la aplicación.

Aunque Naver y Kakao mantienen bases de usuarios significativas, el tiempo de pantalla promedio mensual para Naver ha caído en comparación con el pasado, según el Índice Mobile del Tracker de Market. El promedio de Naver promedió 472.62 minutos, una disminución del 11.14 por ciento a partir de noviembre de 2022, cuando ChatGPT tomó por asalto la escena de IA.

Kakao ha intentado diversificarse más allá de Kakaotalk, haciendo varios esfuerzos para convertir el servicio de mensajería líder de Corea en una plataforma de redes sociales más amplias. Esos aún no han valido la pena: Kakaotalk tuvo 45.69 millones de usuarios en enero de 2025, pero su tiempo de pantalla promedio se redujo 9.42 por ciento a 675.98 minutos, por enero de 2025 y noviembre de 2022.

Por otro lado, el MAUS de ChatGPT y WRTN, una plataforma de IA-Tailored de Corea que incorpora varios modelos, incluido el chatGPT4, aumentó 6,180 por ciento y 45,600 por ciento entre 2023 y 2025. El tiempo de pantalla promedio también aumentó el 703.9 por ciento y el 1,478 por ciento, respectivamente, durante el mismo período hasta alcanzar 63.75 y 297.67 minutos por usuario.


¿Por qué las empresas coreanas no están produciendo IA generativa?


Bueno, lo han hecho, pero su entrada fue bastante tarde, y las capacidades de sus modelos no están a la altura de los competidores más exitosos del mundo.

Sin embargo, Naver y Kakao están posicionando 2025 como el año de su transformación de IA, prometiendo lanzar nuevos servicios impulsados ​​por la IA para bloquear a los usuarios.

Lo que inicialmente distinguió a estas dos compañías fue su capacidad de proporcionar un archivo en línea adaptado específicamente al idioma coreano, un desafío que inicialmente estancó la búsqueda en Google, que luchó para procesar los datos coreanos de manera efectiva.

Con los datos de los usuarios que han acumulado, ampliaron sus ofertas para incluir servicios de construcción de la comunidad y diversificados en áreas como publicidad, comercio electrónico, entretenimiento, fintech y movilidad.

Los chatbots de IA ahora se destacan en la redacción de correos electrónicos, informes y ensayos, practicando conversaciones, generando ideas, planificar contenido e incluso proporcionar sugerencias de codificación.

Mientras tanto, las empresas están integrando modelos similares a ChatGPT en el servicio al cliente para automatizar consultas básicas y agilizar la recuperación y el análisis de datos.

Sin embargo, Naver y Kakao ahora enfrentan un paisaje más complejo, debido no solo al surgimiento de R1 de Deepseek, O3 O3 y DeepResearch, sino también a medida que el mercado de motores de búsqueda evoluciona rápidamente hacia uno impulsado por IA.

Las dos compañías están adoptando enfoques opuestos. Naver está expandiendo la tecnología externa, desarrollando y de marketing patentado, mientras que Kakao está integrando modelos externos en los servicios existentes.

gg

gg

Naver ahora enfrenta el desafío de expandir sus capacidades de búsqueda más allá de su propio conjunto de datos, lo que requiere modelos de inferencia de alta calidad que puedan razonar, resumir y proporcionar respuestas conscientes de contexto en lugar de simplemente recuperar contenido indexado.

Por el contrario, Kakao está doblando la IA en interacciones de los clientes, transacciones financieras y recomendaciones en sus servicios. Deepseek y Openai son, por lo tanto, socios más factibles para Kakao. En lugar de centrarse en la investigación, que es financieramente exigente debido a las altas demandas monetarias y computacionales de la capacitación de los modelos de IA, puede centrarse en la implementación.

La asociación de Kakao con OpenAI formaliza este enfoque, ya que el gigante coreano integra la API de la organización estadounidense en sus servicios.

El CEO de Kakao, Chung Shin-A, a la izquierda, y el fundador de Operai, Sam Altman, pose para una foto en el evento de prensa de Kakao para anunciar la asociación de la compañía coreana con OpenAi celebrada en el centro de Seúl el 4 de febrero. [NEWS1]

El CEO de Kakao, Chung Shin-A, a la izquierda, y el fundador de Operai, Sam Altman, pose para una foto en el evento de prensa de Kakao para anunciar la asociación de la compañía coreana con OpenAi celebrada en el centro de Seúl el 4 de febrero. [NEWS1]

Sin embargo, incluso las grandes empresas tecnológicas aún no han establecido una estrategia de monetización clara para la IA.

Naver y Kakao están presionando para integrar la búsqueda y recomendaciones de IA en el comercio electrónico como un controlador de ingresos, ya que sigue siendo la forma más viable de beneficiarse de las aplicaciones de IA, al menos por ahora.



¿Qué cambios vienen?


Naver, el sitio de portal más grande de Corea, hizo el anuncio sorpresa del regreso de su fundador, Lee Hae-Jin, como director interno a través de la divulgación electrónica a principios de este mes. La reincorporación de Lee, que se finalizará por votación en la reunión de accionistas en marzo, es significativo en el sentido de que el empresario ha permanecido en gran medida ausente de las operaciones nacionales durante siete años desde que renunció como presidente de la junta en 2017.

Su regreso indica la determinación del emprendedor solitario de impulsar el negocio de IA del sitio del portal.

El fundador de Naver, Lee Hae-Jin, de extrema izquierda, y el CEO Choi Soo-yeon, a la derecha, posan con el CEO de Nvidia, Jensen Huang, en la sede de Nvidia en California el 25 de junio de 2024. [NAVER]

El fundador de Naver, Lee Hae-Jin, de extrema izquierda, y el CEO Choi Soo-yeon, a la derecha, posan con el CEO de Nvidia, Jensen Huang, en la sede de Nvidia en California el 25 de junio de 2024. [NAVER]

Se espera que Naver publique múltiples servicios impulsados ​​por la IA este año. En la primera mitad de 2025, Naver lanzará una función informativa de IA, similar a las descripciones de IA de Google, que proporciona resúmenes generados por IA en la parte superior de los resultados de búsqueda. La plataforma de comercio electrónico de Naver, la tienda Naver Plus, implementará AI para hacer recomendaciones de productos a medida en una aplicación independiente.

Una plataforma publicitaria impulsada por IA para proveedores de comercio electrónico, en la que AI calcula los costos publicitarios de un producto, la base de consumo objetivo y las palabras clave para ofrecer anuncios personalizados a los usuarios, también se implementará.

Kakao, el operador del servicio de mensajería dominante de la nación, destacó su hoja de ruta AI al anunciar su asociación con OpenAI.

Kakao planea lanzar un chatbot, Kanana, aprovechando los servicios de API de OpenAi, como una versión beta cerrada en la primera mitad de este año. Kanana actualmente está experimentando pruebas internas.

Kakao ve la ventaja competitiva de Kanana en su potencial de uso en chats grupales, a diferencia de otros servicios similares que se centran en las conversaciones individuales, lo que la hace particularmente valiosa para fines empresariales.

Kakao y OpenAi planean codificar conjuntamente un agente que hará recomendaciones y ayudará a los usuarios a través de servicios como Kakaotalk, Kakao Map y Kakao T.

Similar al movimiento de Naver para integrar la IA en el comercio electrónico, Kakao está configurado para lanzar una función, AI Mate, que ofrecerá recomendaciones con el contexto de compras y navegación al seleccionar productos o destinos.

Una captura de pantalla del servicio de traducción de Naver, papago [SCREEN CAPTURE]

Una captura de pantalla del servicio de traducción de Naver, papago [SCREEN CAPTURE]

¿Qué pasa con las aplicaciones específicas de la traducción, como el papa de Naver? ¿Todavía tendrán demanda cuando la IA generativa parece hacer un mejor trabajo?


Es probable que aún habrá demanda de IA específica para el propósito en el espacio de empresa a empresa (B2B). Tomemos, por ejemplo, el éxito de la compañía alemana Deepl.

El éxito de Deepl es inusual porque cuando llegó a la escena, el mercado de traducción ya había sido dominado por el traductor de Google y, en Corea, el papago de Naver. Sin embargo, la compañía logró crear una participación de mercado significativa al final del juego.

Uno de los aspectos más innovadores del enfoque de DeepL fue su capacidad para ajustar el tono y la formalidad en las traducciones.

Más del 82 por ciento de las empresas de servicios de idiomas utilizan los servicios de DeepL, según la encuesta de la Asociación de Empresas de Lenguas publicada en octubre de 2024.

Las industrias como la ley, la fabricación y la medicina requieren traducciones altamente especializadas y precisas, lo que significa que los motores de traducción de IA deben estar capacitados con conjuntos de datos específicos del dominio.

Muchos consumidores se quejan de la mala calidad de traducción de los servicios de empresa a consumidor como Papago, pero tales quejas son casi inevitables, ya que tales modelos amplios no están específicamente capacitados para las tareas que se les ha pedido que realicen. Sin embargo, los traductores B2B a menudo se adaptan a las necesidades específicas de la industria.

La traducción automatizada aún no ha alcanzado el nivel necesario para reemplazar completamente los traductores humanos, particularmente en los campos donde la precisión, el tono y los matices contextuales son críticos. Sin embargo, a medida que crece más especializado, es probable que crezca la demanda empresarial.


Con las búsquedas basadas en palabras clave que se caen de moda, ¿cómo evolucionarán las búsquedas de IA?


Las personas que anteriormente hicieron un uso intenso de Google pueden confiar en la IA generativa no solo en las búsquedas web, sino también en procesos de toma de decisiones – De una manera mucho más personal.


Por ejemplo, si un usuario pregunta: “Necesito reservar un vuelo a Jeju mañana, pero tengo una reunión matutina. ¿Puedes reservar un vuelo que funcione? Pueden esperar un LLM no solo para Google esa frase, sino también para verificar los horarios de vuelo con horarios de metro y autobús para optimizar su tiempo de transporte al aeropuerto, así como en última instancia reservar el vuelo y el transporte al aeropuerto. Un agente futuro podría incluso Ordene los resultados basados ​​en preferencias pasadas, como las aerolíneas preferidas de los usuarios o las opciones de asientos.

Pero para que esto suceda, una LLM necesitaría acceso a los datos personales de los usuarios, similar a la forma en que Apple permite diferentes aplicaciones, como calendario, mapas, SIRI, para compartir información de los usuarios, evolucionando, en última instancia, de un simple retriever a un asistente de IA personalizado pero altamente invasivo.

El Prof. Billy Choi del Laboratorio de Investigación de IA de IA inspirado en Human de la Universidad de Corea y el Prof. Choo Jae-Gul en la Escuela de Graduados de Inteligencia Artificial en Kaist contribuyeron a este informe.

Por Lee Jae-Lim [[email protected]]

Continue Reading

Noticias

Meet the Power Players at OpenAI

Published

on

  • OpenAI has been elevating research and technical talent to leadership roles after recent departures.
  • The company has also brought on some new faces to fill the vacancies in its executive suite.
  • Here are some of the key people to watch going forward.

Last year, OpenAI found itself navigating a storm of departures. Recently, the company has been busy elevating its research and technical talent to leadership positions while strategically bringing in new hires to patch up the holes in its executive suite.

This shuffle in leadership couldn’t come at a more critical time, as the company faces intensified competition from heavyweights like Microsoft, Google, Anthropic, and Elon Musk’s xAI. Staying ahead means securing top-flight talent is essential. After all, “OpenAI is nothing without its people,” or so employees declared on social media after the failed Sam Altman ouster.

Meanwhile, the company is juggling a cascade of legal challenges, from copyright lawsuits to antitrust scrutiny, all while navigating the shifting sands of regulatory guidance under President Donald Trump. On top of that, OpenAI is trying to restructure as a for-profit business, raise tens of billions of dollars, and build new computer data centers in the US to develop its tech.

It’s a high-wire act that hinges on the expertise and execution of its new and newly promoted leaders. Below are some of the key power players who are helping to shape OpenAI’s future.


Leadership


Nextdoor CEO Sarah Friar sits on stage in front of a blue background smiling.

Sarah Friar.

Photo By Stephen McCarthy/Sportsfile via Getty Images



Sarah Friar, chief financial officer

Friar joined last year as the company’s first financial chief and a seasoned addition to the new guard. Formerly Square’s CFO, Friar knows how to turn a founder’s vision into a story that investors want to be a part of. She took two companies public: Square and Nextdoor, the hyperlocal social network she led through explosive growth during pandemic lockdowns.

At OpenAI, Friar leads a finance team responsible for securing the funds required to build better models and the data centers to power them. In her first few months on the job, she helped the company get $6.5 billion in one of the biggest private pools of capital in startup history.

She inherited a business with a colossal consumer-facing business and high-profile partnerships with Microsoft and Apple. At the same time, OpenAI is burning through billions of dollars as it seeks to outpace increasingly stiff competition from Google, Meta, and others. Friar is expected to bring much-needed financial acumen to OpenAI as the company moves to turn its research into mass-market products and a profitable business.

Jason Kwon, chief strategy officer

In his role as chief strategy officer, Kwon helps set the agenda for a slew of non-research initiatives, including the company’s increasingly active outreach to policymakers and the various legal challenges swirling around it. His background as the company’s former general counsel gives him a strong foundation in navigating complex legal and regulatory landscapes.

Kwon works closely with Anna Makanju, the VP of global impact, and Chris Lehane, the VP of global affairs, as they seek to build and strengthen OpenAI’s relationships in the public sector.

Kwon was previously general counsel at the famed startup accelerator Y Combinator and assistant general counsel at Khosla Ventures, an early investor in OpenAI.

Che Chang, general counsel

Being at the forefront of artificial intelligence development puts OpenAI in a position to navigate and shape a largely uncharted legal territory. In his role as general counsel, Chang leads a team of attorneys who address the legal challenges associated with the creation and deployment of large language models. The company faces dozens of lawsuits concerning the datasets used to train its models and other privacy complaints, as well as multiple government investigations.

OpenAI’s top lawyer joined the company after serving as senior corporate counsel at Amazon, where he advised executives on developing and selling machine learning products and established Amazon’s positions on artificial intelligence policy and legislation. In 2021, Chang took over for his former boss, Jason Kwon, who has since become chief strategy officer.

Kevin Weil, chief product officer


Kevin Weil talking and making gestures with his hands while speaking at Web Summit.

Kevin Weil.

Photo by Horacio Villalobos/Corbis via Getty Images



If Sam Altman is OpenAI’s starry-eyed visionary, Weil is its executor. He leads a product team that turns blue-sky research into products and services the company can sell.

Weil joined last year as a steady-handed product guru known for playing key roles at large social networks. He was a longtime Twitter insider who created products that made the social media company money during a revolving door of chief executives. At Instagram, he helped kneecap Snapchat’s growth with competitive product releases such as Stories and live video.

Weil is expected to bring much-needed systems thinking to OpenAI as the company moves to turn its research into polished products for both consumer and enterprise use cases.

Nick Turley, ChatGPT’s head of product

In the three years since ChatGPT burst onto the scene, it has reached hundreds of millions of active users and generated billions in revenue for its maker. Turley, a product savant who leads the teams driving the chatbot’s development, is behind much of ChatGPT’s success.

Turley joined in 2022 after his tenure at Instacart, where he guided a team of product managers through the pandemic-driven surge in demand for grocery delivery services.

OpenAI’s chatbot czar is likely to play a crucial role as the company expands into the enterprise market and adds more powerful, compute-intensive features to its famed chatbot.

Srinivas Narayanan, vice president of engineering

Narayanan was a longtime Facebook insider who worked on important product releases such as Facebook Photos and tools to help developers build for its virtual reality headset, Oculus. Now, he leads the OpenAI teams responsible for building new products and scaling its systems. This includes ChatGPT, which is used by over 400 million people weekly; the developer platform, which has doubled usage over the past six months; and the infrastructure needed to support both.

Research

Jakub Pachocki, chief scientist

Ilya Sutkever’s departure as chief scientist last year prompted questions about the company’s ability to stay on top of the artificial intelligence arms race. That has thrust Pachocki into the spotlight. He took on the mantle of chief scientist after seven years as an OpenAI researcher.

Pachocki had already been working closely with Sutskever on some of OpenAI’s most ambitious projects, including an advanced reasoning model now known as o1. In a post announcing his promotion, Sam Altman called Pachocki “easily one of the greatest minds of our generation.”

Mark Chen, senior vice president of research

A flurry of executive departures also cast Chen into the highest levels of leadership. He was promoted last September following the exit of Bob McGrew, the company’s chief research officer. In a post announcing the change, Altman called out Chen’s “deep technical expertise” and commended the longtime employee as having developed as a manager in recent years.

Chen’s path to OpenAI is a bit atypical compared to some of his colleagues. After studying computer science and mathematics at MIT, he began his career as a quantitative trader on Wall Street before joining OpenAI in 2018. Chen previously led the company’s frontier research.

He has been integral to OpenAI’s efforts to expand into multimodal models, heading up the team that developed DALL-E and the team that incorporated visual perception into GPT-4. Chen was also an important liaison between employees and management during Sam 0Altman’s short-lived ouster, further cementing his importance within the company.

Liam Fedus, vice president of research, post-training

Fedus helps the company get new products out the door. He leads a post-training team responsible for taking the company’s state-of-the-art models and improving their performance and efficiency before it releases them to the masses. Fedus was the third person to lead the team in a six-month period following the departures of Barret Zoph and Bob McGrew last year.

Fedus was also one of seven OpenAI researchers who developed a group of advanced reasoning models known as Strawberry. These models, which can think through problems and complete tasks they haven’t encountered before, represented a significant leap at launch.

Josh Tobin, member of technical staff

Tobin, an early research scientist at OpenAI, left to found Gantry, a company that assists teams in determining when and how to retrain their artificial intelligence systems. He returned to OpenAI last September and now leads a team of researchers focused on developing agentic products. Its flashy new agent, Deep Research, creates in-depth reports on nearly any topic.

Tobin brings invaluable experience in building agents as the company aims to scale them across a wide range of use cases. In a February interview with Sequoia, Tobin explained that when the company takes a reasoning model, gives it access to the same tools humans use to do their jobs, and optimizes for the kinds of outcomes it wants the agent to be able to do, “there’s really nothing stopping that recipe from scaling to more and more complex tasks.”

Legal

Andrea Appella, associate general counsel for Europe, Middle East, Asia

Appella joined last year, bolstering the company’s legal firepower as it navigated a thicket of open investigations into data privacy concerns, including from watchdogs in Italy and Poland. Appella is a leading expert on competition and regulatory law, having previously served as head of global competition at Netflix and deputy general counsel at 21st Century Fox.

Regulatory scrutiny could still prove to be an existential threat to OpenAI as policymakers worldwide put guardrails on the nascent artificial intelligence industry. Nowhere have lawmakers been more aggressive than in Europe, which makes Appella’s role as the company’s top legal representative in Europe one of the more crucial positions in determining the company’s future.

Haidee Schwartz, associate general counsel for competition

OpenAI has spent the last year beefing up its legal team as it faces multiple antitrust probes. Schwartz, who joined in 2023, knows more about antitrust enforcement than almost anyone in Silicon Valley, having seen both sides of the issue during her storied legal career.

Between 2017 and 2019, she served as the acting deputy director of the Bureau of Competition at the Federal Trade Commission, one of the agencies currently investigating Microsoft’s agreements with OpenAI. Schwartz also advised clients on merger review and antitrust enforcement as a partner at law firm Akin Gump. She’ll likely play an important role in helping OpenAI navigate the shifting antitrust landscape in President Donald Trump’s second term.

Heather Whitney, copyright counsel

Whitney serves as lead data counsel at OpenAI, placing her at the forefront of various legal battles with publishers that have emerged in recent years. She joined the company last January, shortly after The New York Times filed a copyright lawsuit against OpenAI and its corporate backer, Microsoft. OpenAI motioned to dismiss the high-profile case last month.

Whitney’s handling of these legal cases, which raise new questions about intellectual property in relation to machine learning, will be crucial in deciding OpenAI’s future.

Previously, Whitney worked at the law firm Morrison Foerster, where she specialized in novel copyright issues related to artificial intelligence and was a member of the firm’s AI Steering Committee. Prior to her official hiring, she had already been collaborating with OpenAI as part of Morrison Foerster, which is among several law firms offering external counsel to the company.

Policy

Chan Park, head of US and Canada policy and partnerships

Before OpenAI had a stable of federal lobbyists, it had Park. In 2023, the company registered the former Microsoft lobbyist as its first in-house lobbyist, marking a strategic move to engage more actively with lawmakers wrestling with artificial intelligence regulation.

Since then, OpenAI has beefed up its lobbying efforts as it seeks to build relationships in government and influence the development of artificial intelligence policy. It’s enlisted white-shoe law firms and at least one former US senator to plead OpenAI’s case in Washington. The company also spent $1.76 million on government lobbying in 2024, a sevenfold increase from the year before, according to a recent disclosure reviewed by the MIT Technology Review.

Park has been helping to guide those efforts from within OpenAI as the company continues to sharpen its message around responsible development of artificial intelligence.

Anna Makanju, vice president of global impact

Referred to as OpenAI’s de facto foreign minister, Makanju is the mastermind behind Sam Altman’s global charm offensive. On multiple trips, he met with world leaders, including the Indian prime minister and South Korean president, to discuss the future of artificial intelligence.

The tour was part of a broader effort to make Altman the friendly face of a nascent industry and ensure that OpenAI will have a seat at the table when designing artificial intelligence regulations and policies. Makanju, a veteran of Starlink and Facebook who also served as a special policy advisor to former President Joe Biden, has been integral in that effort.

In addition to helping Altman introduce himself on the world stage, she has played an important role in expanding OpenAI’s commercial partnerships in the public sector.

Chris Lehane, vice president of global affairs


FILE PHOTO: Airbnb head of global policy and public affairs Chris Lehane speaks to Reuters in Los Angeles, California, U.S. November 17, 2016.  REUTERS/Phil McCarten

Chris Lehane.

Thomson Reuters



Lehane joined OpenAI last year to help the company liaise with policymakers and navigate an uncharted political landscape around artificial intelligence. The veteran political operative and “spin master” played a similar role at Airbnb, where he served as head of global policy and public affairs from 2015 to 2022 and helped it address growing opposition from local authorities.

He previously served in the Clinton White House, where Newsweek referred to him as a “master of disaster” for his handling of the scandals and political crises that plagued the administration.

Lehane is poised to play a crucial role in ensuring that the United States stays at the forefront of the global race in artificial intelligence. When President Trump introduced Stargate, a joint venture between OpenAI, Oracle, and SoftBank aimed at building large domestic data centers, Lehane was on the scene. From Washington, he traveled to Texas to meet with local officials, engaging in discussions about how the state could meet the rapidly growing demand for energy.

Lane Dilg, head of infrastructure policy and partnerships

In her newly appointed role, Dilg works to grease the wheels for the construction of giant data centers needed to build artificial intelligence. She took on the position in January after two years as head of strategic initiatives for global affairs, working with government agencies, private industry, and nonprofit organizations to ensure that artificial intelligence benefits all of humanity.

In hiring Dilg, OpenAI gained an inside player in the public sector. Dilg is a former senior advisor to the undersecretary of infrastructure at the US Department of Energy and was interim city manager for Santa Monica, California, managing the city through the COVID-19 pandemic.

Dilg will undoubtedly play an important role in expanding and nurturing OpenAI’s relationships in Washington as it seeks to secure President Trump’s support for building its own data centers.

Have a tip? Contact this reporter via email at mrussell@businessinsider.com or Signal at meliarussell.01. Use a personal email address and a nonwork device; here’s our guide to sharing information securely.

Darius Rafieyan contributed to an earlier version of this story.