Connect with us

Noticias

Hipnotismo superficial versus resolución de problemas – Firstpost

Published

on

No es oro todo lo que reluce. Y ChatGPT, que ha sido objeto de fascinación durante mucho tiempo, no es una excepción. Ha sido evidente durante un par de años que ChatGPT se convirtió en sinónimo de interacciones humanas, redacción de ensayos y resolución de problemas. Sin embargo, detrás de la elegante interfaz y de las impresionantes capacidades de conversación se esconde un fenómeno que podemos llamar hipnotismo superficial: el atractivo de un sistema aparentemente competente que a menudo oculta limitaciones significativas. Como usuarios, es fundamental mirar más allá del encanto del dominio superficial y comprender los problemas subyacentes que conlleva el uso de IA como ChatGPT. Precisamente, ha soltado la lengua de esta herramienta de IA.

El síndrome de la competencia superficial

El término hipnotismo superficial capta perfectamente la tendencia a dejarse cautivar por la fluidez y las capacidades lingüísticas de ChatGPT. La forma en que este modelo de IA entreteje palabras, crea historias interesantes y responde preguntas puede generar una convincente ilusión de comprensión. A menudo parece que te estás comunicando con un ser humano que posee una gran cantidad de conocimientos sobre casi todos los temas. Pero esta capacidad de generar texto coherente y contextualmente relevante es sólo superficial: un resultado de algoritmos complejos entrenados en vastos conjuntos de datos, en lugar de una verdadera comprensión.

Oculto y dañino

Uno de los aspectos más críticos del hipnotismo superficial en el contexto de ChatGPT es la falta de comprensión genuina. ChatGPT puede articular respuestas detalladas sobre una amplia gama de temas, pero no comprende realmente el significado detrás de las palabras que utiliza. Por ejemplo, podría proporcionar información detallada sobre el cambio climático o las políticas económicas, pero carece de la capacidad de analizar críticamente o innovar más allá de los patrones que ha aprendido.

Esta limitación conlleva un riesgo de inexactitudes. ChatGPT puede generar respuestas que parezcan convincentes pero que en los hechos sean incorrectas o estén fuera de contexto. Esto puede resultar especialmente problemático en áreas como el asesoramiento médico o la orientación financiera, donde los errores podrían tener consecuencias importantes. Los usuarios pueden verse engañados por el tono confiado de la IA y ser víctimas de la ilusión de experiencia, una manifestación clásica del hipnotismo superficial.

Sesgos y preocupaciones éticas

El hipnotismo superficial también está presente en la forma en que ChatGPT aborda los prejuicios y los dilemas éticos. Los modelos de IA como ChatGPT se entrenan con conjuntos de datos masivos obtenidos de Internet, que inherentemente contienen sesgos presentes en la comunicación humana. A pesar de los esfuerzos por filtrar y corregir estos sesgos, aún pueden filtrarse en las respuestas. Esto puede dar lugar a resultados que reflejen estereotipos sociales o perspectivas sesgadas. Además, los mecanismos de moderación de ChatGPT, diseñados para evitar contenidos dañinos, pueden ser otro ejemplo de este fenómeno. Estos filtros pueden bloquear contenido abiertamente inapropiado, pero están lejos de ser perfectos. A veces, las respuestas benignas quedan atrapadas en estos filtros, mientras que el contenido más sutilmente dañino se escapa. Esta inconsistencia puede dar una falsa sensación de seguridad, donde los usuarios creen que la IA es completamente segura y moderada, cuando en realidad, la moderación opera en un nivel superficial sin una conciencia contextual más profunda.

Ilusión alarmante

En varios sectores, desde el servicio al cliente hasta la creación de contenido, ChatGPT ha sido elogiado por su capacidad para automatizar tareas, mejorar la eficiencia y reducir costos. Sin embargo, el hipnotismo superficial puede enmascarar las implicaciones sociales y económicas de esta tendencia. La automatización a través de la IA puede provocar el desplazamiento de puestos de trabajo, especialmente en industrias que dependen en gran medida de la comunicación escrita y las funciones de apoyo. Sin embargo, esta eficiencia a menudo se produce a costa de la creatividad, la empatía y la comprensión matizada, cualidades que son exclusivamente humanas. Si bien ChatGPT puede proporcionar respuestas rápidas a las consultas de los clientes, no puede realmente empatizar con un cliente frustrado ni innovar más allá de lo que ha aprendido. Puede simular la creatividad combinando ideas existentes en nuevas formas, pero esto carece de la profundidad y la espontaneidad de la percepción humana genuina. Aquí, el hipnotismo superficial de la eficiencia percibida de ChatGPT puede oscurecer el valor más profundo de las contribuciones humanas.

El dilema de la dependencia

Otro temor es la dependencia que el hipnotismo superficial puede fomentar entre los usuarios. A medida que ChatGPT se integra más en nuestra vida diaria, existe el riesgo de que las personas dependan demasiado de la IA para tareas que requieren pensamiento crítico y toma de decisiones. Esto podría conducir a una erosión gradual de las habilidades de resolución de problemas y de la creatividad, especialmente entre las generaciones más jóvenes que crecen con la asistencia de la IA como norma.

Esta dependencia excesiva está estrechamente relacionada con el atractivo superficial de las pulidas respuestas de ChatGPT. Debido a que puede proporcionar información rápidamente o incluso escribir ensayos, es fácil para los usuarios confiar en él en lugar de realizar investigaciones o análisis más profundos. Este fenómeno se extiende más allá de los usuarios individuales y llega a las organizaciones, que podrían adoptar soluciones impulsadas por la IA sin comprender plenamente las implicaciones a largo plazo de la integración de dichos sistemas en sus flujos de trabajo.

Vulnerabilidades en aumento

El hipnotismo superficial también se manifiesta en la forma en que los usuarios perciben los riesgos de privacidad y seguridad del uso de ChatGPT. Como modelo de inteligencia artificial, ChatGPT procesa una gran cantidad de datos y, dependiendo de cómo las plataformas gestionen las interacciones, puede haber importantes riesgos de privacidad. Por ejemplo, si los usuarios comparten información personal o confidencial con ChatGPT, podría estar en riesgo si los datos no se manejan adecuadamente. Además, ChatGPT podría explotarse en ataques de ingeniería social. Los actores malintencionados podrían utilizar la IA para elaborar mensajes de phishing muy convincentes o manipular conversaciones para extraer información confidencial de los usuarios. Las respuestas fluidas y convincentes de ChatGPT pueden crear una falsa sensación de seguridad, lo que facilita que las personas sean engañadas. Esta es una consecuencia directa del hipnotismo superficial, donde la sofisticación de la IA en la superficie oscurece los peligros potenciales.

Peligros ambientales

Las impresionantes capacidades de ChatGPT conllevan una importante huella medioambiental, que a menudo se esconde detrás del atractivo de su destreza tecnológica. El entrenamiento y el funcionamiento de grandes modelos de lenguaje como ChatGPT requieren una enorme potencia computacional, que a su vez consume mucha energía. Esto puede generar una huella de carbono sustancial, especialmente a medida que la escala y el despliegue de dichos modelos continúan creciendo.

Este costo ambiental es un aspecto crucial que el hipnotismo superficial a menudo oculta. Los usuarios pueden maravillarse con la capacidad de respuesta y versatilidad de ChatGPT sin considerar las implicaciones de sostenibilidad de su consumo de recursos. A medida que los debates sobre el cambio climático y la sostenibilidad se vuelven más urgentes, es esencial reconocer los costos ocultos asociados con el uso generalizado de la IA.

Lucha entre creatividad y pensamiento original

Si bien ChatGPT puede generar poesía, historias e ideas creativas, fundamentalmente carece de la capacidad de una verdadera originalidad. Sus resultados son producto del reconocimiento de patrones más que de un proceso creativo interno. Esta limitación a menudo queda enmascarada por la creatividad superficial que muestra a través de un lenguaje elocuente y variado. La diferencia entre la creatividad humana y la creatividad simulada de ChatGPT es similar a la diferencia entre una pintura creada por un artista y una reproducción realizada por una máquina. Este último puede replicar estilo y técnica, pero carece de la profundidad emocional y la experiencia personal que dan a las creaciones humanas su valor único.

Chat apasionante de imprevisibilidadGPT

Uno de los aspectos más desafiantes del uso de ChatGPT es su imprevisibilidad. Si bien puede proporcionar respuestas consistentes y relevantes la mayor parte del tiempo, ligeras variaciones en la forma en que se formulan las preguntas pueden conducir a respuestas diferentes, a veces contradictorias. Esta inconsistencia puede confundir a los usuarios y socavar la confianza en la información proporcionada por la IA.

El hipnotismo superficial también juega un papel aquí: los usuarios pueden esperar una confiabilidad constante debido a la naturaleza fluida de la mayoría de las interacciones. Sin embargo, la variabilidad subyacente de los modelos de IA significa que no pueden garantizar la misma precisión y relevancia cada vez, especialmente en temas complejos o matizados. Esta discrepancia entre apariencia y realidad es un sello distintivo del hipnotismo superficial en el ámbito de la IA.

Necesidad del momento

En un mundo cada vez más influenciado por la IA, es esencial mirar más allá del atractivo de la competencia superficial y reconocer los desafíos y limitaciones más profundos de modelos como ChatGPT. Si bien ofrece capacidades notables que pueden mejorar la productividad y la comunicación, depender demasiado de él sin comprender su verdadera naturaleza puede tener consecuencias no deseadas. Abordar los sesgos, garantizar la transparencia en el manejo de datos y equilibrar la automatización con las habilidades humanas son pasos cruciales para aprovechar el potencial de la IA y al mismo tiempo mitigar sus riesgos.

En última instancia, superar los efectos del hipnotismo superficial requiere un esfuerzo colectivo por parte de los usuarios, desarrolladores y formuladores de políticas. Al reconocer las limitaciones que subyacen a las pulidas respuestas de ChatGPT, podemos crear un enfoque más informado y equilibrado para integrar la IA en nuestras vidas. Sólo entonces podremos garantizar que la IA sirva como herramienta para un progreso genuino, en lugar de una ilusión del mismo.

Uttam Chakraborty es profesor asociado en la Escuela de Administración de la Presidency University Bengaluru. Santosh Kumar Biswal es profesor asociado en el Departamento de Periodismo y Comunicación de Masas de la Universidad de Mujeres Rama Devi, Bhubaneswar. Las opiniones expresadas en el artículo anterior son personales y exclusivas de los autores. No reflejan necesariamente las opiniones de Firstpost.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Cómo ChatGPT está abriendo el enclave digital ‘Galápagos’ de Corea

Published

on

Una ilustración del logotipos de aplicaciones de Chatgpt, Naver, Daum, Kakao, Papago, A. y WRTN [KOREA JOONGANG DAILY]

Antes de la llegada de CHATGPT, eran foros o blogs impulsados ​​por el usuario administrados por portales nacionales Naver o Daum, donde los coreanos buscaban información sobre una amplia gama de temas, desde el trivial, como el mejor restaurante de un vecindario, hasta lo significativo, incluidos los hechos sobre las relaciones inter-koreanas.

El traductor en línea de los coreanos solía ser Papago, un servicio de traducción automática desarrollado por Naver, antes del surgimiento del chatbot de OpenAi.

El dominio de los servicios de Internet de cosecha propia le valió al país un apodo, “Galápagos”, en comparación con otros mercados dominados por Google, pero más usuarios ahora se están volviendo hacia servicios relativamente nuevos como ChatGPT para sus consultas, debido a la reputación de chatbots por proporcionar respuestas más precisas que las búsquedas tradicionales basadas en palabras clave a menudo.

Como resultado, los usuarios activos mensuales de ChatGPT (MAU) han aumentado unos 6,180 por ciento a 3.14 millones entre mayo de 2023 y enero de 2025, mientras que Naver y Kakao, al tiempo que dominan en la búsqueda y el chat, están perdiendo el tiempo de pantalla, lo que los lleva a conducir hacia adelante con sus negocios de AI para bloquear a los usuarios.

Esta edición de Explicador explora la cultura en línea cambiante de Corea y su impacto en la industria tecnológica.



P. ¿Qué tan dominantes son Naver y Kakao en Corea?

A. Las dos plataformas coreanas se destacan en un mercado de búsqueda del cual Google posee un 89 por ciento, según datos de la plataforma de análisis web Statcounter. Combinados, Naver y Kakao convirtieron una participación comparable en el mercado de Corea en 2015.

Ese dominio sobre la búsqueda se ha retirado en 2024, pero las dos compañías aún ven una buena cantidad de uso en sus diversos servicios. Los usuarios activos mensuales (MAU) de las aplicaciones de Naver para Android e iOS numeraron 43.92 millones en enero de 2025, lo que significa que una gran mayoría de la población de 51.75 millones de Corea todavía usa la aplicación.

Aunque Naver y Kakao mantienen bases de usuarios significativas, el tiempo de pantalla promedio mensual para Naver ha caído en comparación con el pasado, según el Índice Mobile del Tracker de Market. El promedio de Naver promedió 472.62 minutos, una disminución del 11.14 por ciento a partir de noviembre de 2022, cuando ChatGPT tomó por asalto la escena de IA.

Kakao ha intentado diversificarse más allá de Kakaotalk, haciendo varios esfuerzos para convertir el servicio de mensajería líder de Corea en una plataforma de redes sociales más amplias. Esos aún no han valido la pena: Kakaotalk tuvo 45.69 millones de usuarios en enero de 2025, pero su tiempo de pantalla promedio se redujo 9.42 por ciento a 675.98 minutos, por enero de 2025 y noviembre de 2022.

Por otro lado, el MAUS de ChatGPT y WRTN, una plataforma de IA-Tailored de Corea que incorpora varios modelos, incluido el chatGPT4, aumentó 6,180 por ciento y 45,600 por ciento entre 2023 y 2025. El tiempo de pantalla promedio también aumentó el 703.9 por ciento y el 1,478 por ciento, respectivamente, durante el mismo período hasta alcanzar 63.75 y 297.67 minutos por usuario.


¿Por qué las empresas coreanas no están produciendo IA generativa?


Bueno, lo han hecho, pero su entrada fue bastante tarde, y las capacidades de sus modelos no están a la altura de los competidores más exitosos del mundo.

Sin embargo, Naver y Kakao están posicionando 2025 como el año de su transformación de IA, prometiendo lanzar nuevos servicios impulsados ​​por la IA para bloquear a los usuarios.

Lo que inicialmente distinguió a estas dos compañías fue su capacidad de proporcionar un archivo en línea adaptado específicamente al idioma coreano, un desafío que inicialmente estancó la búsqueda en Google, que luchó para procesar los datos coreanos de manera efectiva.

Con los datos de los usuarios que han acumulado, ampliaron sus ofertas para incluir servicios de construcción de la comunidad y diversificados en áreas como publicidad, comercio electrónico, entretenimiento, fintech y movilidad.

Los chatbots de IA ahora se destacan en la redacción de correos electrónicos, informes y ensayos, practicando conversaciones, generando ideas, planificar contenido e incluso proporcionar sugerencias de codificación.

Mientras tanto, las empresas están integrando modelos similares a ChatGPT en el servicio al cliente para automatizar consultas básicas y agilizar la recuperación y el análisis de datos.

Sin embargo, Naver y Kakao ahora enfrentan un paisaje más complejo, debido no solo al surgimiento de R1 de Deepseek, O3 O3 y DeepResearch, sino también a medida que el mercado de motores de búsqueda evoluciona rápidamente hacia uno impulsado por IA.

Las dos compañías están adoptando enfoques opuestos. Naver está expandiendo la tecnología externa, desarrollando y de marketing patentado, mientras que Kakao está integrando modelos externos en los servicios existentes.

gg

gg

Naver ahora enfrenta el desafío de expandir sus capacidades de búsqueda más allá de su propio conjunto de datos, lo que requiere modelos de inferencia de alta calidad que puedan razonar, resumir y proporcionar respuestas conscientes de contexto en lugar de simplemente recuperar contenido indexado.

Por el contrario, Kakao está doblando la IA en interacciones de los clientes, transacciones financieras y recomendaciones en sus servicios. Deepseek y Openai son, por lo tanto, socios más factibles para Kakao. En lugar de centrarse en la investigación, que es financieramente exigente debido a las altas demandas monetarias y computacionales de la capacitación de los modelos de IA, puede centrarse en la implementación.

La asociación de Kakao con OpenAI formaliza este enfoque, ya que el gigante coreano integra la API de la organización estadounidense en sus servicios.

El CEO de Kakao, Chung Shin-A, a la izquierda, y el fundador de Operai, Sam Altman, pose para una foto en el evento de prensa de Kakao para anunciar la asociación de la compañía coreana con OpenAi celebrada en el centro de Seúl el 4 de febrero. [NEWS1]

El CEO de Kakao, Chung Shin-A, a la izquierda, y el fundador de Operai, Sam Altman, pose para una foto en el evento de prensa de Kakao para anunciar la asociación de la compañía coreana con OpenAi celebrada en el centro de Seúl el 4 de febrero. [NEWS1]

Sin embargo, incluso las grandes empresas tecnológicas aún no han establecido una estrategia de monetización clara para la IA.

Naver y Kakao están presionando para integrar la búsqueda y recomendaciones de IA en el comercio electrónico como un controlador de ingresos, ya que sigue siendo la forma más viable de beneficiarse de las aplicaciones de IA, al menos por ahora.



¿Qué cambios vienen?


Naver, el sitio de portal más grande de Corea, hizo el anuncio sorpresa del regreso de su fundador, Lee Hae-Jin, como director interno a través de la divulgación electrónica a principios de este mes. La reincorporación de Lee, que se finalizará por votación en la reunión de accionistas en marzo, es significativo en el sentido de que el empresario ha permanecido en gran medida ausente de las operaciones nacionales durante siete años desde que renunció como presidente de la junta en 2017.

Su regreso indica la determinación del emprendedor solitario de impulsar el negocio de IA del sitio del portal.

El fundador de Naver, Lee Hae-Jin, de extrema izquierda, y el CEO Choi Soo-yeon, a la derecha, posan con el CEO de Nvidia, Jensen Huang, en la sede de Nvidia en California el 25 de junio de 2024. [NAVER]

El fundador de Naver, Lee Hae-Jin, de extrema izquierda, y el CEO Choi Soo-yeon, a la derecha, posan con el CEO de Nvidia, Jensen Huang, en la sede de Nvidia en California el 25 de junio de 2024. [NAVER]

Se espera que Naver publique múltiples servicios impulsados ​​por la IA este año. En la primera mitad de 2025, Naver lanzará una función informativa de IA, similar a las descripciones de IA de Google, que proporciona resúmenes generados por IA en la parte superior de los resultados de búsqueda. La plataforma de comercio electrónico de Naver, la tienda Naver Plus, implementará AI para hacer recomendaciones de productos a medida en una aplicación independiente.

Una plataforma publicitaria impulsada por IA para proveedores de comercio electrónico, en la que AI calcula los costos publicitarios de un producto, la base de consumo objetivo y las palabras clave para ofrecer anuncios personalizados a los usuarios, también se implementará.

Kakao, el operador del servicio de mensajería dominante de la nación, destacó su hoja de ruta AI al anunciar su asociación con OpenAI.

Kakao planea lanzar un chatbot, Kanana, aprovechando los servicios de API de OpenAi, como una versión beta cerrada en la primera mitad de este año. Kanana actualmente está experimentando pruebas internas.

Kakao ve la ventaja competitiva de Kanana en su potencial de uso en chats grupales, a diferencia de otros servicios similares que se centran en las conversaciones individuales, lo que la hace particularmente valiosa para fines empresariales.

Kakao y OpenAi planean codificar conjuntamente un agente que hará recomendaciones y ayudará a los usuarios a través de servicios como Kakaotalk, Kakao Map y Kakao T.

Similar al movimiento de Naver para integrar la IA en el comercio electrónico, Kakao está configurado para lanzar una función, AI Mate, que ofrecerá recomendaciones con el contexto de compras y navegación al seleccionar productos o destinos.

Una captura de pantalla del servicio de traducción de Naver, papago [SCREEN CAPTURE]

Una captura de pantalla del servicio de traducción de Naver, papago [SCREEN CAPTURE]

¿Qué pasa con las aplicaciones específicas de la traducción, como el papa de Naver? ¿Todavía tendrán demanda cuando la IA generativa parece hacer un mejor trabajo?


Es probable que aún habrá demanda de IA específica para el propósito en el espacio de empresa a empresa (B2B). Tomemos, por ejemplo, el éxito de la compañía alemana Deepl.

El éxito de Deepl es inusual porque cuando llegó a la escena, el mercado de traducción ya había sido dominado por el traductor de Google y, en Corea, el papago de Naver. Sin embargo, la compañía logró crear una participación de mercado significativa al final del juego.

Uno de los aspectos más innovadores del enfoque de DeepL fue su capacidad para ajustar el tono y la formalidad en las traducciones.

Más del 82 por ciento de las empresas de servicios de idiomas utilizan los servicios de DeepL, según la encuesta de la Asociación de Empresas de Lenguas publicada en octubre de 2024.

Las industrias como la ley, la fabricación y la medicina requieren traducciones altamente especializadas y precisas, lo que significa que los motores de traducción de IA deben estar capacitados con conjuntos de datos específicos del dominio.

Muchos consumidores se quejan de la mala calidad de traducción de los servicios de empresa a consumidor como Papago, pero tales quejas son casi inevitables, ya que tales modelos amplios no están específicamente capacitados para las tareas que se les ha pedido que realicen. Sin embargo, los traductores B2B a menudo se adaptan a las necesidades específicas de la industria.

La traducción automatizada aún no ha alcanzado el nivel necesario para reemplazar completamente los traductores humanos, particularmente en los campos donde la precisión, el tono y los matices contextuales son críticos. Sin embargo, a medida que crece más especializado, es probable que crezca la demanda empresarial.


Con las búsquedas basadas en palabras clave que se caen de moda, ¿cómo evolucionarán las búsquedas de IA?


Las personas que anteriormente hicieron un uso intenso de Google pueden confiar en la IA generativa no solo en las búsquedas web, sino también en procesos de toma de decisiones – De una manera mucho más personal.


Por ejemplo, si un usuario pregunta: “Necesito reservar un vuelo a Jeju mañana, pero tengo una reunión matutina. ¿Puedes reservar un vuelo que funcione? Pueden esperar un LLM no solo para Google esa frase, sino también para verificar los horarios de vuelo con horarios de metro y autobús para optimizar su tiempo de transporte al aeropuerto, así como en última instancia reservar el vuelo y el transporte al aeropuerto. Un agente futuro podría incluso Ordene los resultados basados ​​en preferencias pasadas, como las aerolíneas preferidas de los usuarios o las opciones de asientos.

Pero para que esto suceda, una LLM necesitaría acceso a los datos personales de los usuarios, similar a la forma en que Apple permite diferentes aplicaciones, como calendario, mapas, SIRI, para compartir información de los usuarios, evolucionando, en última instancia, de un simple retriever a un asistente de IA personalizado pero altamente invasivo.

El Prof. Billy Choi del Laboratorio de Investigación de IA de IA inspirado en Human de la Universidad de Corea y el Prof. Choo Jae-Gul en la Escuela de Graduados de Inteligencia Artificial en Kaist contribuyeron a este informe.

Por Lee Jae-Lim [[email protected]]

Continue Reading

Noticias

Meet the Power Players at OpenAI

Published

on

  • OpenAI has been elevating research and technical talent to leadership roles after recent departures.
  • The company has also brought on some new faces to fill the vacancies in its executive suite.
  • Here are some of the key people to watch going forward.

Last year, OpenAI found itself navigating a storm of departures. Recently, the company has been busy elevating its research and technical talent to leadership positions while strategically bringing in new hires to patch up the holes in its executive suite.

This shuffle in leadership couldn’t come at a more critical time, as the company faces intensified competition from heavyweights like Microsoft, Google, Anthropic, and Elon Musk’s xAI. Staying ahead means securing top-flight talent is essential. After all, “OpenAI is nothing without its people,” or so employees declared on social media after the failed Sam Altman ouster.

Meanwhile, the company is juggling a cascade of legal challenges, from copyright lawsuits to antitrust scrutiny, all while navigating the shifting sands of regulatory guidance under President Donald Trump. On top of that, OpenAI is trying to restructure as a for-profit business, raise tens of billions of dollars, and build new computer data centers in the US to develop its tech.

It’s a high-wire act that hinges on the expertise and execution of its new and newly promoted leaders. Below are some of the key power players who are helping to shape OpenAI’s future.


Leadership


Nextdoor CEO Sarah Friar sits on stage in front of a blue background smiling.

Sarah Friar.

Photo By Stephen McCarthy/Sportsfile via Getty Images



Sarah Friar, chief financial officer

Friar joined last year as the company’s first financial chief and a seasoned addition to the new guard. Formerly Square’s CFO, Friar knows how to turn a founder’s vision into a story that investors want to be a part of. She took two companies public: Square and Nextdoor, the hyperlocal social network she led through explosive growth during pandemic lockdowns.

At OpenAI, Friar leads a finance team responsible for securing the funds required to build better models and the data centers to power them. In her first few months on the job, she helped the company get $6.5 billion in one of the biggest private pools of capital in startup history.

She inherited a business with a colossal consumer-facing business and high-profile partnerships with Microsoft and Apple. At the same time, OpenAI is burning through billions of dollars as it seeks to outpace increasingly stiff competition from Google, Meta, and others. Friar is expected to bring much-needed financial acumen to OpenAI as the company moves to turn its research into mass-market products and a profitable business.

Jason Kwon, chief strategy officer

In his role as chief strategy officer, Kwon helps set the agenda for a slew of non-research initiatives, including the company’s increasingly active outreach to policymakers and the various legal challenges swirling around it. His background as the company’s former general counsel gives him a strong foundation in navigating complex legal and regulatory landscapes.

Kwon works closely with Anna Makanju, the VP of global impact, and Chris Lehane, the VP of global affairs, as they seek to build and strengthen OpenAI’s relationships in the public sector.

Kwon was previously general counsel at the famed startup accelerator Y Combinator and assistant general counsel at Khosla Ventures, an early investor in OpenAI.

Che Chang, general counsel

Being at the forefront of artificial intelligence development puts OpenAI in a position to navigate and shape a largely uncharted legal territory. In his role as general counsel, Chang leads a team of attorneys who address the legal challenges associated with the creation and deployment of large language models. The company faces dozens of lawsuits concerning the datasets used to train its models and other privacy complaints, as well as multiple government investigations.

OpenAI’s top lawyer joined the company after serving as senior corporate counsel at Amazon, where he advised executives on developing and selling machine learning products and established Amazon’s positions on artificial intelligence policy and legislation. In 2021, Chang took over for his former boss, Jason Kwon, who has since become chief strategy officer.

Kevin Weil, chief product officer


Kevin Weil talking and making gestures with his hands while speaking at Web Summit.

Kevin Weil.

Photo by Horacio Villalobos/Corbis via Getty Images



If Sam Altman is OpenAI’s starry-eyed visionary, Weil is its executor. He leads a product team that turns blue-sky research into products and services the company can sell.

Weil joined last year as a steady-handed product guru known for playing key roles at large social networks. He was a longtime Twitter insider who created products that made the social media company money during a revolving door of chief executives. At Instagram, he helped kneecap Snapchat’s growth with competitive product releases such as Stories and live video.

Weil is expected to bring much-needed systems thinking to OpenAI as the company moves to turn its research into polished products for both consumer and enterprise use cases.

Nick Turley, ChatGPT’s head of product

In the three years since ChatGPT burst onto the scene, it has reached hundreds of millions of active users and generated billions in revenue for its maker. Turley, a product savant who leads the teams driving the chatbot’s development, is behind much of ChatGPT’s success.

Turley joined in 2022 after his tenure at Instacart, where he guided a team of product managers through the pandemic-driven surge in demand for grocery delivery services.

OpenAI’s chatbot czar is likely to play a crucial role as the company expands into the enterprise market and adds more powerful, compute-intensive features to its famed chatbot.

Srinivas Narayanan, vice president of engineering

Narayanan was a longtime Facebook insider who worked on important product releases such as Facebook Photos and tools to help developers build for its virtual reality headset, Oculus. Now, he leads the OpenAI teams responsible for building new products and scaling its systems. This includes ChatGPT, which is used by over 400 million people weekly; the developer platform, which has doubled usage over the past six months; and the infrastructure needed to support both.

Research

Jakub Pachocki, chief scientist

Ilya Sutkever’s departure as chief scientist last year prompted questions about the company’s ability to stay on top of the artificial intelligence arms race. That has thrust Pachocki into the spotlight. He took on the mantle of chief scientist after seven years as an OpenAI researcher.

Pachocki had already been working closely with Sutskever on some of OpenAI’s most ambitious projects, including an advanced reasoning model now known as o1. In a post announcing his promotion, Sam Altman called Pachocki “easily one of the greatest minds of our generation.”

Mark Chen, senior vice president of research

A flurry of executive departures also cast Chen into the highest levels of leadership. He was promoted last September following the exit of Bob McGrew, the company’s chief research officer. In a post announcing the change, Altman called out Chen’s “deep technical expertise” and commended the longtime employee as having developed as a manager in recent years.

Chen’s path to OpenAI is a bit atypical compared to some of his colleagues. After studying computer science and mathematics at MIT, he began his career as a quantitative trader on Wall Street before joining OpenAI in 2018. Chen previously led the company’s frontier research.

He has been integral to OpenAI’s efforts to expand into multimodal models, heading up the team that developed DALL-E and the team that incorporated visual perception into GPT-4. Chen was also an important liaison between employees and management during Sam 0Altman’s short-lived ouster, further cementing his importance within the company.

Liam Fedus, vice president of research, post-training

Fedus helps the company get new products out the door. He leads a post-training team responsible for taking the company’s state-of-the-art models and improving their performance and efficiency before it releases them to the masses. Fedus was the third person to lead the team in a six-month period following the departures of Barret Zoph and Bob McGrew last year.

Fedus was also one of seven OpenAI researchers who developed a group of advanced reasoning models known as Strawberry. These models, which can think through problems and complete tasks they haven’t encountered before, represented a significant leap at launch.

Josh Tobin, member of technical staff

Tobin, an early research scientist at OpenAI, left to found Gantry, a company that assists teams in determining when and how to retrain their artificial intelligence systems. He returned to OpenAI last September and now leads a team of researchers focused on developing agentic products. Its flashy new agent, Deep Research, creates in-depth reports on nearly any topic.

Tobin brings invaluable experience in building agents as the company aims to scale them across a wide range of use cases. In a February interview with Sequoia, Tobin explained that when the company takes a reasoning model, gives it access to the same tools humans use to do their jobs, and optimizes for the kinds of outcomes it wants the agent to be able to do, “there’s really nothing stopping that recipe from scaling to more and more complex tasks.”

Legal

Andrea Appella, associate general counsel for Europe, Middle East, Asia

Appella joined last year, bolstering the company’s legal firepower as it navigated a thicket of open investigations into data privacy concerns, including from watchdogs in Italy and Poland. Appella is a leading expert on competition and regulatory law, having previously served as head of global competition at Netflix and deputy general counsel at 21st Century Fox.

Regulatory scrutiny could still prove to be an existential threat to OpenAI as policymakers worldwide put guardrails on the nascent artificial intelligence industry. Nowhere have lawmakers been more aggressive than in Europe, which makes Appella’s role as the company’s top legal representative in Europe one of the more crucial positions in determining the company’s future.

Haidee Schwartz, associate general counsel for competition

OpenAI has spent the last year beefing up its legal team as it faces multiple antitrust probes. Schwartz, who joined in 2023, knows more about antitrust enforcement than almost anyone in Silicon Valley, having seen both sides of the issue during her storied legal career.

Between 2017 and 2019, she served as the acting deputy director of the Bureau of Competition at the Federal Trade Commission, one of the agencies currently investigating Microsoft’s agreements with OpenAI. Schwartz also advised clients on merger review and antitrust enforcement as a partner at law firm Akin Gump. She’ll likely play an important role in helping OpenAI navigate the shifting antitrust landscape in President Donald Trump’s second term.

Heather Whitney, copyright counsel

Whitney serves as lead data counsel at OpenAI, placing her at the forefront of various legal battles with publishers that have emerged in recent years. She joined the company last January, shortly after The New York Times filed a copyright lawsuit against OpenAI and its corporate backer, Microsoft. OpenAI motioned to dismiss the high-profile case last month.

Whitney’s handling of these legal cases, which raise new questions about intellectual property in relation to machine learning, will be crucial in deciding OpenAI’s future.

Previously, Whitney worked at the law firm Morrison Foerster, where she specialized in novel copyright issues related to artificial intelligence and was a member of the firm’s AI Steering Committee. Prior to her official hiring, she had already been collaborating with OpenAI as part of Morrison Foerster, which is among several law firms offering external counsel to the company.

Policy

Chan Park, head of US and Canada policy and partnerships

Before OpenAI had a stable of federal lobbyists, it had Park. In 2023, the company registered the former Microsoft lobbyist as its first in-house lobbyist, marking a strategic move to engage more actively with lawmakers wrestling with artificial intelligence regulation.

Since then, OpenAI has beefed up its lobbying efforts as it seeks to build relationships in government and influence the development of artificial intelligence policy. It’s enlisted white-shoe law firms and at least one former US senator to plead OpenAI’s case in Washington. The company also spent $1.76 million on government lobbying in 2024, a sevenfold increase from the year before, according to a recent disclosure reviewed by the MIT Technology Review.

Park has been helping to guide those efforts from within OpenAI as the company continues to sharpen its message around responsible development of artificial intelligence.

Anna Makanju, vice president of global impact

Referred to as OpenAI’s de facto foreign minister, Makanju is the mastermind behind Sam Altman’s global charm offensive. On multiple trips, he met with world leaders, including the Indian prime minister and South Korean president, to discuss the future of artificial intelligence.

The tour was part of a broader effort to make Altman the friendly face of a nascent industry and ensure that OpenAI will have a seat at the table when designing artificial intelligence regulations and policies. Makanju, a veteran of Starlink and Facebook who also served as a special policy advisor to former President Joe Biden, has been integral in that effort.

In addition to helping Altman introduce himself on the world stage, she has played an important role in expanding OpenAI’s commercial partnerships in the public sector.

Chris Lehane, vice president of global affairs


FILE PHOTO: Airbnb head of global policy and public affairs Chris Lehane speaks to Reuters in Los Angeles, California, U.S. November 17, 2016.  REUTERS/Phil McCarten

Chris Lehane.

Thomson Reuters



Lehane joined OpenAI last year to help the company liaise with policymakers and navigate an uncharted political landscape around artificial intelligence. The veteran political operative and “spin master” played a similar role at Airbnb, where he served as head of global policy and public affairs from 2015 to 2022 and helped it address growing opposition from local authorities.

He previously served in the Clinton White House, where Newsweek referred to him as a “master of disaster” for his handling of the scandals and political crises that plagued the administration.

Lehane is poised to play a crucial role in ensuring that the United States stays at the forefront of the global race in artificial intelligence. When President Trump introduced Stargate, a joint venture between OpenAI, Oracle, and SoftBank aimed at building large domestic data centers, Lehane was on the scene. From Washington, he traveled to Texas to meet with local officials, engaging in discussions about how the state could meet the rapidly growing demand for energy.

Lane Dilg, head of infrastructure policy and partnerships

In her newly appointed role, Dilg works to grease the wheels for the construction of giant data centers needed to build artificial intelligence. She took on the position in January after two years as head of strategic initiatives for global affairs, working with government agencies, private industry, and nonprofit organizations to ensure that artificial intelligence benefits all of humanity.

In hiring Dilg, OpenAI gained an inside player in the public sector. Dilg is a former senior advisor to the undersecretary of infrastructure at the US Department of Energy and was interim city manager for Santa Monica, California, managing the city through the COVID-19 pandemic.

Dilg will undoubtedly play an important role in expanding and nurturing OpenAI’s relationships in Washington as it seeks to secure President Trump’s support for building its own data centers.

Have a tip? Contact this reporter via email at [email protected] or Signal at meliarussell.01. Use a personal email address and a nonwork device; here’s our guide to sharing information securely.

Darius Rafieyan contributed to an earlier version of this story.