Connect with us

Noticias

Meet the Power Players at OpenAI

Published

on

  • OpenAI has been elevating research and technical talent to leadership roles after recent departures.
  • The company has also brought on some new faces to fill the vacancies in its executive suite.
  • Here are some of the key people to watch going forward.

Last year, OpenAI found itself navigating a storm of departures. Recently, the company has been busy elevating its research and technical talent to leadership positions while strategically bringing in new hires to patch up the holes in its executive suite.

This shuffle in leadership couldn’t come at a more critical time, as the company faces intensified competition from heavyweights like Microsoft, Google, Anthropic, and Elon Musk’s xAI. Staying ahead means securing top-flight talent is essential. After all, “OpenAI is nothing without its people,” or so employees declared on social media after the failed Sam Altman ouster.

Meanwhile, the company is juggling a cascade of legal challenges, from copyright lawsuits to antitrust scrutiny, all while navigating the shifting sands of regulatory guidance under President Donald Trump. On top of that, OpenAI is trying to restructure as a for-profit business, raise tens of billions of dollars, and build new computer data centers in the US to develop its tech.

It’s a high-wire act that hinges on the expertise and execution of its new and newly promoted leaders. Below are some of the key power players who are helping to shape OpenAI’s future.


Leadership


Nextdoor CEO Sarah Friar sits on stage in front of a blue background smiling.

Sarah Friar.

Photo By Stephen McCarthy/Sportsfile via Getty Images



Sarah Friar, chief financial officer

Friar joined last year as the company’s first financial chief and a seasoned addition to the new guard. Formerly Square’s CFO, Friar knows how to turn a founder’s vision into a story that investors want to be a part of. She took two companies public: Square and Nextdoor, the hyperlocal social network she led through explosive growth during pandemic lockdowns.

At OpenAI, Friar leads a finance team responsible for securing the funds required to build better models and the data centers to power them. In her first few months on the job, she helped the company get $6.5 billion in one of the biggest private pools of capital in startup history.

She inherited a business with a colossal consumer-facing business and high-profile partnerships with Microsoft and Apple. At the same time, OpenAI is burning through billions of dollars as it seeks to outpace increasingly stiff competition from Google, Meta, and others. Friar is expected to bring much-needed financial acumen to OpenAI as the company moves to turn its research into mass-market products and a profitable business.

Jason Kwon, chief strategy officer

In his role as chief strategy officer, Kwon helps set the agenda for a slew of non-research initiatives, including the company’s increasingly active outreach to policymakers and the various legal challenges swirling around it. His background as the company’s former general counsel gives him a strong foundation in navigating complex legal and regulatory landscapes.

Kwon works closely with Anna Makanju, the VP of global impact, and Chris Lehane, the VP of global affairs, as they seek to build and strengthen OpenAI’s relationships in the public sector.

Kwon was previously general counsel at the famed startup accelerator Y Combinator and assistant general counsel at Khosla Ventures, an early investor in OpenAI.

Che Chang, general counsel

Being at the forefront of artificial intelligence development puts OpenAI in a position to navigate and shape a largely uncharted legal territory. In his role as general counsel, Chang leads a team of attorneys who address the legal challenges associated with the creation and deployment of large language models. The company faces dozens of lawsuits concerning the datasets used to train its models and other privacy complaints, as well as multiple government investigations.

OpenAI’s top lawyer joined the company after serving as senior corporate counsel at Amazon, where he advised executives on developing and selling machine learning products and established Amazon’s positions on artificial intelligence policy and legislation. In 2021, Chang took over for his former boss, Jason Kwon, who has since become chief strategy officer.

Kevin Weil, chief product officer


Kevin Weil talking and making gestures with his hands while speaking at Web Summit.

Kevin Weil.

Photo by Horacio Villalobos/Corbis via Getty Images



If Sam Altman is OpenAI’s starry-eyed visionary, Weil is its executor. He leads a product team that turns blue-sky research into products and services the company can sell.

Weil joined last year as a steady-handed product guru known for playing key roles at large social networks. He was a longtime Twitter insider who created products that made the social media company money during a revolving door of chief executives. At Instagram, he helped kneecap Snapchat’s growth with competitive product releases such as Stories and live video.

Weil is expected to bring much-needed systems thinking to OpenAI as the company moves to turn its research into polished products for both consumer and enterprise use cases.

Nick Turley, ChatGPT’s head of product

In the three years since ChatGPT burst onto the scene, it has reached hundreds of millions of active users and generated billions in revenue for its maker. Turley, a product savant who leads the teams driving the chatbot’s development, is behind much of ChatGPT’s success.

Turley joined in 2022 after his tenure at Instacart, where he guided a team of product managers through the pandemic-driven surge in demand for grocery delivery services.

OpenAI’s chatbot czar is likely to play a crucial role as the company expands into the enterprise market and adds more powerful, compute-intensive features to its famed chatbot.

Srinivas Narayanan, vice president of engineering

Narayanan was a longtime Facebook insider who worked on important product releases such as Facebook Photos and tools to help developers build for its virtual reality headset, Oculus. Now, he leads the OpenAI teams responsible for building new products and scaling its systems. This includes ChatGPT, which is used by over 400 million people weekly; the developer platform, which has doubled usage over the past six months; and the infrastructure needed to support both.

Research

Jakub Pachocki, chief scientist

Ilya Sutkever’s departure as chief scientist last year prompted questions about the company’s ability to stay on top of the artificial intelligence arms race. That has thrust Pachocki into the spotlight. He took on the mantle of chief scientist after seven years as an OpenAI researcher.

Pachocki had already been working closely with Sutskever on some of OpenAI’s most ambitious projects, including an advanced reasoning model now known as o1. In a post announcing his promotion, Sam Altman called Pachocki “easily one of the greatest minds of our generation.”

Mark Chen, senior vice president of research

A flurry of executive departures also cast Chen into the highest levels of leadership. He was promoted last September following the exit of Bob McGrew, the company’s chief research officer. In a post announcing the change, Altman called out Chen’s “deep technical expertise” and commended the longtime employee as having developed as a manager in recent years.

Chen’s path to OpenAI is a bit atypical compared to some of his colleagues. After studying computer science and mathematics at MIT, he began his career as a quantitative trader on Wall Street before joining OpenAI in 2018. Chen previously led the company’s frontier research.

He has been integral to OpenAI’s efforts to expand into multimodal models, heading up the team that developed DALL-E and the team that incorporated visual perception into GPT-4. Chen was also an important liaison between employees and management during Sam 0Altman’s short-lived ouster, further cementing his importance within the company.

Liam Fedus, vice president of research, post-training

Fedus helps the company get new products out the door. He leads a post-training team responsible for taking the company’s state-of-the-art models and improving their performance and efficiency before it releases them to the masses. Fedus was the third person to lead the team in a six-month period following the departures of Barret Zoph and Bob McGrew last year.

Fedus was also one of seven OpenAI researchers who developed a group of advanced reasoning models known as Strawberry. These models, which can think through problems and complete tasks they haven’t encountered before, represented a significant leap at launch.

Josh Tobin, member of technical staff

Tobin, an early research scientist at OpenAI, left to found Gantry, a company that assists teams in determining when and how to retrain their artificial intelligence systems. He returned to OpenAI last September and now leads a team of researchers focused on developing agentic products. Its flashy new agent, Deep Research, creates in-depth reports on nearly any topic.

Tobin brings invaluable experience in building agents as the company aims to scale them across a wide range of use cases. In a February interview with Sequoia, Tobin explained that when the company takes a reasoning model, gives it access to the same tools humans use to do their jobs, and optimizes for the kinds of outcomes it wants the agent to be able to do, “there’s really nothing stopping that recipe from scaling to more and more complex tasks.”

Legal

Andrea Appella, associate general counsel for Europe, Middle East, Asia

Appella joined last year, bolstering the company’s legal firepower as it navigated a thicket of open investigations into data privacy concerns, including from watchdogs in Italy and Poland. Appella is a leading expert on competition and regulatory law, having previously served as head of global competition at Netflix and deputy general counsel at 21st Century Fox.

Regulatory scrutiny could still prove to be an existential threat to OpenAI as policymakers worldwide put guardrails on the nascent artificial intelligence industry. Nowhere have lawmakers been more aggressive than in Europe, which makes Appella’s role as the company’s top legal representative in Europe one of the more crucial positions in determining the company’s future.

Haidee Schwartz, associate general counsel for competition

OpenAI has spent the last year beefing up its legal team as it faces multiple antitrust probes. Schwartz, who joined in 2023, knows more about antitrust enforcement than almost anyone in Silicon Valley, having seen both sides of the issue during her storied legal career.

Between 2017 and 2019, she served as the acting deputy director of the Bureau of Competition at the Federal Trade Commission, one of the agencies currently investigating Microsoft’s agreements with OpenAI. Schwartz also advised clients on merger review and antitrust enforcement as a partner at law firm Akin Gump. She’ll likely play an important role in helping OpenAI navigate the shifting antitrust landscape in President Donald Trump’s second term.

Heather Whitney, copyright counsel

Whitney serves as lead data counsel at OpenAI, placing her at the forefront of various legal battles with publishers that have emerged in recent years. She joined the company last January, shortly after The New York Times filed a copyright lawsuit against OpenAI and its corporate backer, Microsoft. OpenAI motioned to dismiss the high-profile case last month.

Whitney’s handling of these legal cases, which raise new questions about intellectual property in relation to machine learning, will be crucial in deciding OpenAI’s future.

Previously, Whitney worked at the law firm Morrison Foerster, where she specialized in novel copyright issues related to artificial intelligence and was a member of the firm’s AI Steering Committee. Prior to her official hiring, she had already been collaborating with OpenAI as part of Morrison Foerster, which is among several law firms offering external counsel to the company.

Policy

Chan Park, head of US and Canada policy and partnerships

Before OpenAI had a stable of federal lobbyists, it had Park. In 2023, the company registered the former Microsoft lobbyist as its first in-house lobbyist, marking a strategic move to engage more actively with lawmakers wrestling with artificial intelligence regulation.

Since then, OpenAI has beefed up its lobbying efforts as it seeks to build relationships in government and influence the development of artificial intelligence policy. It’s enlisted white-shoe law firms and at least one former US senator to plead OpenAI’s case in Washington. The company also spent $1.76 million on government lobbying in 2024, a sevenfold increase from the year before, according to a recent disclosure reviewed by the MIT Technology Review.

Park has been helping to guide those efforts from within OpenAI as the company continues to sharpen its message around responsible development of artificial intelligence.

Anna Makanju, vice president of global impact

Referred to as OpenAI’s de facto foreign minister, Makanju is the mastermind behind Sam Altman’s global charm offensive. On multiple trips, he met with world leaders, including the Indian prime minister and South Korean president, to discuss the future of artificial intelligence.

The tour was part of a broader effort to make Altman the friendly face of a nascent industry and ensure that OpenAI will have a seat at the table when designing artificial intelligence regulations and policies. Makanju, a veteran of Starlink and Facebook who also served as a special policy advisor to former President Joe Biden, has been integral in that effort.

In addition to helping Altman introduce himself on the world stage, she has played an important role in expanding OpenAI’s commercial partnerships in the public sector.

Chris Lehane, vice president of global affairs


FILE PHOTO: Airbnb head of global policy and public affairs Chris Lehane speaks to Reuters in Los Angeles, California, U.S. November 17, 2016.  REUTERS/Phil McCarten

Chris Lehane.

Thomson Reuters



Lehane joined OpenAI last year to help the company liaise with policymakers and navigate an uncharted political landscape around artificial intelligence. The veteran political operative and “spin master” played a similar role at Airbnb, where he served as head of global policy and public affairs from 2015 to 2022 and helped it address growing opposition from local authorities.

He previously served in the Clinton White House, where Newsweek referred to him as a “master of disaster” for his handling of the scandals and political crises that plagued the administration.

Lehane is poised to play a crucial role in ensuring that the United States stays at the forefront of the global race in artificial intelligence. When President Trump introduced Stargate, a joint venture between OpenAI, Oracle, and SoftBank aimed at building large domestic data centers, Lehane was on the scene. From Washington, he traveled to Texas to meet with local officials, engaging in discussions about how the state could meet the rapidly growing demand for energy.

Lane Dilg, head of infrastructure policy and partnerships

In her newly appointed role, Dilg works to grease the wheels for the construction of giant data centers needed to build artificial intelligence. She took on the position in January after two years as head of strategic initiatives for global affairs, working with government agencies, private industry, and nonprofit organizations to ensure that artificial intelligence benefits all of humanity.

In hiring Dilg, OpenAI gained an inside player in the public sector. Dilg is a former senior advisor to the undersecretary of infrastructure at the US Department of Energy and was interim city manager for Santa Monica, California, managing the city through the COVID-19 pandemic.

Dilg will undoubtedly play an important role in expanding and nurturing OpenAI’s relationships in Washington as it seeks to secure President Trump’s support for building its own data centers.

Have a tip? Contact this reporter via email at mrussell@businessinsider.com or Signal at meliarussell.01. Use a personal email address and a nonwork device; here’s our guide to sharing information securely.

Darius Rafieyan contributed to an earlier version of this story.

Continue Reading

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.