Connect with us

Noticias

Las posibilidades de Elon Musk contra OpenAI parecen sombrías mientras el creador de ChatGPT intenta desestimar la segunda demanda

Published

on

Las posibilidades de Elon Musk de ganar su segunda demanda contra OpenAI parecen sombrías, pero desde el punto de vista jurídico nada es completamente imposible.

El empresario ha afirmado que la organización sin fines de lucro que ayudó a fundar no puede convertirse legalmente en una corporación sin violar el propósito mismo para el cual fue creada hace nueve años: beneficiar a la humanidad en su conjunto mediante el desarrollo de la primera inteligencia artificial general (AGI) del mundo.

Musk busca obligar a su antigua creación a compensarlo por triplicar los 44,6 millones de dólares que donó durante cinco años y obligarlo a publicar todos los hallazgos de la investigación detrás de su red neuronal GPT-4.

Casualmente, este último también serviría a los intereses de su propio laboratorio de investigación xAI, un competidor directo de OpenAI.

Sin embargo, la ley estadounidense no es amable con los litigantes privados como Musk que buscan reparación contra organizaciones benéficas sin fines de lucro a las que han hecho donaciones deducibles de impuestos. Los intentos realizados a posteriori para exigir la devolución del dinero o insistir en que los fondos se utilicen de otra manera suelen estar condenados al fracaso.

“Todos esos casos fracasan”, dice a Fortune Brian Quinn, profesor de derecho corporativo en la Facultad de Derecho de Boston College. “Hay muy poca base legal para ese tipo de reclamos. Una vez que se entrega el dinero, eso es todo”.

Tirando espaguetis legales a la pared

Si bien las organizaciones sin fines de lucro deben ser conscientes de cómo tratan a los donantes si quieren que los cheques sigan fluyendo, no tienen accionistas con un interés económico que pueda verse perjudicado.

Desde el punto de vista jurídico, la responsabilidad de litigar en nombre del público recae en las autoridades, normalmente el fiscal general de un estado.

“Si haces una donación a una organización benéfica, no tienes muchos recursos para demandar más adelante. La ley estadounidense no es muy favorable a los donantes en ese sentido”, dice Luís Calderón Gómez, especialista en derecho tributario y profesor asistente de la Facultad de Derecho Cardozo de la Universidad Yeshiva. Fortuna.

Cree que las posibilidades de Musk pueden mejorar ahora que su equipo ha cambiado su estrategia legal, aumentando el número de presuntos delitos de sólo cuatro a 14, incluso si el meollo del asunto no ha cambiado.

Acusar a OpenAI de todo, desde fraude y extorsión hasta publicidad engañosa y enriquecimiento injusto, puede parecer el equivalente legal de arrojar espaguetis a la pared, con la esperanza de que uno de los cargos se mantenga de alguna manera.

Sin embargo, Calderón Gómez cree que su caso no carece del todo de mérito, dado que los tribunales pueden no ver con buenos ojos el descarado despojo de OpenAI de su caparazón sin fines de lucro.

Musk ha alegado la existencia de un “Acuerdo Fundacional”, concertado con el CEO Sam Altman, que prohíbe expresamente esta eventualidad. Sin embargo, no lo ha presentado, argumentando que, en cambio, se reflejó en el Certificado de constitución de la organización sin fines de lucro de diciembre de 2015 lo suficiente como para probar su punto.

OpenAI intenta desestimar la demanda de Musk

“Si tuviera eso [Founding Agreement]tendría un caso muy sólido”, dice Calderón Gómez. Cree que sería mejor para Musk enmarcar sus negocios menos como un donante y más como un cofundador que firmó un documento vinculante.

Sin embargo, la carga de la prueba recae en Musk, y demostrar que OpenAI había planeado defraudarlo en el momento de su fundación será un desafío en ausencia de pruebas claras.

Al enumerar no menos de 82 precedentes legales distintos para respaldar su argumento, los abogados de la compañía de Altman argumentaron el miércoles que Musk no tenía una base sobre la cual sostenerse.

“Lo nuevo es que el cuerpo del ‘Acuerdo Fundacional’ (ahora en minúsculas y relegado al final de la demanda) está plagado de acusaciones de fraude, extorsión y publicidad engañosa”, escribieron los abogados de OpenAI con desdén. “Pero Musk no ofrece ni el andamiaje fáctico ni legal necesario para sustentar sus afirmaciones”.

El equipo legal de OpenAI tomó medidas esta semana para desestimar la demanda por completo, alegando que el segundo intento de Musk de arrastrar al creador de ChatGPT a los tribunales simplemente se disfrazó de un lenguaje aún más histérico para desviar su falta de sustancia.

El equipo legal de Musk en Toberoff & Associates no respondió a una solicitud de Fortuna para comentar.

OpenAI entre las empresas privadas más valiosas

OpenAI ha sido cada vez más sincero sobre sus planes de convertirse en una corporación normal con fines de lucro y le ha dicho a su personal que esto probablemente sucederá en algún momento del próximo año.

Actualmentela compañía no tiene ganancias que distribuir y, de hecho, continúa perdiendo dinero debido a los costos exorbitantes de capacitación y refinamiento de sus modelos; por último, se esperan 5 mil millones de dólares en números rojos para este año.

Además, en los últimos seis meses se ha producido una serie de salidas de alto perfil, lo que ha dejado El director ejecutivo Sam Altman es uno de los tres únicos miembros del equipo fundador que quedan.

Eso no ha impedido que los inversores se desvivan por comprar acciones de su empresa operativa, que está controlada titularmente por la organización sin fines de lucro. A pesar de que se limitaron las ganancias, el capital que acaba de recaudar la valoró en 157 mil millones de dólares, lo que convierte a OpenAI en una de las empresas privadas más valiosas del mundo.

Musk se vuelve contra su propia creación

Mientras tanto, Musk, que dejó la junta directiva en 2018 y dejó de donar por completo dos años después, se ha visto obligado a observar el éxito desde la barrera, un éxito que ya no podía reclamar como propio.

Al principio todavía parecía un padre orgulloso. Días después del lanzamiento de ChatGPT a finales de 2022, utilizó su plataforma de redes sociales para llamar la atención sobre el invento e incluso reprendió al New York Times dos veces por no cubrirlo.

Sin embargo, en los meses siguientes, su tono cambió drásticamente cuando OpenAI acaparó los titulares y provocó una explosión de interés en la IA.

Después de que quedó claro que ChatGPT pronto se convertiría en la aplicación de más rápido crecimiento en la historia, Musk comenzó a hablar públicamente en contra del equipo de investigación de Altman, diciendo que se había convertido en exactamente lo contrario de lo que pretendía.

En mayo de 2023, estaba claro que tenía algo que hacer.

‘Yo soy la razón por la que OpenAI existe’

Ese mes, Musk le dijo a CNBC que efectivamente había terminado donando a una organización benéfica “para salvar la selva amazónica, y en lugar de eso se convirtieron en una empresa maderera, talaron el bosque y lo vendieron por dinero”.

En ese momento, Musk estaba frustrado porque los inversores no estaban recompensando el precio de las acciones de Tesla por sus propios esfuerzos en IA. Sintió que los espectadores deberían saber que Tesla también estaba en la cúspide de su propio momento ChatGPT una vez que sus Teslas pudieran conducirse solos sin supervisión humana, una hazaña que calificó como “bebé AGI”.

Musk no estaba dispuesto a permitir que OpenAI se llevara todo el crédito dos años después de cobrar su última donación. “Yo soy la razón por la que OpenAI existe”, dijo en la entrevista. Para entonces, Musk ya había revelado planes para lanzar su propio competidor de ChatGPT, xAI, una idea que eventualmente se haría realidad en julio.

Los correos electrónicos revelan que Musk quería tomar el control

En febrero de este año, Musk finalmente demandó a la empresa, alegando que había incumplido su palabra de seguir siendo una organización sin fines de lucro.

Poco después, OpenAI presentó pruebas que demostraban que Musk era muy consciente de esta probabilidad a finales de 2017, la apoyó él mismo y solo rompió con la organización después de que no se le permitió dirigirla como CEO o incluirla en Tesla.

“Elon quería una participación mayoritaria, el control inicial de la junta directiva y ser director ejecutivo”, reveló la empresa, compartiendo los correos electrónicos intercambiados en ese momento. “No pudimos llegar a un acuerdo sobre los términos de una empresa con fines de lucro con Elon, porque sentimos que iba en contra de la misión que cualquier individuo tuviera control absoluto sobre OpenAI. Luego sugirió fusionar OpenAI con Tesla”.

Exactamente un día antes de la audiencia programada de OpenAI sobre su primera moción de desestimación, el bufete de abogados Irell & Manella, que representaba a Musk en ese momento, informó al Tribunal Superior de California que retiraba la demanda, sin dar ninguna explicación.

Musk presentó una segunda demanda en agosto, pero nada de lo que OpenAI ha visto desde entonces le ha hecho cambiar de opinión. “La queja reciclada de Elon no tiene fundamento y sus correos electrónicos anteriores continúan hablando por sí solos”, dijo OpenAI a Fortune en un comunicado.

Es probable que los tribunales no permitan una expedición de pesca legal

Quinn, de la Facultad de Derecho de Boston College, sostiene que la analogía de la selva amazónica no constituye un fraude, siempre y cuando Altman no estuviera comprando motosierras activamente en ese momento. Transformarse en una empresa maderera varios años después de que Musk ya había salido puede ser una decisión moralmente cuestionable, pero no es ilegal.

Salvo que se produzca un pequeño milagro, Quinn espera que el caso de Musk sea desestimado a la primera oportunidad. Musk podría volver a presentar una solicitud, ya que tiene una capacidad efectivamente infinita para seguir financiando demandas, pero eventualmente, un juez lo sancionaría.

“Si no hay base fáctica para las acusaciones, el tribunal no abrirá sus puertas para decir ‘cualquiera que quiera demandar a alguien más, simplemente venga aquí, ponga algunas palabras por escrito, le impondremos costos innecesarios’. acusados ​​sólo para que usted participe en una expedición de pesca para encontrar algunas cosas dañinas”, dice Quinn. “Los tribunales, por buenas razones, generalmente no están dispuestos a permitir que los demandantes inicien demandas”.

Se considera que una posible demanda en California tiene mejores probabilidades

Sin embargo, Musk puede animarse al saber que al menos un grupo de defensa del consumidor comparte su frustración, aunque sea por razones distintas a las personales.

Public Citizen, una publicación no partidista con sede en Washington, DC, presentó una queja contra la compañía de Altman ante el fiscal general de California, Rob Bonta, por su transformación con fines de lucro.

El copresidente Robert Weissman escribió que el AG estatal “debería insistir en que una conversión de OpenAI a un estado con fines de lucro reserve para la humanidad el derecho a cualquier invención de OpenAI de ‘inteligencia general artificial'”.
Además, Public Citizen quiere que OpenAI pague aproximadamente el equivalente al valor extraído de la organización sin fines de lucro y entregado a los accionistas, para crear una nueva base independiente para la seguridad de la IA.

Solo eso debería costarle a las nuevas empresas con fines de lucro decenas de miles de millones de dólares, estima, algo que podría servir de consuelo a Musk.

Cuando llega por Fortunala oficina de Bonta no dijo si esto ha resultado en alguna acción coercitiva. “Para proteger la integridad de nuestras investigaciones, no podemos comentar, ni siquiera confirmar o negar, una investigación potencial o en curso”, dijo.

Calderón Gómez, de la Universidad Yeshiva, cree que un caso iniciado por el estado tendría muchas mejores perspectivas de éxito que la demanda privada de Musk.

“Si estuviera en la oficina del fiscal general de California, probablemente presentaría una demanda”, dice. “Hay suficientes datos aquí que me hacen creer que esto ya no funciona como una organización sin fines de lucro desde hace un tiempo”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.

Continue Reading

Trending