Connect with us

Noticias

OpenAI acaba de ganar una batalla de derechos de autor presentada por dos medios de comunicación. ¿Qué podría significar esto para las demandas de la industria musical contra las empresas de IA?

Published

on

MBW Explica es una serie de características analíticas en las que exploramos el contexto detrás de los principales temas de conversación de la industria musical y sugerimos lo que podría suceder a continuación. Solo Suscriptores de MBW+ tener acceso ilimitado a estos artículos.


Durante el año pasado, numerosos titulares de derechos de autor demandaron a los desarrolladores de IA, alegando que los desarrolladores utilizaron materiales protegidos por derechos de autor sin permiso para entrenar sus modelos de IA.

Algunas de estas demandas provienen del negocio de la música. En uno de esos casos, Grupo de música universal, Grupo de música de la concordiay ABKCO desarrollador de IA demandado antrópico por su presunto uso de letras con derechos de autor para entrenar a su chatbot, Claude.

Quizás lo más notable son las compañías discográficas propiedad de las tres grandes: Grupo de música SonyGrupo Universal de Música y Grupo de música Warner – a principios de este año demandó Suno y Audiodos plataformas generativas de creación de música con IA que pueden crear una pista a partir de nada más que algunas indicaciones de texto, y que, según algunos, se han vuelto increíblemente buenas en la creación de música.

Las tres mayores alegan que Suno y Udio violaron los derechos de autor de sus grabaciones al entrenar su IA en esas grabaciones y que los dos generadores de música ahora están escupiendo música similar a la que fueron entrenados.

La forma en que los tribunales interpreten estos casos podría ser crucial para los titulares de derechos, incluida la industria musical, en términos de cómo se desarrollará su relación con la IA en los próximos años, especialmente teniendo en cuenta que la legislación para regular la IA avanza lentamente (aunque en la dirección correcta). desde el punto de vista de los titulares de derechos).

Abierto AIel creador del hiperpopular ChatGPT chatbot, ha sido objeto de múltiples demandas por parte de organizaciones de noticias, alegando que OpenAI utilizó sus artículos de noticias con derechos de autor para entrenar ChatGPT. El más famoso de estos casos es el presentado por el New York Timesque todavía está tramitándose en los tribunales.

Sin embargo, otro caso contra OpenAI ha llegado a una especie de conclusión, en lo que puede ser una de las primeras sentencias sobre la relación entre la formación en IA y los materiales protegidos por derechos de autor. A primera vista, no parece nada bueno para los titulares de derechos de autor: OpenAI ganó el caso.

A principios de este año, La cruda historiaun sitio de noticias en línea de tendencia progresista, junto con su filial Alternetdemandó a OpenAI, solicitando a un tribunal federal de Nueva York una indemnización por daños y perjuicios por la supuesta eliminación por parte de OpenAI de la información de gestión de contenidos de Historia cruda y AlterNet artículos, para usarlos para entrenar la IA. Las organizaciones de noticias también solicitaron una orden judicial para impedir que OpenAI utilice su contenido en futuras capacitaciones.

En una decisión del jueves (7 de noviembre), el juez Colleen Mc Mahon del Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York falló a favor de OpenAI, desestimando el caso presentado por Historia cruda y Alternet.

¿El razonamiento del juez? Las organizaciones de noticias no pudieron demostrar que el uso de su contenido por parte de OpenAI les haya causado algún daño real.

“No estoy convencido de que la mera eliminación de información de identificación de una obra protegida por derechos de autor (en ausencia de difusión) tenga algún análogo histórico o de derecho consuetudinario”, escribió la jueza McMahon en su despido, que se puede leer en su totalidad aquí.

El juez McMahon concluyó que es poco probable que, dado que ChatGPT fue entrenado con incontables millones de datos, en realidad regurgitaría un artículo protegido por derechos de autor, o una gran parte del mismo, en respuesta a una pregunta planteada por un usuario.

Ese no es necesariamente el final del camino para las organizaciones de noticias: el juez desestimó el caso “sin prejuicios”, es decir La cruda historia pueden volver a presentar el caso ante el tribunal si pueden presentar un argumento más sólido por haber sufrido una lesión, aunque la jueza escribió que es “escéptica sobre la capacidad de los demandantes para alegar una lesión reconocible”.

De todos modos, el abogado Tema mate de Loevy + Loevyque representa Historia cruda en el caso, dijo Reuters que está “seguro de que podemos abordar las preocupaciones que el tribunal identificó a través de una demanda enmendada”.

En otras palabras, este caso aún no ha terminado del todo.

“No estoy convencido de que la mera eliminación de información de identificación de una obra protegida por derechos de autor (en ausencia de difusión) tenga algún análogo histórico o de derecho consuetudinario”.

Juez Colleen McMahon, Raw Story contra OpenMedia

Mientras tanto, algunos observadores han sugerido que esto es una mala noticia para los titulares de derechos de autor. Drew Thurlowex director de A&R en Entretenimiento musical Sony y ahora el fundador de una startup musical. Medios de la ceremonia de aperturaargumentó en una publicación de LinkedIn que esto podría fortalecer el argumento de Suno y Udio de que su uso de canciones protegidas por derechos de autor para entrenar la IA constituye un “uso justo” según la ley de derechos de autor de EE. UU.

“¿Uno de los principios de la infracción de derechos de autor? El infractor tiene que dañar el mercado y/o el perfil financiero del demandante”, escribió Thurlow.

“¿Estas empresas de la Generación de IA están perjudicando el mercado de la música grabada? Hasta ahora, definitivamente no. De hecho, hay evidencia de que las herramientas de IA de la Generación de consumo están aumentando la participación musical. Incluso podrían estar ayudando a hacer crecer el mercado de la música grabada”.

Si la afirmación de Thurlow es correcta, entonces uno de los pilares de la doctrina del “uso justo” podría favorecer a las empresas de IA: es decir, las compañías discográficas pueden tener dificultades para demostrar que ellas, o el mercado de la música, fueron perjudicados por las empresas de IA. ‘ uso de su material.

Sin embargo, el Historia cruda versus OpenAI El caso es bastante diferente de las demandas que la industria musical ha presentado contra Anthropic, Suno y Udio. A continuación, desglosamos esas diferencias y cómo podrían significar un resultado diferente para las demandas de la industria musical contra los desarrolladores de IA.


Los derechos de autor no estuvieron en juego en el caso Raw Story/OpenAI

Todas las demandas de la industria musical contra empresas de inteligencia artificial tienen una cosa en común: alegan una infracción (o, más exactamente, muchas, muchas infracciones) de los derechos de autor.

Pero el Historia cruda la demanda no alegó infracción de derechos de autor; solo alegó que OpenAI había violado la ley de EE. UU. Ley de derechos de autor del milenio digital (DMCA), que prohíbe quitar a los materiales protegidos por derechos de autor su información de gestión de contenido (en el caso de artículos nuevos, serían cosas como el nombre de la fuente de noticias, el autor, la fecha de publicación, la información de derechos de autor, etc.).

Se trata de un enfoque inusual, dadas las otras demandas presentadas por titulares de derechos contra empresas de IA, y sólo podemos especular sobre el motivo. Historia cruda y AlterNet no habría reclamado infracción de derechos de autor al mismo tiempo.

De hecho, es una debilidad en el caso que la propia jueza McMahon pareció detectar.

“Seamos claros sobre lo que realmente está en juego aquí. El supuesto daño por el cual los demandantes realmente buscan reparación no es la exclusión de [content management information] de los conjuntos de capacitación de los demandados, sino más bien el uso de los artículos de los demandantes por parte de los demandados para desarrollar ChatGPT sin compensación para los demandantes”, escribió el juez.

El uso de artículos sin permiso “no es el tipo de daño que ha sido ‘elevado’ por… la DMCA”, añadió el juez. “Queda por ver si existe otro estatuto o teoría legal que eleve este tipo de daño. Pero esa cuestión no se plantea hoy ante el tribunal”.

Afortunadamente para los titulares de derechos (al menos por ahora), esa pregunta está ante los tribunales en otras demandas presentadas por compañías musicales.


La defensa clave de las empresas de IA (la doctrina del “uso justo”) aún no se ha probado en casos de IA.

El hecho de que Historia crudaEl caso de OpenAI centrado únicamente en la información de gestión de contenidos significa que los tribunales aún tienen que pronunciarse sobre la defensa clave que las empresas de IA están utilizando en su lucha con los titulares de derechos.

Esa defensa es la doctrina del “uso justo”, la idea de que, bajo ciertas circunstancias limitadas, es aceptable usar material protegido por derechos de autor sin permiso. Un ejemplo sencillo sería utilizar un fragmento de un artículo de noticias en un libro de texto educativo.

El uso legítimo es el argumento clave que Suno y Udio están esgrimiendo en su defensa contra las demandas por derechos de autor presentadas contra ellos por las grandes discográficas. De hecho, parecen tener tanta confianza en esa defensa que prácticamente admitieron haber utilizado material protegido por derechos de autor en sus respuestas a las demandas.

Los tribunales estadounidenses utilizan una prueba de cuatro factores para determinar si algo se considera uso legítimo:

  • El propósito y carácter del uso: ¿el uso de la obra protegida por derechos de autor tiene fines educativos o comerciales?
  • La naturaleza de la obra protegida por derechos de autor: si la obra es particularmente creativa y original o no.
  • La cantidad y la sustancialidad de la parte tomada: ¿qué proporción de una obra protegida por derechos de autor se utilizó sin permiso?
  • El efecto del uso sobre el mercado potencial o el valor de la obra protegida por derechos de autor.

En su publicación de LinkedIn, el argumento de Thurlow tiene que ver con ese cuarto punto. Si los titulares de los derechos musicales no pueden demostrar que su propiedad intelectual resultó dañada –o que el mercado resultó dañado– por el uso de obras protegidas por derechos de autor por parte de AI, eso debilita el reclamo de los titulares de los derechos.

Es probable que las compañías musicales rechacen ese argumento. Han argumentado, en diversos contextos, que la música generada por IA es un competidor directo de su propiedad intelectual en el mercado de la música. Si pueden o no probar eso es un asunto diferente.

Pero es poco probable que ese factor por sí solo decida estos casos. Los tribunales no adoptan un enfoque sistemático respecto del uso legítimo; Estas cuestiones se determinan caso por caso, teniendo en cuenta los cuatro factores.


En sus quejas contra Suno y Udio, las compañías discográficas atacaron frontalmente el argumento del “uso justo”, abordando cada uno de los cuatro factores.

El primer factor –el propósito y el carácter del uso– tiene que ver con cuán “transformador” es el uso de material protegido por derechos de autor. Si agregas un fragmento de un nuevo artículo a un libro de texto, eso es bastante “transformador”: su forma, contexto y propósito son muy diferentes del original.

Según Suno y Udio, “el uso aquí está lejos de ser transformador, ya que no existe un propósito funcional para [the AI models] ingerir las grabaciones protegidas por derechos de autor además de escupir archivos de música nuevos que compitan”, afirman las quejas de las compañías discográficas contra las plataformas de IA. Esas quejas se pueden leer en su totalidad aquí y aquí.

El segundo factor analiza el tipo de trabajo protegido por derechos de autor que supuestamente se infringe y valora algunos más que otros. Los derechos de autor de un artículo de noticias funcional (por ejemplo, resultados deportivos) se defienden menos estrictamente que los derechos de autor de algo verdadera y completamente creativo, como una nueva canción.

En sus quejas contra Suno y Udio, las compañías discográficas argumentan que las grabaciones musicales son exactamente el tipo de obras que los derechos de autor debían proteger.

El tercer factor tiene que ver con la cantidad de una obra protegida por derechos de autor que se ha utilizado. Una pequeña parte de una obra protegida por derechos de autor puede considerarse “uso legítimo”, pero es más difícil defender ese caso cuando se ha utilizado toda una obra protegida por derechos de autor.

Está “muy claro” que Suno y Udio ingieren “las partes más importantes” de canciones protegidas por derechos de autor, argumentaron las compañías discográficas, “como lo demuestran [their] capacidad de recrear, por ejemplo, algunas de las frases musicales, estribillos y estribillos más reconocibles de la historia de la música popular”.


¿Daño real?

Eso deja el cuarto factor, el único del que tal vez –sólo tal vez– tuvimos una pista con el Historia cruda versus OpenAI caso. Si bien la jueza en ese caso no estaba sopesando los factores del “uso justo”, sí demostró que simplemente afirmar que se ha causado daño a los titulares de derechos de autor no es suficiente para presentar un caso.

Las quejas de las compañías discográficas contra Suno y Udio afirman que la música generada por IA de las plataformas es “una amenaza significativa para el mercado y el valor de las grabaciones protegidas por derechos de autor”. ¿Pero un tribunal simplemente estará de acuerdo?

Ahí podría radicar realmente la dificultad para los titulares de derechos de autor en estos casos. La pregunta plantea una situación de “¿qué pasaría si?”: ¿cuáles serían los ingresos por música grabada si no hubieran aparecido plataformas de inteligencia artificial como Suno y Udio? ¿Cuánto costaría Michael Bublé? Influencia ¿Valdría la pena si Udio no lo hubiera (supuestamente) usado para entrenar su generador de música AI? Complicado.

Es posible que las compañías discográficas tengan que profundizar en la investigación de mercado para mostrar el daño material, si es que dicha investigación de mercado existe en este momento.

Mientras tanto, el despido de Historia cruda versus OpenAI no tiene por qué causar noches de insomnio a los propietarios de música: el caso era lo suficientemente diferente y lo suficientemente limitado en su alcance como para dejar la puerta abierta a veredictos muy diferentes en los casos que aún están por venir.Negocio musical en todo el mundo

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.

Continue Reading

Trending