Noticias
Informe CES: La era de la IA agente presagia una revisión del SEO, preguntas y respuestas con Raja Rajamannar de Mastercard y la asistencia publicitaria OpenAI de Dotdash Meredith
Published
4 meses agoon
Esta edición del informe diario CES de Digiday analiza la necesidad de que las marcas adopten estrategias de SEO para tratar con agentes de IA, una entrevista con Raja Rajamannar de Mastercard sobre los modelos de compensación de agencias en la era de la IA y cómo Dotdash Meredith ha utilizado OpenAI para impulsar su producto publicitario contextual. D/Cifrado.
Espere escuchar mucho sobre la optimización de motores de búsqueda en 2025. Excepto que no se llamará así.
“Ya no se trata de optimización de motores de búsqueda. Se trata de motores de respuesta”, dijo Amy Lanzi, directora ejecutiva de Digitas.
En lugar de decidir cómo aparecer alto en los rankings de búsqueda de Google, las marcas necesitarán determinar cómo atraer a los agentes de inteligencia artificial que se espera que manejen tareas para personas como reservar itinerarios de viaje. “Las marcas deben ser la respuesta a las preguntas que haces en Géminis o lo que sea [other generative AI tool]”, dijo Lanzi.
Esta noción de optimización del motor de respuesta, u optimización de la IA agente, o como se llame, ha sido un tema importante de discusión entre los ejecutivos de las agencias durante el Consumer Electronics Show de este año.
“La realidad de que los agentes de IA recopilen información y la traigan de vuelta [to people]es decir, búsqueda en 2025 y más allá. Asegurarse de estar allí desde una perspectiva de SEO es absolutamente vital”, dijo Kelly Metz, directora de inversiones de OMD USA.
Sin embargo, la forma en que los especialistas en marketing se aseguran de que sus marcas sean elegidas cuando alguien le pide a un agente de inteligencia artificial que planifique sus vacaciones de verano o se encargue de sus compras navideñas va mucho más allá de las tácticas tradicionales de SEO.
“La búsqueda ha sido la respuesta a la capacidad de descubrimiento. Ahora será un ingrediente y un paradigma diferente”, afirmó Jeff Geheb, director global de experiencia y líder global de soluciones empresariales de VML.
Históricamente, las tácticas de SEO se han centrado en vincular una marca a palabras clave específicas mediante la siembra de contenido en la web que establece esa conexión para que el motor de búsqueda de Google aprenda a hacer esa asociación cuando alguien escribe una de esas palabras clave en una consulta de búsqueda. Las tácticas basadas en palabras clave no van a ser suficientes cuando los grandes modelos de lenguaje que impulsan a los agentes de IA pueden ir más allá del reconocimiento de palabras clave para comprender el contexto y los conceptos subyacentes al lenguaje y juzgar por sí mismos qué es lo mejor. [insert product type] en lugar de confiar en los artículos de los editores que enumeran los mejores [insert product type].
“La realidad de los agentes de IA es que van a su sitio web para brindar información a los usuarios. Navegar por eso es un desafío para las marcas. Son preguntas como: ‘¿Quiero que vayan a mi sitio? ¿Cómo puedo aprovechar las asociaciones con los medios para sacar más provecho de esta experiencia y asegurarme de presentarme de la manera correcta ante los agentes?’”, dijo Metz.
“No se trata de ‘tienda cerca de mí’. Se trata de ‘el lugar perfecto para hacerme bella’ porque quiero ganar el premio ‘mejor marca para comprar maquillaje’”, dijo Lanzi. “Es una forma completamente diferente de pensar en ganar en la búsqueda. Por eso Reddit es interesante”.
Con el acuerdo de Reddit con Google para que los datos de los usuarios de la plataforma estén disponibles para el LLM de este último, lo que la gente dice sobre las marcas en Reddit (en el colorido lenguaje que la gente usa en la plataforma) puede influir en las evaluaciones de los agentes de IA tanto, si no más, que , las páginas de contenido propias de una marca, así como los artículos del editor.
Pero Reddit es sólo un ejemplo de un desafío más amplio. A medida que los LLM incorporen contenido en la web y más allá, a los especialistas en marketing les resultará más difícil tratar de seleccionar, y mucho menos controlar, qué información sobre sus marcas y productos está expuesta a los LLM.
Al mismo tiempo, es probable que las marcas desarrollen sus propios agentes de IA, que pueden terminar interactuando con los agentes de IA utilizados por las personas y siendo piezas centrales de como se llame este nuevo SEO.
“El apodo que estamos adoptando es M-to-M: máquina a máquina”, afirmó Brian Yamada, director de innovación de VML. “En esta próxima era, que comenzará a ganar escala, nuestros agentes hablarán con los agentes de consumidores. Entonces las marcas tendrán que pensar en las API de marca y en qué conjuntos de datos poner a disposición. Los agentes decidirán cuál es la capa de experiencia”.
Esa capa de experiencia es, bueno, la realidad.
Tres preguntas con Raja Rajamannar de Mastercard
La forma en que las marcas pagan a las agencias por su trabajo parece cambiar a medida que las herramientas de inteligencia artificial socavan el modelo de horas facturables. Cuáles serán exactamente los nuevos modelos de compensación de las agencias es una incógnita. Pero algunas conjeturas tienen más peso que otras. Como los que provienen de CMO. Entonces Digiday se sentó con el director de marketing y comunicaciones de Mastercard, Raja Rajamannar, durante el CES para conocer su opinión sobre el asunto.
La transcripción ha sido editada para mayor extensión y claridad.
¿Qué piensa sobre cómo debe cambiar el modelo de compensación de la agencia?
Les contaré una pequeña anécdota y luego les diré por qué digo lo que digo. En Mastercard, seguimos recibiendo RFP de nuestros clientes, nuestros prospectos. En el pasado, se tardaba unas siete semanas desde el momento de recibir la RFP para redactar el primer borrador de respuesta. Siete semanas. Hoy se necesita menos de un día, incluida la supervisión humana. No hay aumento de mano de obra; Es la brillantez de la IA lo que hace que este proceso sea ridículamente eficiente sin sacrificar la calidad.
Entonces, una de las cosas que estoy desafiando a mi propio equipo es decir que, si hay eficiencias en nuestro ecosistema, ya sea en nuestro propio equipo o con nuestros socios, que son las agencias, debemos desafiar el modelo existente. Existe una importante oportunidad de eficiencia disponible. Y creo que las agencias tienen que reinventar el modelo.
¿Cómo te gustaría ver ese cambio? Porque la idea de las horas facturables es completamente diferente en un mundo donde las herramientas de inteligencia artificial reducen el tiempo necesario para completar los proyectos de los clientes.
Si tuviera que recurrir a las horas facturables, sería brutal para las agencias y no deberíamos llevarlas a la extinción. Tiene que haber un modelo diferente.
Podría ser un modelo de proyecto. Para este proyecto, para obtener el resultado, les daré mucho. O podría ser una combinación de [the agency] dedicará tres [full-time employees] a [the brand] y esos tres FTE [the brand] pagará por completo, y aquí está la cantidad de tokens que estamos usando para la IA. Por lo tanto, el costo plus podría ser un segundo modelo.
el tercero [model type] es la remuneración basada en resultados. Si digo que estoy tratando de lograr conciencia y preferencia por mi nuevo servicio o producto de X a Y, le pagaré dólares ABC por eso. Ahora usted, como agencia, decide cómo diablos va a lograr que esto suceda, y estoy dispuesto a pagar por punto, digamos, 100.000 dólares. Si usted [as the agency] lograr ese aumento [at a cost to the agency of] $5,000 y te embolsas $95,000, Dios te bendiga. Pero lo miro desde mi perspectiva: ¿qué vale para mí cada porcentaje?
¿Ha presentado esto a sus agencias?
Aún no. Todo esto es un trabajo en progreso. Nosotros mismos estamos descubriendo la IA. Necesito tener suficiente cantidad de información, conocimiento y experiencia para poder decir: “¿Sabes qué? Sé que el trabajo que estás haciendo no te costará mucho. Puedo exigir que lo reduzcan en un 70% o un 80% o lo que sea, pero eso no le será de ayuda. Sé que eso te sacará del negocio. Así que pasemos a la compensación basada en resultados”.
Asistencia publicitaria OpenAI de Dotdash Meredith
El acuerdo de Dotdash Meredith con OpenAI se extiende más allá de la concesión de licencias de contenido. El editor propiedad de IAC también está utilizando la tecnología de inteligencia artificial de la matriz ChatGPT para mejorar su producto de publicidad contextual, D/Cipher.
Pero primero, algunos antecedentes. D/Cipher indexa eficazmente las páginas de artículos de las publicaciones de DDM por temas relacionados con el contenido, de modo que un anunciante que busque llegar a las novias pueda dirigirse a esa audiencia publicando anuncios sobre artículos de interés para las novias, que pueden incluir artículos relacionados con bodas, así como historias sobre otros temas. temas que la audiencia de novias sobreindexa en la lectura. Cuando DDM introdujo D/Cipher en 2023, este proceso de indexación utilizó procesamiento de lenguaje natural para identificar palabras clave comunes. Pero en la segunda mitad del año pasado, el modelo de lenguaje grande de OpenAI entró en escena.
DDM ahora está aprovechando la API de OpenAI para que el LLM encuentre conexiones entre el corpus de artículos del editor de una manera similar a cómo ChatGPT puede procesar texto para comprender los conceptos subyacentes de lo que está escrito, no solo las palabras en un nivel superficial.
“El nuevo mundo de OpenAI mejora significativamente eso porque no estamos hablando sólo de palabras como tokens sino como conceptos, como estructuras conceptuales. Se trata de establecer conexiones entre conceptos, no sólo entre el lenguaje en sí”, dijo Jon Roberts, director de innovación de DDM, en una entrevista.
Después de ejecutar la biblioteca de contenido de DDM a través de la tecnología OpenAI, el 70% de las conexiones de contenido identificadas por el LLM eran “prácticamente iguales, pero el 30% eran significativamente diferentes. Obviamente fue mejor”, dijo Roberts.
Y para ser claros, esto no es teórico. “Tenemos campañas en vivo en las que ese tipo de conocimientos de ese nivel de taxonomía mejoran los resultados para los anunciantes”, dijo Lindsay Van Kirk, gerente general de D/Cipher.
Un ejemplo: DDM realizó una campaña para un gran anunciante de CPG que estaba introduciendo un nuevo producto de lujo para el cuidado del cabello. Uno de los públicos al que quería llegar el anunciante era el de las novias. DDM ejecutó la campaña a través de D/Cipher y pudo ver que la campaña tuvo un rendimiento inferior al punto de referencia principal proporcionado por el cliente cuando se incluyeron las novias.
“En ese punto de referencia sobre la participación de los usuarios, las novias tenían entre un 30% y un 40% menos de probabilidades de interactuar que la gente promedio que miraba el anuncio”, dijo Roberts.
DDM pudo detectar esta caída de audiencia específica porque la campaña se ejecutaba en contenido relacionado con bodas, así como en contenido no relacionado donde la única audiencia que se superponía eran aquellas personas que revisaban las piezas relacionadas con la boda. DDM recomendó eliminar a las novias de la campaña y, como resultado, la campaña “superó [the client’s higher] estirar el punto de referencia”, dijo Van Kirk.
You may like
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini
Published
9 horas agoon
11 mayo, 2025
En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Noticias
Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo
Published
14 horas agoon
11 mayo, 2025Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?
El CEO de Operai propuso esa misma pregunta a Grok el viernes.
Perdió.
“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.
Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.
Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.
Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”
Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.
Grok fue la única IA inclinada hacia el lado de Musk.
Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.
Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Esto es lo que dijo cada chatbot de IA.
Chatgpt
El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.
Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.
El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.
“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de Musk” Chatgpt dijo.
Tirar
Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.
“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.
El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.
Copiloto
El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.
Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.
Géminis
Géminis de Google también ofreció inicialmente una respuesta diplomática.
Historias relacionadas
Business Insider cuenta las historias innovadoras que desea saber
Business Insider cuenta las historias innovadoras que desea saber
El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.
Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.
Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.
“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.
Acumular
Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.
“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.
Meta ai
Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.
“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.
Perplejidad
La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.
“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.
Los bots están de acuerdo: Musk v. Altman persistirá
En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?
“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.
Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de Openai, se ha vuelto competitiva, marcada por disputas públicas, batallas legales y la reciente oferta de $ 97.4 mil millones de Musk para adquirir OpenAi, que …
– Grok (@Grok) 10 de mayo de 2025
El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”
Le preguntamos al resto de los bots eso también.
Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.
Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.
El resto estimó probabilidades aún peores.
Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.
Al menos están de acuerdo en algo.
Related posts

















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo