Noticias
Percepciones de los estudiantes de profesiones sanitarias sobre ChatGPT en la atención sanitaria y la educación: conocimientos de un estudio de métodos mixtos | Educación Médica BMC
Published
4 meses agoon
Características generales de la población de estudio (Tabla 1)
La población de estudio (norte= 217) era predominantemente femenina (85,7%), con una edad promedio de 26,9 ± 5,7 años (rango 18-52 años). Un total de 190 (82,3%) estudiantes nacieron en Israel y más del 90% se identificaron como judíos, el 4,6% como musulmanes y el 0,5% como cristianos. Una proporción significativa (65,4%) de los participantes estaban casados o convivían. Geográficamente, la distribución residencial de los estudiantes fue la siguiente: 43,9% en el centro de Israel, 18,9% en el norte de Israel, 14,1% en el sur y 10,7% en Jerusalén. Casi el 60% de los participantes estaban en el primer y segundo año de estudios y reportaron una media de rendimiento académico durante sus estudios de 7,6 (± 1,5), con puntuaciones que oscilaban entre 2 y 10 en una escala de 1 a 10.
Patrones de uso de ChatGPT entre la población de estudio
Entre los 217 estudiantes encuestados, 187 (86,2%) informaron estar familiarizados con ChatGPT y proporcionaron información sobre sus motivos de uso y hábitos de uso. En particular, los porcentajes fueron comparativamente altos en las diferentes disciplinas, con 60 (82,2%) estudiantes de enfermería, 57 (87,7%) de medicina y 70 (88,6%) estudiantes de otras profesiones de la salud. Los estudiantes informaron que su familiaridad con ChatGPT se desarrolló a través de amigos y familiares (78,1%), los medios (66,8%), la interacción con otros estudiantes (40,1%) y la exposición durante las clases con profesores (14,4%). Curiosamente, el 43,1% de los estudiantes informó que usaba ChatGPT con poca frecuencia, mientras que solo el 7,6% indicó el uso diario. [Mean 2.6 (SD = 1.1) on a scale of 1–6]. Sin embargo, casi una quinta parte afirmó sentirse absolutamente segura en el uso del chat, mientras que sólo el 10,7% afirmó no sentirse segura en absoluto. [Mean 3.9 (SD = 1.1) on a scale of 1–5].
Percepciones de ChatGPT
La Tabla 2 presenta las puntuaciones medias con respecto a las percepciones positivas y negativas de ChatGPT entre la población de estudio. Los datos revelan una actitud generalmente positiva hacia el uso de ChatGPT, con una puntuación media general de 4,04 (DE = 0,62) en una escala del 1 al 5, donde una puntuación más alta indica una percepción más favorable de los impactos positivos. En contraste, la puntuación media para los impactos negativos fue 3,49 (DE = 0,64) en la misma escala de 1 a 5, lo que refleja un nivel moderado de preocupación respecto de los efectos potencialmente negativos. Se empleó una prueba ANOVA unidireccional para evaluar las diferencias potenciales entre los grupos de estudiantes de enfermería, medicina y otras profesiones de la salud. El análisis no reveló diferencias estadísticamente significativas entre los grupos. Se realizaron análisis adicionales utilizando pruebas t para muestras independientes para examinar si había diferencias en las puntuaciones medias entre los estudiantes de primer año y los de años posteriores, así como entre aquellos que completaron la encuesta en marzo-abril o mayo-junio. Ninguna de estas comparaciones arrojó diferencias significativas.
Mejora de las habilidades académicas y de aprendizaje gracias al uso de ChatGPT
Las puntuaciones medias en esta área oscilaron entre 1,82 (DE = 1,21) y 3,26 (DE = 1,45), asignándose la puntuación más baja a las habilidades de gestión y la más alta a la curiosidad. La puntuación media general fue de 3,20 (DE = 0,63) en una escala de 1 a 5, lo que indica percepciones de un nivel moderado de mejora debido al uso de ChatGPT.
Preocupaciones sobre el uso de ChatGPT en la educación
Las preocupaciones sobre el uso de ChatGPT en la educación se calificaron de manera bastante variable, con las puntuaciones más bajas asignadas a las afirmaciones “Me temo que la tecnología ChatGPT nos está “espiando”” (Media = 2,46; DE = 1,27) y “Me temo”. que el uso de la tecnología ChatGPT no es ético’ (Media = 2,58; DE = 1,14). De manera similar, ‘Me temo que los profesores reprobarán a los estudiantes que usan la tecnología ChatGPT’ recibió una puntuación media de 3,72 (SD = 1,36), mientras que ‘Me temo que los profesores se opondrán al uso de la tecnología por parte de los estudiantes’ obtuvo una puntuación de 3,63 (SD = 1.34). El nivel más alto de preocupación se atribuyó a “Me temo que los profesores no están abiertos al uso de la tecnología ChatGPT por parte de los estudiantes” con una puntuación media de 3,816 (DE = 1,27).
Datos cualitativos
La mayoría de los estudiantes (norte= 128; El 68,5%) respondió a las tres preguntas abiertas. Utilizando el método de análisis comparativo constante, surgieron tres temas principales, cada uno de los cuales abarca dos hallazgos clave: uno destaca los beneficios y los aspectos positivos, y el otro aborda los desafíos y preocupaciones.
Tema 1: experiencia con ChatGPT
Beneficios y experiencias positivas.
La mayoría de los estudiantes consideran que ChatGPT es una herramienta útil y conveniente para acceder a información y conocimiento. Mencionaron constantemente: “Se considera una solución que ahorra tiempo, ya que ayuda a agilizar la investigación y recopilar materiales relevantes rápidamente”. También apreciaron la ayuda brindada para leer y resumir material académico, y valoraron la conveniencia de encontrar fuentes relevantes, especialmente para seminarios de investigación. Como señaló un estudiante de enfermería: “Veo ChatGPT como una plataforma para responder preguntas específicas y brindar orientación en diversos temas”. También reconocen el gran potencial de ChatGPT, especialmente las versiones avanzadas con interfaces y bases de datos mejoradas. Como mencionó un estudiante de terapia ocupacional: “La herramienta es una fuente de inspiración y fomenta el pensamiento creativo y la curiosidad”. Un estudiante de medicina señaló: “Estaba trabajando en el análisis de datos de pacientes en busca de tendencias en los resultados del tratamiento para proporcionar un plan de atención alternativa. ChatGPT me ayudó a generar rápidamente conclusiones iniciales sobre por qué el plan de atención alternativa es mejor”.
Desafíos y preocupaciones
A pesar de sus ventajas, algunos estudiantes expresaron escepticismo sobre la confiabilidad de ChatGPT. Varios participantes expresaron su preocupación por las prácticas de citación de ChatGPT y señalaron que la falta de fuentes adecuadas socava su confiabilidad. Como explicó un estudiante: “A veces proporciona información sin citar fuentes y eso me hace dudar en confiar completamente en él”. Además, otros estudiantes señalaron que ChatGPT a veces puede proporcionar información incorrecta o inventada, y uno de ellos afirmó: “Hay ocasiones en las que da respuestas que simplemente no tienen sentido o no son precisas en absoluto”. También se cuestionó la capacidad del software para comprender y responder preguntas específicas, como señaló otro estudiante: “A veces, tiene dificultades para responder preguntas clínicas específicas con precisión, lo que puede resultar frustrante”. Además, algunos estudiantes admitieron que no habían explorado completamente las capacidades de ChatGPT y estaban abiertos a una mayor experimentación, y un estudiante de enfermería mencionó: “Todavía estoy aprendiendo cómo usarlo de manera efectiva y tengo curiosidad por ver qué más puede hacer”. “.
Tema 2: impacto en la calidad de la atención sanitaria
Beneficios y efectos positivos.
La mayoría de los estudiantes expresaron optimismo sobre los efectos positivos que ChatGPT podría tener en la atención sanitaria. Anticiparon beneficios como “un diagnóstico más rápido, un mayor conocimiento de los pacientes y un acceso más eficiente a la información”. En particular, los estudiantes consideraron ChatGPT como una herramienta valiosa para identificar rutas de tratamiento adecuadas basadas en los datos de los pacientes. Un estudiante de medicina comentó: “Al usar ChatGPT, puedo generar rápidamente diagnósticos diferenciales basados en los síntomas, lo que me ayuda a pensar en las posibilidades de manera más efectiva”. Un estudiante de terapia ocupacional añadió: “Es como tener una segunda opinión a mano en todo momento; puedo intercambiar ideas con ella y perfeccionar mi comprensión de la atención al paciente”.
Además, los estudiantes expresaron confianza en el potencial de ChatGPT para reducir los errores humanos y mejorar la calidad de la atención. Como dijo un estudiante: “Creo que la tecnología conducirá a diagnósticos más precisos y planes de tratamiento personalizados en la atención sanitaria”. Otro estudiante comentó: “Con la ayuda de ChatGPT, podemos verificar nuestro trabajo y minimizar los errores, especialmente en situaciones críticas”. Además, un tercer estudiante afirmó: “La integración de ChatGPT en la práctica clínica podría significar menos diagnósticos erróneos, ya que puede resaltar datos importantes que podríamos pasar por alto”.
Los estudiantes también anticiparon que ChatGPT proporcionaría un acceso eficiente a la información, lo que creen que podría mejorar su trabajo. Por ejemplo, un estudiante mencionó: “ChatGPT puede acelerar las tareas, proporcionar respuestas inmediatas y ayudar a organizar la información”. Otro estudiante señaló: “Tener acceso rápido a pautas basadas en evidencia a través de ChatGPT nos ahorra mucho tiempo al tomar decisiones clínicas”. Un tercer estudiante añadió: “Es como tener un asistente digital que puede obtener rápidamente estudios y datos relevantes, lo que me permite centrarme más en la interacción con el paciente”.
Además, algunos estudiantes percibieron ChatGPT como una herramienta para ampliar sus conocimientos y mejorar la toma de decisiones en la atención al paciente. Un participante señaló: “Usar ChatGPT me permite explorar varias opciones de tratamiento y comprender las implicaciones de cada elección”. Expresaron la idea de que “un paciente puede participar en la toma de decisiones”, como comentó otro estudiante: “Con la información de ChatGPT, puedo involucrar a los pacientes de manera más efectiva en sus planes de atención”.
Desafíos y preocupaciones
Surgieron preocupaciones sobre el riesgo de que una dependencia excesiva de la tecnología pudiera disminuir el toque personal esencial en las interacciones con los pacientes. Un estudiante advirtió: “Si confiamos demasiado en la tecnología, podríamos perder el toque personal que es crucial en la atención al paciente”. Otros expresaron temores de que una mayor dependencia de la tecnología podría conducir a interacciones más analíticas y robóticas con los pacientes. Como enfatizó un estudiante de enfermería: “Más allá de las capacidades de ChatGPT, todavía existe la necesidad de un juicio humano y una comprensión más integral del paciente”.
Surgieron más preocupaciones sobre el potencial de la tecnología para afectar negativamente la atención médica, como lo describió un estudiante: “una gran dependencia de la tecnología puede disminuir la calidad del tratamiento”. Otro estudiante advirtió: “Debemos tener cuidado de no permitir que ChatGPT reemplace el pensamiento crítico; de lo contrario, corremos el riesgo de simplificar demasiado los escenarios complejos de los pacientes”. Además, algunos estudiantes también expresaron su preocupación de que los pacientes pudieran evitar los servicios de atención médica tradicionales debido al fácil acceso a la información a través de ChatGPT. Un participante advirtió: “Los pacientes pueden empezar a pensar que pueden obtener todas sus respuestas en línea y no buscar ayuda profesional, lo que podría ser peligroso”.
Tema 3: integración en el currículo
Beneficios e impactos positivos
Los estudiantes abogaron por una capacitación formal sobre la incorporación efectiva de ChatGPT en sus estudios. Expresaron su creencia de que la integración de esta herramienta en los marcos educativos podría fomentar enfoques de aprendizaje innovadores. Muchos reconocieron su capacidad para optimizar las tareas y brindar acceso rápido a la información, lo que encontraron beneficioso para administrar sus cargas de trabajo. Un estudiante de enfermería mencionó: “Me ahorra horas cuando necesito encontrar estudios relevantes o resumir textos largos rápidamente”. Otro estudiante se hizo eco de esto y afirmó: “Con ChatGPT, puedo acceder fácilmente a múltiples fuentes de información sin tener que revisar interminables artículos”. Básicamente, ChatGPT se considera una fuente de orientación profesional, que ayuda a los estudiantes cuando no están seguros de sus próximos pasos en los estudios o la investigación. Como dijo un estudiante de fisioterapia: “Espero que contribuya a una toma de decisiones más informada y mejore mi conocimiento y comprensión en el campo”. Otro estudiante comentó: “Cuando estoy estancado en un tema, ChatGPT me ayuda a generar ideas y retomar el rumbo”.
Desafíos y preocupaciones
Algunos estudiantes expresaron reservas sobre una dependencia excesiva de ChatGPT, particularmente para reemplazar los métodos tradicionales de aprendizaje o investigación. Un estudiante afirmó: “Me preocupa que depender demasiado de ChatGPT pueda hacernos perezosos en nuestra investigación y aprendizaje. Aún así, debemos involucrarnos con el material nosotros mismos”. Otro estudiante señaló: “Si bien ChatGPT es útil, no debería ser nuestra única fuente. Necesitamos continuar desarrollando nuestras habilidades de investigación”.
Además, existen preocupaciones con respecto al uso ético de ChatGPT y sus limitaciones. Un estudiante comentó: “Creo que necesitamos directrices claras sobre cómo utilizar ChatGPT de forma ética, especialmente en entornos académicos”. Otro participante señaló: “Comprender las limitaciones de ChatGPT es importante; no puede reemplazar la profundidad del conocimiento que obtenemos de los métodos de aprendizaje tradicionales”.
You may like
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini
Published
1 hora agoon
11 mayo, 2025
En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Noticias
Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo
Published
6 horas agoon
11 mayo, 2025Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?
El CEO de Operai propuso esa misma pregunta a Grok el viernes.
Perdió.
“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.
Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.
Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.
Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”
Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.
Grok fue la única IA inclinada hacia el lado de Musk.
Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.
Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Esto es lo que dijo cada chatbot de IA.
Chatgpt
El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.
Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.
El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.
“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de Musk” Chatgpt dijo.
Tirar
Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.
“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.
El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.
Copiloto
El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.
Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.
Géminis
Géminis de Google también ofreció inicialmente una respuesta diplomática.
Historias relacionadas
Business Insider cuenta las historias innovadoras que desea saber
Business Insider cuenta las historias innovadoras que desea saber
El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.
Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.
Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.
“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.
Acumular
Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.
“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.
Meta ai
Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.
“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.
Perplejidad
La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.
“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.
Los bots están de acuerdo: Musk v. Altman persistirá
En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?
“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.
Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de Openai, se ha vuelto competitiva, marcada por disputas públicas, batallas legales y la reciente oferta de $ 97.4 mil millones de Musk para adquirir OpenAi, que …
– Grok (@Grok) 10 de mayo de 2025
El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”
Le preguntamos al resto de los bots eso también.
Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.
Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.
El resto estimó probabilidades aún peores.
Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.
Al menos están de acuerdo en algo.
Related posts

















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo