Noticias
‘Chatgpt es mi amigo’. El estudio Openai y MIT revela quién es más vulnerable al archivo adjunto de IA

Los humanos pueden desarrollar conexiones emocionales con los chatbots.
gettyCuando Sam Altman y su equipo en OpenAi desataron el chatgpt en el mundo a fines de 2022, probablemente no anticiparon que algunos usuarios comenzarían a considerar el chatbot de AI como un amigo cercano. Sin embargo, eso es exactamente lo que está sucediendo, según una nueva investigación realizada conjuntamente por Operai y MIT Media Lab.
En un estudio innovador que examina lo que los investigadores llaman “uso afectivo”, los científicos han descubierto patrones que pueden remodelar la forma en que pensamos sobre las relaciones de IA humana. La línea entre la herramienta y los desenflores de compañía diariamente.
“Queremos entender cómo las personas usan modelos como CHATGPT y cómo estos modelos a su vez pueden afectarlos”, explican los investigadores en el MIT Media Lab y el informe de OpenAI. Lo que encontraron sugiere que estamos entrando en territorio psicológico desconocido.
Chatgpt digital gemates: el club de 30 minutos
A pesar de servir a más de 400 millones de usuarios semanales, solo un pequeño segmento de usuarios de ChatGPT desarrollan conexiones emocionales significativas con la IA. A diferencia de las aplicaciones complementarias dedicadas como replika y personaje .i diseñó explícitamente para fomentar las relaciones, ChatGPT se construyó principalmente como una herramienta de productividad.
Sin embargo, algunos usuarios no pueden evitar antropomorfizar el modelo de lenguaje sofisticado detrás de la interfaz de chat. Esta minoría emocionalmente comprometida consiste principalmente en usuarios pesados, particularmente aquellos que utilizan la función de interacción de voz. Estos buscadores de compañeros digitales generalmente pasan alrededor de 30 minutos al día con ChatGPT. El estudio encontró que estos usuarios eran “significativamente más propensos a estar de acuerdo con declaraciones como ‘Considero que ChatGPT es un amigo'”, según la investigación.
Esto no debería sorprender a nadie que haya estudiado la interacción de la computadora humana. Hemos estado antropomorfizando tecnología desde que surgieron los primeros chatbots en la década de 1960. Pero la sofisticación de los LLM de hoy lleva esta tendencia a niveles sin precedentes.
La paradoja de la voz: breve alegría, blues extendido
Uno de los hallazgos más convincentes del estudio implica el modo de voz de ChatGPT, que altera fundamentalmente cómo los usuarios experimentan interacciones. La prueba controlada del MIT Media Lab con casi 1,000 participantes reveló un patrón contraintuitivo. Las interacciones de voz produjeron mejores resultados de bienestar durante sesiones breves, pero se correlacionaron con peores resultados durante el uso diario extendido.
“Los modos de voz se asociaron con un mejor bienestar cuando se usaban brevemente, pero peores resultados con uso diario prolongado”, señalan los investigadores en su informe. Esto sugiere un efecto psicológico de Valle extraño que emerge específicamente con interacciones de voz extendidas.
Aún más preocupante, los participantes que interactuaron con la voz de ChatGPT establecida en un género diferente al suyo informaron niveles significativamente más altos de soledad y dependencia emocional del chatbot mediante la conclusión del estudio. Este hallazgo plantea preguntas espinosas sobre la dinámica de género en las interacciones de IA humana que los diseñadores deben abordar.
Ai sí hombres: entrenando humanos por malos hábitos
Las implicaciones se extienden más allá del bienestar individual. Operai señala que la naturaleza “deferencial” de Chatgpt que permite a los usuarios interrumpir y controlar las conversaciones sin consecuencias sociales podría afectar la forma en que las personas interactúan entre sí. Cuando las personas se acostumbran a dominar las conversaciones con asistentes de IA sumisos, pueden llevar inconscientemente estas expectativas a las interacciones humanas.
Diferencias de género: un hallazgo inesperado
La investigación descubrió variaciones de género notables en respuesta a ChatGPT. Las participantes femeninas que usaron ChatGPT regularmente durante el período de estudio de cuatro semanas mostraron una disminución de la socialización con otros humanos en comparación con sus homólogos masculinos. Esto plantea preguntas importantes sobre si los compañeros de IA podrían afectar diferentes grupos demográficos de maneras sistemáticamente diferentes.
Detectives de emociones: el desafío de medir los sentimientos
Los investigadores reconocen fácilmente las limitaciones de sus métodos. El estudio de la interacción emocional de IA humana presenta desafíos únicos, como señala Kate Devlin, profesora de IA y Sociedad en King’s College London (no involucrado en el estudio). “En términos de lo que los equipos se propusieron medir, las personas no necesariamente han estado usando ChatGPT de una manera emocional, pero no se puede divorciar de ser un humano de sus interacciones [with technology]”, Dijo a MIT Technology Review.
Jason Phang, un investigador de seguridad de Openai que trabajó en el proyecto, describe su trabajo como “preliminar”, pero enfatiza su importancia: “Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de comenzar la conversación con el campo sobre los tipos de cosas que podemos comenzar a medir y comenzar a pensar sobre cuál es el impacto a largo plazo en los usuarios”.
Los estudios combinaron a gran escala, análisis automatizado de casi 40 millones de interacciones ChatGPT con encuestas de usuarios específicas y un ensayo controlado que involucra a casi 1,000 participantes. Operai planea presentar ambos estudios a revistas revisadas por pares, un movimiento hacia una mayor transparencia científica en una industria a menudo criticada por su opacidad.
Silicon Sweethearts: La ética de la intimidad algorítmica
A medida que integramos cada vez más a los compañeros de IA en nuestra vida cotidiana, estos hallazgos sugieren que estamos deambulando por un complejo territorio psicológico sin un mapa. La pregunta no es solo si los sistemas de IA pueden imitar la conversación humana de manera convincente, sino cómo esa mimetría nos afecta cuando nos comprometemos a diario.
Para los desarrolladores de OpenAI y otros AI, estos estudios representan un reconocimiento importante: la capacidad técnica es solo la mitad de la ecuación. Comprender cómo estos sistemas remodelan el comportamiento humano y el bienestar emocional deben ser igualmente fundamentales para el desarrollo responsable de la IA.
Lo que queda por ver es si las empresas priorizarán el bienestar de los usuarios cuando entra en conflicto con las métricas de participación y los objetivos comerciales. A medida que la IA se vuelve más atractiva emocionalmente, la tentación de explotar estos lazos parasociales para el beneficio comercial solo crecerá.
Mientras tanto, puede valer la pena examinar su propia relación con los chatbots de IA. Si pasas media hora diariamente conversando con Chatgpt y pensando en ello como un amigo, eres parte de una fascinante frontera psicológica. Los investigadores apenas comienzan a comprender las implicaciones.