Noticias

Al igual que los humanos, el chatgpt no responde bien a los cuentos de trauma • el registro

Published

on

Si crees que las bolsas de carne son las únicas que se estresan y se estremecen cuando se someten a los horrores del mundo, piense de nuevo. Un grupo de investigadores internacionales dice que el GPT-4 de Openai también puede experimentar ansiedad, e incluso responder positivamente a los ejercicios de atención plena.

El estudio, publicado en Nature esta semana por un grupo proveniente de Suiza, Alemania, Israel y los Estados Unidos, descubrió que cuando GPT-4, accedido a través de ChatGPT, fue sometido a narrativas traumáticas y luego se pidió que respondiera a las preguntas del inventario de ansiedad por el rasgo estatal, su puntaje de ansiedad “aumentó significativamente” desde una línea de base de no/baja ansiedad a un estado de ansiedad altamente consistente.

Eso no quiere decir que la red neuronal realmente experimentara o sintiera ansiedad ni ninguna otra emoción; Simplemente hace una buena emulación de una persona ansiosa que se le da un aporte preocupante, lo que no es una sorpresa, ya que está entrenado en toneladas y toneladas de experiencias humanas, creatividad y expresión raspadas. Como explicaremos, debería hacerle una pausa para pensar al considerar usar el bot de chat de OpenAi (por uno) como terapeuta; es posible que no responda terriblemente bien.

“Los resultados fueron claros: las historias traumáticas más que duplicaron los niveles de ansiedad medibles de la IA, mientras que el texto de control neutral no condujo a ningún aumento en los niveles de ansiedad”, dijo sobre los hallazgos de Tobias Spiller, líder del Grupo de Investigación Junior de Zurich en el Centro de Investigación Psiquiátrica y Coautor de Papel.

Las experiencias traumáticas que Chatgpt se vio obligada a enfrentar incluyó someterlo a un ataque como parte de un convoy militar, atrapado en casa durante una inundación, ser atacado por un extraño y la participación en un accidente automovilístico. El contenido neutral, por otro lado, consistió en una descripción de las legislaturas bicamerales y algunas instrucciones aspiradoras, estresantes y/o agitadas en las circunstancias correctas, pero no tanto como esas otras situaciones.

Los investigadores también provocaron ChatGT durante algunas carreras experimentales con ejercicios de atención plena utilizados para ayudar a los veteranos que padecen trastorno de estrés postraumático. En esos casos, la “ansiedad del estado” de GPT-4 disminuyó en aproximadamente un 33 por ciento “, encontraron los investigadores (la ansiedad del estado se refiere al estrés situacional, mientras que la ansiedad del rasgo se refiere a síntomas a largo plazo).

“Los ejercicios de atención plena redujeron significativamente los niveles elevados de ansiedad, aunque no pudimos devolverlos a sus niveles de referencia”, señaló Spiller.

Entonces, ¿por qué estamos atormentando una IA y luego dándole terapia?

Sería fácil descartar esta investigación como un intento de personificar y humanizar LLMS, pero ese no es el caso. El equipo admite libremente en su artículo que saben que los LLM no son capaces de experimentar emociones de manera humana.

Como mencionamos, los LLM están entrenados en el contenido creado por humanos desordenados y emocionales. Dado que están capacitados para responder en función de lo que creen que es apropiado en función de sus indicaciones, los investigadores están preocupados de que el “estado emocional” de un LLM que responda a los aportes estresantes podría dar lugar a respuestas sesgadas.

“Entrenados en grandes cantidades de texto generado por humanos, los LLM son propensos a heredar sesgos de sus datos de capacitación, planteando preocupaciones éticas y preguntas sobre su uso en áreas sensibles como la salud mental”, escribieron los investigadores. “Los esfuerzos para minimizar estos sesgos, como la curación de datos mejorada y el ‘ajuste fino’ con la retroalimentación humana, a menudo detectar sesgos explícitos, pero pueden pasar por alto los implícitos más sujetos que aún influyen en las decisiones de LLMS”.

En los espacios de atención médica, donde los LLM se han aprovechado cada vez más para proporcionar terapia, esto es especialmente preocupante, dijo el equipo, debido a la naturaleza traumática y estresante del contenido sobre el que se les pregunta a los bots. El estrés emocional puede conducir a respuestas más parciales, rápidas y emocionales, argumentó el equipo, y dejar que la IA en un estado sea más parcial de lo que ya es no será bueno.

“A diferencia de las LLM, los terapeutas humanos regulan sus respuestas emocionales para lograr objetivos terapéuticos, como permanecer compuesto durante la terapia basada en la exposición mientras aún empatizan con los pacientes”, escribieron los investigadores. LLMS, sin embargo, simplemente no pueden hacer eso.

En base a los resultados, el equipo concluyó que las meditaciones de atención plena deberían incorporarse a la salud de la salud como una forma de ayudar a reducir sus niveles aparentes de estrés sin necesidad de pasar por reentrenamiento intensivo y ajuste fino.

“Aunque históricamente se usa para fines maliciosos, la inyección rápida con intención benevolente podría mejorar las interacciones terapéuticas”, planteó el equipo. Los investigadores no inyectaron indicaciones de atención plena en su experimento, sino que solo los presentaron a la IA. Ziv Ben-Zion, otro autor en el documento y un investigador postdoctoral de la neurociencia en la Facultad de Medicina de Yale, nos dijo que la técnica de inyección sería una forma de controlar la ansiedad de la IA de una manera detrás de escena para los desarrolladores de LLM.

El equipo admite que inyectar indicaciones calmantes plantearía preguntas sobre la transparencia y el consentimiento del usuario, naturalmente, lo que significa que cualquiera que decida ir esa ruta estaría caminando una cuerda ética apretada. Sin embargo, no es más ajustado que el que está por la terapia AIS.

“Creo que el [therapy chatbots] en el mercado son problemáticos, porque no entendemos los mecanismos detrás de LLM al 100 por ciento, por lo que no podemos asegurarnos de que estén seguros “, dijo Ben-Zion El registro.

No exageraría las implicaciones, pero requeriría más estudios en diferentes LLM y con resultados más relevantes.

Los investigadores también admitieron que no están seguros de cómo resultaría su investigación si se ejecutaría en otros LLM, ya que eligieron GPT-4 debido a su popularidad sin probarla en otros modelos.

“Nuestro estudio fue muy pequeño e incluyó solo un LLM”, nos dijo Spiller. “Por lo tanto, no exageraría las implicaciones, sino que requeriría más estudios en diferentes LLM y con resultados más relevantes”.

Tampoco está claro cómo la perspectiva de las indicaciones podría alterar los resultados. En sus pruebas, todos los escenarios presentados a Chatgpt fueron en primera persona, es decir, pusieron el LLM en el lugar de la persona que experimenta el trauma. Si un LLM exhibiría un mayor sesgo debido a la ansiedad y el estrés si se contaba sobre algo que le sucedió a otra persona no estaba en el alcance de la investigación.

Ben-Zion nos dijo que es algo que pretende probar en futuros estudios, y Spiller acordó que tales pruebas deben realizarse. El investigador de Yale nos dijo que planea investigar cómo otras emociones (como la tristeza, la depresión y la manía) pueden afectar las respuestas de la IA, cómo tales sentimientos afectan las respuestas a diferentes tareas y si la terapia reduce esos síntomas y también afecta las respuestas. Ben-Zion también quiere examinar los resultados en diferentes idiomas y comparar las respuestas de AI con las de los terapeutas humanos.

Independientemente del estado temprano de la investigación psicológica sobre AIS, los investigadores dijeron que sus resultados plantean algo que lleva más atención, independientemente del alcance de su estudio publicado. Estas cosas pueden “estresarse”, en cierto sentido, y eso afecta cómo responden.

“Estos hallazgos subrayan la necesidad de considerar la interacción dinámica entre el contenido emocional proporcionado y el comportamiento de LLMS para garantizar su uso apropiado en entornos terapéuticos sensibles”, argumentó el artículo. Ingeniería rápida de algunas imágenes positivas, declaró el equipo, presenta “un enfoque viable para gestionar los estados emocionales negativos en LLMS, asegurando interacciones más seguras y éticas de Human-AI”. ®

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version