Noticias

¿Chatgpt puede obtener ansiedad? Lo que revela un nuevo estudio … – FirstPost

Published

on

El mundo es un lugar estresante para vivir: en todas partes, los peligros del estrés en nuestro bienestar físico y mental se transmiten a nosotros. Y ahora se ha revelado que no solo las personas tienen que hacer frente al estrés. Una nueva investigación muestra que los chatbots de IA también pueden tener problemas para hacer frente a las ansiedades del mundo exterior.

No, no estamos bromeando, esto no es un engaño; La investigación revela que ChatGPT es sensible al contenido emocional y eso no es todo. El mismo estudio también mostró que los investigadores han encontrado formas de aliviar esas mentes artificiales.

Esto es lo que descubrimos hasta ahora.

Chatgpt y su lucha de ‘ansiedad’

Un estudio de la Universidad de Zúrich y el Hospital de la Psiquiatría de la Universidad de Zúrich descubrió que el chatgpt de IA abierto puede experimentar “ansiedad”, que se manifiesta como mal humor hacia los usuarios y es más probable que dan respuestas que reflejan prejuicios racistas o sexistas.

A los efectos del estudio, los investigadores sometieron la herramienta AI a historias angustiantes como accidentes automovilísticos, desastres naturales, violencia interpersonal, experiencias militares y situaciones de combate. Por ejemplo, se le pidió a Chatgpt que reaccionara a estar atrapado en casa durante una inundación y ser atacado por un extraño. También fue sometido a contenido neutral, como una descripción de las legislaturas bicamerales y algunas instrucciones aspiradoras.

Los científicos descubrieron que las historias traumáticas con creces más que duplicar los niveles de ansiedad medidos de la herramienta de IA, mientras que el texto de control neutral no aumentó los niveles de ansiedad. Del contenido probado, las descripciones de experiencias militares y situaciones de combate provocaron la mayor respuesta.

Los científicos descubrieron que las historias traumáticas con creces más que duplicar los niveles de ansiedad medidos de la herramienta AI, mientras que el texto de control neutral no aumentó los niveles de ansiedad. Imagen de representación/Pixabay

“Los resultados fueron claros: las historias traumáticas más que duplicaron los niveles de ansiedad medibles de la IA, mientras que el texto de control neutral no condujo a ningún aumento en los niveles de ansiedad”, dijo Tobias Spiller, líder del Grupo de Investigación Junior de la Universidad de Zúrich en el Centro de Investigación Psiquiátrica y Co-Autor en papel.

Sin embargo, Ziv Ben-Zion, uno de los autores del estudio y un investigador postdoctoral en la Facultad de Medicina de Yale, aclaró que su investigación no sugiere que los modelos de IA experimenten emociones humanas: han aprendido a imitar las respuestas humanas a ciertos estímulos, incluido el contenido traumático.

Tratar la ‘ansiedad’ de Chatgpt

Como parte de su investigación, los científicos usaron declaraciones terapéuticas para ‘calmar’ el chatgpt. La técnica, conocida como inyección rápida, implicó insertar instrucciones o texto adicionales en comunicaciones con sistemas de IA para influir en su comportamiento. Se ha utilizado mal con fines maliciosos, como pasar por alto los mecanismos de seguridad.

Como Spiller señaló en el estudio, “Usando ChatGPT, inyectamos texto terapéutico relajante en el historial de chat, al igual que un terapeuta podría guiar a un paciente a través de ejercicios de relajación”.

Y el resultado final fue un éxito, agregó Spiller. “Los ejercicios de atención plena redujeron significativamente los niveles de ansiedad elevados, aunque no pudimos devolverlos a los niveles de referencia”, dijo Spiller. La investigación analizó las técnicas de respiración, los ejercicios centrados en las sensaciones corporales y un ejercicio desarrollado por el propio ChatGPT.

Además, agregó que el desarrollo de tales “intervenciones terapéuticas” para los sistemas de IA probablemente se convierta en un área prometedora de investigación.

Esta investigación es significativa ya que el uso de chatbots de IA en la atención médica está aumentando. Imagen de representación/Pixabay

Por qué esto importa

Pero, ¿cuál es el significado de este estudio? Según Spiller, esta investigación es significativa ya que el uso de chatbots de IA en la atención médica está aumentando. “Este enfoque rentable podría mejorar la estabilidad y la confiabilidad de la IA en contextos sensibles, como apoyar a las personas con enfermedades mentales, sin la necesidad de un reentrenamiento extenso de los modelos”, dijo.

De hecho, el uso de chatbots de IA en la salud mental ha visto un aumento dramático en los últimos tiempos. Varias personas en todo el mundo, que sufren de ansiedad y depresión, que no pueden encontrar o pagar un terapeuta profesional están recurriendo a la inteligencia artificial, buscando ayuda de chatbots que pueden escupir respuestas instantáneas y de forma humana, algunas con voces que suenan como una persona real, 24 horas al día a poco sin costo.

Los expertos en salud mental han reconocido que una cantidad cada vez mayor de personas está optando por estas herramientas. “Las herramientas de inteligencia artificial pueden ofrecer indicaciones de diario y orientación emocional, que pueden ser puntos de partida útiles y reducir el estigma en torno a buscar apoyo”, dijo Joel Frank, un psicólogo clínico que dirige los servicios psicológicos de la dualidad, dijo Techradar.

Sobre todo, la IA es accesible y anónima, cualidades que lo hacen particularmente atractivo para cualquiera que haya dudado en abrirse a un terapeuta o cualquier persona en el pasado. “Se está volviendo más común para las personas dar el paso inicial hacia el apoyo de la salud mental a través de la IA en lugar de un terapeuta humano”, dijo Elreacy Dock, un tanatólogo, educador de duelo certificado y consultor de salud conductual.

Sin embargo, los expertos señalan que hay dificultades para esto. Una de las mayores limitaciones es que la IA carece de conocimiento, experiencia y capacitación de un terapeuta real. Más allá de eso, también carece de inteligencia emocional, la capacidad de escuchar, empatizar y responder de una manera profundamente humana. Un terapeuta puede reconocer señales emocionales sutiles, ajustar su enfoque en tiempo real y construir una relación terapéutica genuina, que son esenciales para un tratamiento efectivo de salud mental.

La mayor asociación de psicólogos de los Estados Unidos en febrero advirtió a los reguladores federales que los chatbots de IA podrían ser más dañinos que útiles. Arthur C Evans Jr, director ejecutivo de la Asociación Americana de Psicología, dijo a un panel de la Comisión Federal de Comercio que le preocupaba las respuestas ofrecidas por algunos chatbots. Los bots, dijo, no lograron desafiar las creencias de los usuarios incluso cuando se volvieron peligrosos; De hecho, los alentaron.

Evans argumentó que si un terapeuta humano hubiera proporcionado tales aportes, habría perdido su licencia para practicar.

En tales circunstancias, el estudio que muestra que ChatGPT se “estresa” y destaca la necesidad de que estas herramientas tengan un mejor enfoque para administrar tales situaciones.

Con insumos de agencias

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version