Noticias
¿Es tu terapeuta IA? ChatGPT se vuelve viral en las redes sociales por su papel como el nuevo terapeuta de la Generación Z
Archivo: los iconos de aplicaciones CHATGPT, Gemini, Microsoft Copilot, Claude y Perplexity se ven en un teléfono inteligente Google Pixel. Conceptos de competencia de IA. Getty Images
Los chatbots de IA están entrando en la silla del terapeuta, y no todos están encantados de eso.
Solo en marzo, 16.7 millones de publicaciones De los usuarios de Tiktok discutidos Usando chatgpt Como terapeuta, pero los profesionales de la salud mental están criando banderas rojas sobre la tendencia creciente que ve que las herramientas de inteligencia artificial se utilizan en su lugar para tratar la ansiedad, la depresión y otros desafíos de salud mental.
“Chatgpt sin ayuda me ha convertido en una persona menos ansiosa cuando se trata de citas, cuando se trata de salud, cuando se trata de carrera”, el usuario @christinazozulya compartió en un Video de Tiktok Publicado en su perfil el mes pasado.
“Cada vez que tengo ansiedad, en lugar de bombardear a mis padres con mensajes de texto como solía ser o enviar mensajes de texto a un amigo o chocar esencialmente … antes de hacerlo, siempre expreso mis pensamientos en Chatgpt, y hace un muy buen trabajo para calmarme y proporcionarme ese alivio inmediato que desafortunadamente no es tan accesible para todos”.
Los padres confían en la IA para obtener asesoramiento médico más que los médicos, los investigadores encuentran
Otros también están utilizando la plataforma como una “muleta”, incluido el usuario @karly.bailey, quien dijo que usa la plataforma “todo el tiempo” para “terapia gratuita” como alguien que trabaja para una empresa de inicio y que no tiene seguro de salud.
“Simplemente le diré lo que está pasando y cómo me siento y literalmente todos los detalles como si estuviera tirando a una novia, y me dará el mejor consejo”. Ella compartió.
“También te da indicaciones o EFT (golpes de libertad emocional) … te dará lo que quieras”.
Estos usuarios están lejos de ser solos. A Estudio de Tebraun sistema operativo para proveedores de atención médica independientes, descubrió que “1 de cada 4 estadounidenses es más probable que hablen con un chatbot de IA en lugar de asistir a la terapia”.
En el Reino Unido, algunos adultos jóvenes están optando por los beneficios percibidos de una útil IA consultor de salud mental Durante largos tiempos de espera del Servicio Nacional de Salud (NHS) y para evitar pagar el asesoramiento privado, que puede costar alrededor de £ 400 (aproximadamente $ 540).
Según el Times, los datos de la enfermedad mental de replanteamiento encontraron que más de 16,500 personas en el Reino Unido todavía esperaban los servicios de salud mental después de 18 meses, lo que indica que las cargas de costos, los tiempos de espera y otros obstáculos que conlleva la búsqueda de la salud pueden exacerbar el impulso de usar un método más rentable y conveniente.
Soy un experto en tecnología: 10 indicaciones de IA que usará todo el tiempo
Pero, si bien los críticos dicen que estos bots virtuales pueden ser accesibles y convenientes, también carecen de empatía humana y pueden poner a algunos que están en modo de crisis en riesgo de nunca recibir el enfoque personalizado que necesitan.
“En realidad he hablado con ChatGPT, y he probado un par de indicaciones para ver cuán receptivas son, y ChatGPT tiende a obtener la información de Google, sintetizarla y [it] Podría asumir el papel de un terapeuta “, dijo a Fox Digital, el Dr. Kojo Sarfo, un experto en personalidad y salud mental de las redes sociales.
Algunos GPTS, como el Terapeuta GPTse adaptan específicamente para proporcionar “comodidad, asesoramiento y apoyo terapéutico”.
Si bien quizás sea más rentable que la terapia tradicional a $ 20 por mes para ChatGPT Plus, lo que permite beneficios de los usuarios como acceso ilimitado, tiempos de respuesta más rápidos y más, la plataforma no se extiende hasta los profesionales que pueden hacer diagnósticos, recetar medicamentos, monitorear el progreso o mitigar problemas graves.
“Puede sentirse terapéutico y brindar apoyo a las personas, pero no creo que sea un sustituto de un terapeuta real que pueda ayudarlo a navegar a través de problemas de salud mental más complejos”, agregó Sarfo.
La mujer dice que Chatgpt le salvó la vida ayudando a detectar el cáncer, que los médicos extrañaron
Dijo que el peligro radica en aquellos que combinan el consejo de una herramienta como ChatGPT con el consejo legítimo de un profesional con licencia que tiene años de experiencia en el manejo de problemas de salud mental y ha aprendido cómo adaptar su enfoque a diversas situaciones.
“Me preocupa específicamente sobre las personas que pueden necesitar medicamentos psicotrópicos, que usan inteligencia artificial para ayudarlos a sentirse mejor, y lo usan como una terapia. Pero a veces … la terapia y los medicamentos están indicados. Por lo tanto, no hay forma de obtener la medición de tratamiento adecuada sin ir a un profesional real. Esa es una cosa que no puede ser subcontratada a la inteligencia artificial”.
Sin embargo, algunos aspectos del chatbot podrían ser beneficiosos para aquellos que necesitan apoyo, particularmente aquellos que buscan formas de conversar con su médico sobre las condiciones que creen que pueden tener, como el TDAH, para empoderarlos con el conocimiento que pueden llevar a su cita.
“[You can] Enumere un par de indicaciones que son asertivas, y puede indicar esas indicaciones a su proveedor y articular sus síntomas un poco mejor, por lo que creo que es un papel útil que puede jugar la inteligencia artificial, pero en términos de terapia real o asesoramiento médico real, si las personas comienzan a confiar en él, es algo malo. Comienza a entrar en aguas turbias “, dijo Sarfo.
A principios de este año, Christine Yu Moutier, MD, directora médica de la Fundación Americana para la Prevención del Suicidio, advirtió contra el uso de la tecnología para el asesoramiento de salud mental, diciendo Fox News Digital Hay “brechas críticas” en la investigación sobre los impactos previstos y no deseados de la IA en el riesgo de suicidio, la salud mental y el comportamiento humano más amplio.
“El problema con estos chatbots de inteligencia artificial es que no fueron diseñados con experiencia en el riesgo y prevención del suicidio horneados en los algoritmos. Además, no hay una línea de ayuda disponible en la plataforma para los usuarios que pueden estar en riesgo de una condición o suicidio de salud mental, no hay capacitación sobre cómo usar la herramienta si está en riesgo, ni los estándares de la industria regulan estas tecnologías”, “,”, “,”, “,”, “,”. ella dijo.
El Dr. Moutier también explicó que, dado que los chatbots pueden no descifrar metafóricos del lenguaje literal, pueden no poder determinar adecuadamente si alguien está en riesgo de autolesiones.
Nikolas Lanum de Fox News contribuyó a este informe.
Lea más de Fox News Digital