La creciente dependencia de ChatGPT para el apoyo a la salud mental está transformando la forma en que las personas afrontan las luchas emocionales.
Una tendencia creciente en las redes sociales, particularmente en TikTok, presenta a personas que utilizan ChatGPT como herramienta terapéutica. Los usuarios describen compartir sus pensamientos con la IA y recibir comentarios u orientación, y a menudo expresan sorpresa por lo perceptiva y emocionalmente inteligente que parece ser.
Aunque las plataformas impulsadas por la IA como ChatGPT ofrecen asistencia inmediata las 24 horas del día, lo que las hace convenientes y rentables para la atención de la salud mental, el uso de la IA en la atención de la salud mental plantea desafíos éticos, como preocupaciones sobre la privacidad de los datos, la precisión de su respuestas y el riesgo de que los usuarios se vuelvan demasiado dependientes de la IA.
Semana de noticias se ha puesto en contacto con expertos en psicología y tecnología para discutir si ChatGPT tiene la capacidad de reemplazar a los terapeutas en un futuro próximo.
¿La IA reemplazará a los terapeutas? ¿La IA reemplazará a los terapeutas? Ilustración fotográfica de Newsweek/Getty
Del Dr. Daniel Lowd: La IA podría llenar los vacíos donde los terapeutas no están disponibles
La gente se siente cómoda hablando con la IA desde el chatbot ELIZA, hace 60 años. Las personas también encuentran apoyo para la salud mental escribiendo un diario, haciendo ejercicio, orando, hablando con amigos de confianza y leyendo libros de autoayuda. Si bien nada de eso reemplaza a un buen terapeuta, es difícil encontrar buenos terapeutas. Las esperas son largas, los costos pueden ser elevados y un terapeuta adecuado para una persona puede resultar totalmente equivocado para otra. Entonces, si la gente puede encontrar apoyo y perspectiva hablando con ChatGPT o Claude, entonces creo que es maravilloso.
Daniel Lowd, profesor asociado del Departamento de Informática y Ciencias de la Información de la Universidad de Oregón.
Del Dr. Pim Cuijpers: La IA transformará la atención de la salud mental pero no reemplazará a los terapeutas
No creo que la IA reemplace a los terapeutas. Siempre habrá necesidad de terapia y apoyo humano, y esa necesidad es tan grande que la cantidad de terapeutas no disminuirá debido a la IA.
Mantuvimos esta discusión en los Países Bajos hace 20 años, cuando los primeros resultados de nuestras intervenciones digitales (no basadas en IA) estuvieron disponibles y demostraron que estas intervenciones eran tan efectivas como los tratamientos cara a cara. Y aunque las herramientas digitales han llegado a la práctica habitual, no hay ningún impacto en el número de terapeutas.
Pero la IA cambiará la atención de la salud mental. Para algunas personas, un terapeuta de IA será suficiente (incluso preferido por encima de los terapeutas humanos), pero para muchas personas no será suficiente. Pero la IA tendrá impacto de muchas maneras diferentes.
Se están realizando investigaciones para examinar qué paciente se beneficiará de qué tipo de tratamiento, utilizando el aprendizaje automático (IA). Hay investigaciones sobre evaluaciones ecológicas momentáneas a través de teléfonos inteligentes, también orientadas a mejorar los resultados y utilizando el aprendizaje automático, y hay estudios que utilizan herramientas digitales como complemento a la terapia habitual, como por ejemplo la terapia Avatar en los trastornos psicóticos.
Por tanto, ninguna IA sustituirá a los terapeutas, pero sí cambiará y mejorará considerablemente la atención de la salud mental.
Dr. Pim Cuijpers, Profesor emérito, Departamento de Psicología Clínica, Neuro y del Desarrollo, Universidad Vrije de Ámsterdam.
Del Dr. Richard Lachman: Depender de la IA para la salud mental podría afectar a las personas jóvenes y vulnerables
Los chatbots de IA responderán como terapeutas si se les solicita, sin la supervisión, capacitación o responsabilidad de un consejero humano o incluso de un software especializado y probado.
Esta disposición para abordar temas sin experiencia es una debilidad importante tanto en los LLM como en la naturaleza de la interfaz conversacional: dan la ilusión de comprensión y competencia a través de una fluidez fácil y un afán conversacional por complacer, afinado por el aprendizaje reforzado y las respuestas humanas. .
Ya hemos visto interacciones inseguras y poco saludables con personas en crisis a través de chatbots centrados en las relaciones y, a medida que se vuelvan más parte de nuestro panorama de interacción, esto solo aumentará.
La facilidad de acceso y un costo radicalmente más barato también pueden llevar a las organizaciones a financiar chatbots de IA en lugar de participar en los cambios sistémicos a largo plazo necesarios para poner a disposición terapeutas humanos calificados, responsables y gobernados éticamente. Es probable que esto afecte a los jóvenes y a los segmentos vulnerables de la sociedad que tal vez no tengan los recursos financieros o los medios para defenderse por sí mismos.
Dr. Richard Lachman, profesor asociado, producción de medios y director, aprendizaje de zona y director, investigación y desarrollo de tecnología creativa, Universidad Metropolitana de Toronto.
Del Dr. Ben Levinstein: La IA podría influir en el desarrollo de la salud mental en el futuro, si se utiliza con precaución
La cuestión de si la IA reemplazará a los terapeutas no es un simple sí o no; más bien, se trata de comprender cómo la IA transformará el panorama de la atención de salud mental.
Si bien algunos pacientes seguirán prefiriendo terapeutas humanos, valorando los aspectos de la conexión humana, otros pueden gravitar hacia los sistemas de inteligencia artificial, encontrándolos más accesibles y sintiéndose más cómodos compartiendo sus luchas más profundas sin temor al juicio humano.
El costo dramáticamente menor de la terapia con IA, combinado con su disponibilidad constante y la eliminación de las listas de espera, probablemente acelerará este cambio, particularmente porque las compañías de seguros reconocen el potencial para mejorar los resultados y reducir los gastos.
Es probable que el campo de la salud mental se desarrolle en múltiples direcciones simultáneamente. Algunas prácticas pueden adoptar enfoques híbridos, donde la IA maneja las evaluaciones iniciales y brinda apoyo entre sesiones mientras los terapeutas humanos se concentran en el trabajo terapéutico central.
Otros servicios podrían estar totalmente impulsados por la IA, sobre todo a medida que estos sistemas se vuelven cada vez más sofisticados en su capacidad para comprender la psicología humana y desarrollar planes de tratamiento. En psiquiatría, si bien la adopción temprana de la IA podría centrarse en casos de rutina, los avances en los sistemas de IA probablemente superarán las capacidades humanas para manejar incluso los desafíos más complejos de diagnóstico y gestión de medicamentos, lo que podría llevar a que la IA se convierta en el principal proveedor de atención psiquiátrica.
Sin embargo, el auge de la terapia con IA también plantea serias preocupaciones. Una cuestión crítica es la “compra de terapeutas”, donde los pacientes buscan terapeutas que simplemente validen sus puntos de vista existentes en lugar de brindarles un trabajo terapéutico desafiante pero necesario.
Este problema, que ya está presente en los terapeutas humanos, podría amplificarse con sistemas de IA, ya que los pacientes podrían cambiar fácilmente entre diferentes modelos de IA hasta encontrar uno que les diga lo que quieren escuchar.
Además, existen complejas cuestiones éticas y legales sobre cómo los sistemas de IA manejarían situaciones que involucran ideas suicidas o requisitos de presentación de informes obligatorios. Si bien estos desafíos no impedirán que la IA revolucione la atención de salud mental, deberán abordarse cuidadosamente a medida que el campo evolucione.
Dr. Ben Levinstein, profesor asociado de la Universidad de Illinois, Urbana-Champaign, Departamento de Filosofía.
Del Dr. Randy Goebel: Los humanos seguirán siendo irremplazables como terapeutas a pesar del auge de la IA
La realidad es que los humanos seguirán siendo los mejores terapeutas humanos en el futuro previsible, aunque la clasificación tipo chatbot seguirá proporcionando cierto acceso gradual a consejeros reales. Es probable que la proliferación de información errónea y errónea, acelerada por los sistemas de inteligencia artificial, haga que la necesidad de asesoramiento sobre salud mental sea aún más intensa que antes.
Como es habitual, los sistemas público y privado responderán de diferentes maneras, pero no antes de que haya muchas consecuencias negativas.
Dr. Randy Goebel, Profesor de Ciencias de la Computación y Profesor Adjunto de Medicina, Universidad de Alberta.
Del Dr. John Torous: La IA apoyará, no reemplazará, a los terapeutas
La IA no reemplazará a los terapeutas. En las últimas décadas, hemos tenido muchos libros, CD-ROM, sitios web y aplicaciones excelentes de terapia de autoayuda. No han reemplazado a los terapeutas. La IA puede hacer muchas cosas maravillosas, pero la gente quiere conectarse con otras personas para realizar terapia. Sin embargo, la IA desempeñará un papel a la hora de mejorar la terapia haciéndola eficaz e impactante.
Un peligro de la IA es que veremos una ola inicial de personas sin formación ni licencia que tal vez afirmen ser terapeutas y ofrezcan terapia. Usar IA no significa que cualquiera pueda actuar como terapeuta, al igual que usar un simulador de vuelo no significa que cualquiera pueda actuar como piloto. Siempre es bueno preguntar a cualquier terapeuta sobre sus credenciales, experiencia y formación, y hoy más que nunca.
Dr. John Torous, Director de Psiquiatría Digital, Centro Médico Beth Isreal Deaconess, Profesor Asociado de Psiquiatría, Facultad de Medicina de Harvard
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.