Connect with us

Noticias

La gente está usando ChatGPT para terapia. Puede funcionar, si lo haces bien.

Published

on

  • Más personas comienzan a usar ChatGPT para terapia gratuita.
  • Los terapeutas dicen que puede hacer que la gente sea más solitaria y dependiente de buscar tranquilidad.
  • Recomiendan usarlo para tareas específicas, como las indicaciones del diario.

No tengo tímido al admitir que he confiado en un robot.

La semana pasada, pasé una hora sólida en un animado de ida y vuelta con ChatGPT, buscando consejos para un problema personal que he estado agonizando durante semanas. No quería tener a mi esposo y amigos de nuevo con eso.

Estoy lejos de ser el único que hace esto. Los usuarios de Reddit dicen que les encanta usar la plataforma AI para el entrenamiento de la vida y desempacar los comportamientos narcisistas de otras personas; Los tiktokers comparten consejos como “Voice Journaling” en ChatGPT o cambiando la configuración para que ChatGPT responda en audio, imitando a un terapeuta.

Rachel Goldberg, una trabajadora social clínica con licencia en Los Ángeles, dijo que no se sorprendió al saber que algunas personas usan ChatGPT para fines terapéuticos. Incluso me puso en contacto con uno de sus clientes, quien recientemente reveló que usa la plataforma diariamente además de sus sesiones en persona.

La cliente, a quien llamaremos a Emily (pidió que permaneciera en el anonimato porque es la cliente de Goldberg), dijo que usa ChatGPT para “volcar” sus pensamientos cuando se siente estresada. A veces, no quiere enviar mensajes de texto a Goldberg antes de una sesión o “carga” a sus amigos; Ella solo necesita procesar algo rápidamente. En cuestión de segundos, obtiene “el consejo de vida más sorprendente”, dijo.

“Es un poco de brújula que me ayude a ir a lo largo de mi día”, dijo Emily, de 28 años, a BI.

ChatGPT es una alternativa tentadora (o accesorio) a la terapia. Es gratuito, disponible en cualquier momento y ofrece asesoramiento personalizado y profundo. Las desventajas, como la capacitación de OpenAI en datos personales o el daño ambiental causado por el uso frecuente de IA, son fáciles de ignorar en el calor de una crisis cuando ChatGPT responde con la elocuencia tranquila.

Si bien algunos terapeutas dicen que está bien, fomentan los límites duros alrededor del uso de ChatGPT: su accesibilidad ilimitada puede reforzar los comportamientos de búsqueda de tranquilidad y exacerbar la soledad. Puede hacer que una persona sea más ansiosa y atomizada, lo contrario de lo que tiene como objetivo hacer una buena terapia.

Se sintió bien leer las corteses afirmaciones de Chatgpt de que mi problema “suena realmente difícil”. Sin embargo, simplemente no se sentía lo mismo que charlar con un amigo que podría hacer una broma o compartir cómo lograron una experiencia similar.

‘Terapia gratuita en su bolsillo’

Emily, que ha estado yendo a la terapia durante unos ocho o nueve años, no cree que ChatGPT sea mejor que la terapia tradicional o un sustituto de sus amigos.

Sin embargo, es conveniente. Cuando su auto era robado dos veces, o se sentía abrumada por las grandes transiciones de la vida, escribía en Chatgpt. Lo encontró más útil cuando identificó sus sentimientos cuando estaba también para darse cuenta de ellos misma.

“Si le digo cosas en las que no sueno muy seguro o estoy haciendo algo por otra persona, lo atrapa, y será como, ‘Esta persona es responsable de sus propias emociones'”, dijo Emily. “Es literalmente terapia en tu bolsillo en cualquier momento”.

Si bien Goldberg dijo que es bueno que ChatGPT “haga un trabajo bastante bueno al validar” los sentimientos de alguien y pueda ayudarlo a ser más autorreflexivo, el peligro radica en depender demasiado de una segunda opinión. Todavía hay momentos en los que uno tiene que tomar una decisión de división por su cuenta, como hablar en una reunión o dejar una cita grosera.

Ciara Bogdanovic, terapeuta especializada en terapia dialéctica conductual, le dijo a BI que su preocupación es que ChatGPT no puede detectar patrones más amplios en un cliente, como la necesidad de una validación frecuente. Para las personas con TOC, ChatGPT puede aumentar los comportamientos de búsqueda de tranquilidad, en los que trabajará un terapeuta competente, alentando al cliente a exponerse a alguna incomodidad.

La IA “solo va a tranquilizar, lo que está reforzando el comportamiento que podría ser dañino”, dijo Bogdanovic.

Cuando la personalización va demasiado lejos

El mayor problema que encontré con la terapia CHATGPT es que se puede personalizar para responder de manera que encuentre preferible. Si le pedí a ChatGPT que analizara una conversación al pie de la letra, me dijo que estaba saliendo de un toque duro. Luego seguí el consejo de Reddit de pedirle a ChatGPT que detecte señales de manipulación en los textos de la otra persona. Desglosó todas las formas en que estaban a la defensiva y emocionalmente inmaduras.

Sin esa nota, las lecturas pueden verse diferentes, potencialmente incluso simpatizantes con el bombardero de amor o el Gaslighter.

Los terapeutas y amigos tampoco son perfectamente objetivos. Es solo que las respuestas de Chatgpt se pueden modificar continuamente a su gusto, hasta el tono de voz.

A diferencia de un terapeuta, Goldberg dijo que ChatGPT no captará a un usuario etiquetando a todos en su vida como tóxicos y comienza a retroceder suavemente. Simplemente les dirá lo que quieren escuchar, en última instancia, en detrimento.

“Como terapeuta, estoy constantemente evaluando: ¿Cuál es el diagnóstico del cliente, cuál es su historia, cuál es su contexto familiar?” Dijo Bogdanovic. La forma en que ella responde a un cliente puede ser completamente diferente a otro cliente, incluso si plantean lo que parece exactamente la misma preocupación. Chatgpt, mientras tanto, “solo voy a escupir una respuesta”, dijo.

Perder el toque humano

Tan empático como el chatGPT suena, tiene limitaciones para los tipos de problemas que puede resolver.

Angela Betancourt, propietaria de un negocio de 42 años, ya no va a la terapia. Si bien dijo que ChatGPT no puede competir con él, lo usa para charlas rápidas o ofreciendo una perspectiva diferente para abordar un problema.

A Betancourt también le encanta usar chatgpt para las indicaciones del diario de gratitud. Recientemente, lo usó para reflexionar sobre los momentos alegres de un viaje que realizó con su familia. Sin embargo, dijo que no usaría ChatGPT para lidiar con emociones más pesadas como el dolor. Perdió a su suegro el año pasado y su padre unos años antes de eso. Ella cree que solo las personas reales pueden proporcionar una comodidad y consejos adecuados en una crisis.

A diferencia de un psicólogo o mejor amigo, ChatGPT tampoco está en deuda con la confidencialidad: los datos ingresados ​​pueden usarse potencialmente para identificar a los usuarios en el futuro, aunque aún no ha sucedido.

Emily intenta no incluir demasiados datos superpersonales. A veces, sin embargo, ella describirá una “situación realmente intensa” que involucra a otras personas. “Si eso alguna vez saliera, podría arruinar las relaciones”, dijo. “Solo espero que sea completamente privado”.

Si vas a derramar para chatgpt, crea límites

Tanto Bogdanovic como Goldberg predicen que más personas comenzarán a usar ChatGPT para la terapia, al menos en el futuro cercano. También esperan ejercer algunos límites a su alrededor.

Bogdanovic recomienda usarlo solo para “preguntas puntuales”, como cómo responder al mensaje o técnicas de respiración de su jefe para calmarse.

En mi experiencia, incluso los mejores consejos que funcionan con IA pueden quedarse cortos. Cuando mi esposo llegó a casa ese día, Chatgpt todavía no me había dado una respuesta que se sentía bien: proporcionó demasiados cursos de acción potenciales. Me puse en espiral, preguntándome si le estaba dando a Chatgpt una buena cantidad de contexto sin comprometer completamente mi privacidad.

Entonces le pregunté en su lugar: saber todo sobre este problema recurrente, ¿qué haría si él fuera yo ahora mismo? Hizo una pausa y cerró los ojos, la pensividad en su voz. Luego me dio su consejo.

Le envié un mensaje de texto a la persona en la forma en que sugirió. No tengo idea de si fue la mejor respuesta o las resoluciones más adecuadas. Todo lo que sé es que me sentí mejor cuando puse mi teléfono para abrazarlo.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading

Noticias

Una nueva investigación revela la brecha de género “asombrosa” en la adopción de chatgpt

Published

on

Un nuevo estudio publicado en el Actas de la Academia Nacional de Ciencias ha descubierto que la adopción de ChatGPT en el lugar de trabajo ha sido generalizada pero desigual. Los trabajadores más jóvenes, menos experimentados y de mayores ingresos tienen más probabilidades de usar la herramienta, mientras que los trabajadores y mujeres de bajos ingresos la han adoptado a tasas significativamente más bajas. Incluso entre los trabajadores en la misma ocupación que manejan tareas laborales similares, los hombres tienen mucho más probabilidades de usar ChatGPT que las mujeres. Los hallazgos destacan cómo las barreras para la adopción pueden estar reforzando las desigualdades existentes en el mercado laboral.

CHATGPT es una de las herramientas de inteligencia artificiales generativas más utilizadas, capaz de producir texto similar al humano en respuesta a las indicaciones del usuario. Desde su lanzamiento, se ha integrado en varios lugares de trabajo para ayudar con tareas como la escritura, la codificación e investigación. Dado su potencial para transformar cómo se realiza el trabajo, los investigadores estaban interesados ​​en comprender quién está utilizando ChatGPT, cómo esperan que impacte sus trabajos y qué factores influyen en la adopción.

Si bien la IA generativa tiene el potencial de ayudar a los trabajadores mediante la automatización de tareas repetitivas y aumentando la eficiencia, algunos estudios sugieren que podría beneficiar a los trabajadores menos experimentados al nivelar las brechas de habilidades. Sin embargo, los patrones de adopción no siempre son uniformes en diferentes datos demográficos. Al examinar cómo los trabajadores en diversas ocupaciones usan ChatGPT, los investigadores pretendían descubrir si ciertos grupos estaban siendo dejados en el proceso de adopción.

“Soy un economista laboral que estudia cómo el cambio tecnológico afecta el empleo y el salario.

Para investigar la adopción de ChatGPT en la fuerza laboral, los investigadores colaboraron con estadísticas de Dinamarca para encuestar a 18,000 trabajadores de 11 ocupaciones entre noviembre de 2023 y enero de 2024. La encuesta se dirigió a trabajos dirigidos a los expertos que consideraron altamente expuestos a ChatGPT, lo que significa que la herramienta podría reducir significativamente el tiempo requerido para completar las tareas de trabajo clave. Estas ocupaciones incluyeron profesionales de marketing, asesores financieros, desarrolladores de software, periodistas y profesionales legales.

Las respuestas de la encuesta se vincularon a los registros del mercado laboral nacionales, que proporcionaban información detallada sobre las ganancias, la educación, el historial laboral y los antecedentes demográficos de cada trabajador. Los investigadores analizaron qué trabajadores usaban ChatGPT, sus expectativas sobre cómo afectaría su trabajo y las barreras que impiden que algunos empleados adopten la herramienta.

Humlum y sus colegas descubrieron que ChatGPT ha sido ampliamente adoptado en ocupaciones expuestas, con el 41% de los trabajadores que lo usan para tareas relacionadas con el trabajo. Sin embargo, las tasas de adopción variaron significativamente por la profesión. Los profesionales y periodistas de marketing, que a menudo participan en tareas intensivas en escritura, tenían más probabilidades de usar ChatGPT, con un 65% informando que habían usado la herramienta. Por el contrario, los asesores financieros, cuyo trabajo implica manejar información confidencial, tuvieron la tasa de adopción más baja en solo el 12%.

Al examinar las diferencias demográficas, los investigadores descubrieron una brecha de género. Las mujeres tenían 16 puntos porcentuales menos propensos que los hombres de usar ChatGPT, incluso cuando se comparan a los trabajadores en la misma ocupación con responsabilidades laborales similares. Esta disparidad de género persistió en todos los indicadores medidos de adopción, lo que sugiere que las mujeres enfrentan barreras adicionales para usar la tecnología.

“La asombrosa brecha de género en la adopción de ChatGPT, incluso entre los trabajadores en las mismas ocupaciones que manejan tareas laborales similares, fue una gran sorpresa para nosotros”, dijo Humlum a PSYPOST.

La edad y la experiencia también jugaron un papel en la adopción. Los trabajadores más jóvenes y menos experimentados tenían más probabilidades de usar ChatGPT, con cada año adicional asociado con una disminución de 0.7 puntos porcentuales en la probabilidad de usar la herramienta.

Curiosamente, a pesar de tener menos tenencia en sus campos, los trabajadores que usaron ChatGPT tendían a ganar un poco más antes de que la herramienta estuviera disponible. Esto sugiere que las personas de mayor rendimiento dentro de sus grupos de pares profesionales tenían más probabilidades de experimentar y adoptar la tecnología.

“Nuestro hallazgo clave es que han surgido desigualdades sustanciales en la adopción de ChatGPT”, dijo Humlum. “Los hombres más jóvenes y con mayor ingreso tienen significativamente más probabilidades de usar estas herramientas en comparación con otros trabajadores dentro de la misma ocupación”.

Los trabajadores en las ocupaciones expuestas a ChatGPT vieron un potencial de productividad significativo en la herramienta, estimando que podría reducir los tiempos de trabajo en aproximadamente un tercio de sus tareas laborales. Sin embargo, los empleados con mayor experiencia en sus campos tendieron a informar ganancias de productividad más pequeñas, lo que indica que ChatGPT es más beneficioso para aquellos que tienen un conocimiento menos especializado.

A pesar de reconocer la eficiencia de la herramienta, muchos trabajadores dudaron en cambiar la forma en que asignaron su tiempo. Alrededor del 40% de los encuestados declaró que incluso si ChatGPT les ahorraba tiempo en ciertas tareas, no aumentarían la cantidad de trabajo que hicieron en esas áreas.

Uno de los hallazgos más sorprendentes del estudio fue que las expectativas de los trabajadores sobre el ahorro de tiempo no predecían fuertemente si realmente usaban ChatGPT. Por ejemplo, entre aquellos que creían que la herramienta podría reducir el tiempo de finalización de la tarea a la mitad, solo el 23% planeó usarla en las próximas dos semanas.

En cambio, la adopción a menudo se vio obstaculizada por barreras estructurales, como las restricciones del empleador en el uso de la IA o la necesidad percibida de capacitación. Cuando los investigadores informaron al azar a los trabajadores sobre el potencial de ahorro de tiempo de ChatGPT, no cambió significativamente su probabilidad de usar la herramienta, lo que refuerza la idea de que los factores externos están limitando la adopción.

La encuesta se centró en los trabajadores daneses, por lo que los hallazgos pueden no reflejar completamente los patrones de adopción en otros países. Además, si bien el estudio identifica las tendencias en la adopción, no explora si el uso de ChatGPT conduce a mejoras medibles en el desempeño laboral o los resultados profesionales.

“Los patrones que documentamos reflejan efectos a corto plazo, capturando la adopción desigual de ChatGPT en su primer año”, señaló Humlum. “Estas desigualdades podrían reducirse o ampliarse con el tiempo a medida que más trabajadores adoptan las herramientas y las empresas comienzan a reorganizar los flujos de trabajo en torno a esta nueva tecnología.

La investigación futura podría investigar si los primeros usuarios obtienen ventajas a largo plazo en ganancias o promociones y si los programas de capacitación específicos pueden ayudar a cerrar las brechas existentes en la adopción. “Nuestro objetivo a largo plazo es comprender cómo la IA generativa está remodelando los mercados laborales”, dijo Humlum.

El estudio, “La adopción desigual de ChatGPT exacerba las desigualdades existentes entre los trabajadores”, fue escrita por Anders Humlum y Emilie Vestergaard.

Continue Reading

Noticias

¿Qué es Sora? Todo lo que sabemos sobre el generador de videos AI de Openai

Published

on

Sora es el último modelo de IA de OpenAI diseñado para generar videos de alta fidelidad a partir de descripciones de texto, lo que lleva la creación de contenido con IA a nuevas alturas.

A diferencia de las herramientas tradicionales de generación de videos, Sora puede producir escenas complejas y dinámicas con movimiento realista, entornos detallados y personajes consistentes.

Continue Reading

Trending