Noticias

Cómo los chatbots podrían provocar la próxima gran crisis de salud mental

Published

on

Esta es una columna sobre AI. Mi novio trabaja en Anthrope, y también co-organizé un podcast en el New York Times, que está demandando a Openai y Microsoft por acusaciones de infracción de derechos de autor. Ver Mi divulgación de ética completa aquí.

I.

Pocas preguntas han generado tanta discusión, y como pocas conclusiones generalmente aceptadas, como las redes sociales como Instagram y Tiktok afectan nuestro bienestar colectivo. En 2023, el cirujano general de los Estados Unidos emitió un aviso que descubrió que las redes sociales pueden afectar negativamente la salud mental de los jóvenes. Otros estudios han encontrado que la introducción de las redes sociales no tiene ningún efecto medible en el bienestar de la población.

A medida que ese debate continúa, Los legisladores en docenas de estados han aprobado leyes que buscan restringir el uso de las redes sociales en la creencia de que plantea graves riesgos. Pero la implementación de esas leyes ha sido detenida en gran medida por los tribunales, que han los bloqueó en la Primera Enmienda.

Mientras esperamos algún tipo de resolución, la próxima frontera de este debate está apareciendo rápidamente a la vista. El año pasado, la madre de un niño de Florida de 14 años demandó el personaje del creador de chatbot.i alegando que era el culpable de su suicidio. (Hablamos con ella en este episodio de Horquilla dura.) Y millones de estadounidenses, tanto jóvenes como adultos, son entrar en relaciones emocionales y sexuales con chatbots.

Con el tiempo, deberíamos esperar que los chatbots se vuelvan aún más atractivos que los alimentos en las redes sociales de hoy. Están personalizados para sus usuarios; Tienen voces humanas realistas; Y están programados para afirmar y apoyar a sus usuarios en casi todos los casos.

Entonces, ¿cómo afectará el uso extendido de estos bots a sus usuarios humanos? ¿Y qué deben hacer las plataformas para mitigar los riesgos?

II.

Estas preguntas se encuentran en el centro de dos nuevos estudios publicados el viernes por investigadores del MIT Media Lab y OpenAI. Y aunque se necesita más investigación para respaldar sus conclusiones, sus hallazgos son consistentes con investigaciones anteriores sobre las redes sociales y una advertencia a plataformas que están construyendo chatbots optimizados para la participación.

En el primer estudio, los investigadores recopilaron y analizaron más de 4 millones de conversaciones de CHATGPT de 4.076 personas que habían acordado participar. Luego encuestaron a los participantes sobre cómo esas interacciones los habían hecho sentir.

En el segundo estudio, los investigadores reclutaron a 981 personas para participar en un ensayo de cuatro semanas. Se le pidió a cada persona que usara ChatGPT durante al menos cinco minutos al día. Al final del juicio, los participantes completaron una encuesta sobre cómo percibieron el chatgpt, si se sintieron solos, si estaban socializando con personas en el mundo real y si percibían su uso del chatbot como problemático.

Los estudios encontraron que la mayoría de los usuarios tienen una relación neutral con ChatGPT, utilizándola como una herramienta de software como cualquier otra. Pero ambos estudios también encontraron un grupo de usuarios avanzados, aquellos en el 10 por ciento superior del tiempo dedicado a ChatGPT, cuyo uso sugirió más razones para preocuparse.

El uso intensivo de ChatGPT se correlacionó con una mayor soledad, dependencia emocional e interacción social reducida, según los estudios.

“En general, los usuarios que participan en conversaciones personales con chatbots tienden a experimentar una mayor soledad”, escribieron los investigadores. “Aquellos que pasan más tiempo con los chatbots tienden a ser aún más solitarios”.

(Editorial rápido a un lado: OpenAi merece un crédito real por invertir en esta investigación y publicarla abiertamente. Este tipo de investigación auto-skeptical es exactamente el tipo de cosas que he defendido durante mucho tiempo para que compañías como Meta hagan más; en su lugar; A raíz de las revelaciones de Frances Haugenlo ha hecho mucho menos).

Jason Phang, un investigador de Openai que trabajó en los estudios, me advirtió que los hallazgos deberían ser replicados por otros estudios antes de que pudieran considerarse definitivos. “Estas son correlaciones de un estudio preliminar, por lo que no queremos sacar conclusiones demasiado fuertes aquí”, dijo en una entrevista.

Aún así, hay mucho aquí que vale la pena discutir.

Tenga en cuenta que estos estudios no sugieren que el uso pesado de chatgpt directamente causas soledad. Más bien, sugiere que las personas solitarias tienen más probabilidades de buscar lazos emocionales con bots, al igual que una generación anterior de investigación sugirió que las personas más solitarias pasan más tiempo en las redes sociales.

Eso es importante para Operai, que ha diseñado ChatGPT para presentarse como una herramienta de productividad más que un compañero de bendición. (Aunque eso no ha impedido a algunas personas Enamorarse de éltambién.) Pero otros desarrolladores, carácter.ai, replika, nomi, están cortejando intencionalmente a usuarios que buscan más conexiones emocionales. “Desarrolle una relación apasionada”, se lee la copia en el sitio web de Nomi. “Únete a los millones que ya han conocido a sus almas gemelas de IA”, Touts Replika.

Cada una de estas aplicaciones ofrece suscripciones mensuales pagas; Entre los beneficios ofrecidos se encuentran “recuerdos” más largos para los chatbots para habilitar el juego de roles más realista. Nomi y Replika Vender beneficios adicionales a través de monedas en la aplicación que le permiten comprar “selfies” de IA, artículos cosméticos y características de chat adicionales para mejorar la fantasía.

Iii.

Y para la mayoría de las personas, todo eso probablemente esté bien. Pero la investigación del MIT y OpenAi sugiere el peligro aquí: que los chatbots suficientemente convincentes alejarán a las personas de las conexiones humanas, posiblemente haciéndolos sentir más solitarios y más dependientes del compañero sintético con el que deben pagar para mantener una conexión.

“En este momento, ChatGPT está muy orientado a un trabajador del conocimiento y una herramienta para el trabajo”, me dijo Sandhini Agarwal, que trabaja en la política de IA en OpenAI y es uno de los investigadores en estos estudios, me dijo en una entrevista. “Pero como … diseñamos más de estos chatbots que están destinados a ser más como compañeros personales … Creo que tener en cuenta los impactos en el bienestar será realmente importante. Así que esto está tratando de empujar a la industria hacia esa dirección”.

¿Qué hacer? Las plataformas deben funcionar para comprender qué indicadores tempranos o patrones de uso podrían indicar que alguien está desarrollando una relación poco saludable con un chatbot. (Los clasificadores automatizados de aprendizaje automático, que OpenAi empleó en este estudio, parecen un enfoque prometedor aquí). También deben considerar tomar prestadas algunas características de las redes sociales, incluidos los “empujones” regulares cuando un usuario ha pasado varias horas al día dentro de sus aplicaciones.

“No queremos que la gente haga un reclamo generalizado como ‘Oh, los chatbots son malos’ o ‘los chatbots son buenos'”, me dijo Pat Pataranutaporn, investigador del MIT que trabajó en los estudios. “Tratamos de mostrar que realmente depende del diseño y la interacción entre las personas y los chatbots. Ese es el mensaje que queremos que la gente se lleva. No todos los chatbots se hacen igual”.

Los investigadores llaman a este enfoque “alineación socioafectora”: diseñar bots que satisfagan las necesidades de los usuarios sin explotarlas.

Mientras tanto, los legisladores deben advertir a las plataformas lejos de los modelos comerciales de explotación que buscan que los usuarios solitarios se enganchen en sus bots y luego aumenten continuamente el costo de mantener esa conexión. También parece probable que muchas de las leyes estatales ahora dirigidas a jóvenes y redes sociales eventualmente se adapten para cubrir la IA.

A pesar de todos los riesgos que podrían plantear, sigo pensando que los chatbots deberían ser positivos en la vida de muchas personas. (Entre los otros hallazgos del estudio es que el uso de ChatGPT en modo de voz ayudó a reducir la soledad y la dependencia emocional del chatbot, aunque mostró retornos decrecientes con un uso más pesado). La mayoría de las personas no reciben suficiente apoyo emocional, y poner un compañero amable, sabio y confiable en el bolsillo de todos podría llevar beneficios de la terapia a los miles de millones de personas.

Pero para brindar esos beneficios, los fabricantes de chatbot tendrán que reconocer que la salud mental de sus usuarios ahora es parcialmente su responsabilidad. Las redes sociales esperaron demasiado para reconocer que algún porcentaje significativo de sus usuarios tiene resultados terribles al usarlos en exceso. Sería una verdadera vergüenza si los posibles inventores de la superinteligencia no son lo suficientemente inteligentes como para hacerlo mejor esta vez.

Patrocinado

Herramientas eléctricas para ingenieros de software Pro.

Hay muchos asistentes de IA por ayudarlo a escribir código. Código de juguete. Código de hola-mundo. Nos atrevemos a decirlo: “Código de vibra”. Esas herramientas son muy divertidas y
Esperamos que los uses. Pero cuando sea el momento de construir algo real, intente aumentar el código. Su asistente de IA está construido para manejar enormes, retorcidos y bases de código de grado de producción. Del tipo que tienen los negocios reales. El tipo de software real
Los ingenieros pierden el sueño. No estamos diciendo que su código nunca te vuelva a despertar. Pero si tiene que estar despierto de todos modos, también podría usar un asistente de IA que conozca sus dependencias, respete los estándares de codificación de su equipo y vive en sus editores favoritos como VIM, VScode, JetBrains y más. Ese es el código de aumento. ¿Estás listo para ir más allá de los juguetes AI y crear un software real más rápido?

Gobernante

Industria

  • Operai y Meta están explorando las asociaciones por separado con las industrias de confianza de la India para expandir las ofertas de IA en el país. (Sri Muppidi y Amir Efrati / La información)
  • Openai está ampliando su papel de COO y elevando a dos ejecutivos al C-suite, ya que Sam Altman se centra más en el producto. (Shirin Ghaffary / Bloomberg)
  • Una mirada interna de cómo Google se apresuró durante dos años para ponerse al día con OpenAi, a través de despidos y la disminución de ciertas barandillas. (Paresh Dave y Arielle Pardes / Cableado)
  • Eliminar noticias europeas en la búsqueda tiene poco o ningún impacto en los ingresos publicitarios para Google, dijo la compañía. (Paul Liu / Google)
  • Google está implementando nuevas funciones de IA para Gemini Live, lo que le permite “ver” la pantalla de un usuario o la cámara del teléfono inteligente y responder preguntas sobre ellas en tiempo real. (Wes Davis / El borde)
  • Google eliminó accidentalmente los datos de la línea de tiempo de Google Maps para algunos usuarios e instó a los usuarios afectados a restaurar los datos desde una copia de seguridad. (Hadlee Simons / Autoridad de Android)
  • Según los informes, X fue valorada recientemente en $ 44 mil millones por inversores, una revocación dramática de la fortuna para la compañía después de la adquisición de Musk. (George Hammond, Tabby Kinder, Hannah Murphy y Eric Platt / Financial Times)
  • Según los informes, el director de ingeniería de X, Haofei Wang, dejó la compañía. (Kylie Robison / El borde)
  • Meta está probando una función diseñada para ayudar a los usuarios a escribir comentarios con AI. (Aisha Malik / TechCrunch)
  • Según los informes, la startup de chip coreana Furiosaai rechazó una oferta de adquisición de $ 800 millones de Meta. (Yoolim Lee y Riley Griffin / Bloomberg)
  • Bluesky ha ganado más dinero con las ventas de su camiseta que el CEO Jay Graber usó a SXSW para burlarse de Mark Zuckerberg que al vender dominios personalizados. (Amanda Silberling / TechCrunch)
  • Apple está probando agregar cámaras y características de inteligencia visual a su línea de relojes inteligentes. (Mark Gurman / Bloomberg)
  • Los auriculares AirPods Max de Apple pronto admitirán audio sin pérdidas después de perderlo el año pasado después de que cambió a un conector USB-C. (Chris Welch / El borde)
  • Microsoft lanzó seis nuevos agentes de IA para su copiloto de seguridad, diseñado para ayudar a los equipos de seguridad abrumados. (Tom Warren / El borde)
  • Yahoo está vendiendo un sitio de noticias tecnológicas TechCrunch a Regent, una firma de inversión en medios. Un desarrollo sombrío. (Sara Fischer / Axios)
  • La actividad de Ethereum en la cadena cayó y la cantidad diaria de ETH quemada debido a las tarifas de transacción alcanzó un mínimo histórico la semana pasada. (Zack Abrams / El bloque)
  • Un perfil del archivo de Internet, la organización sin fines de lucro detrás de la máquina Wayback se apresura para guardar páginas web. (Emma Bowman / NPR)
  • Showrunner Tony Gilroy dijo que ya no publicará un programa de televisión AndorScripts para evitar que se use en el entrenamiento de IA. (Kylie Robison / El borde)
  • Una revisión de Kagi, un motor de búsqueda que, según este escritor, ofrece una nueva visión para la búsqueda de $ 10 al mes. (David Pierce / El borde)
  • Una mirada a cómo el plan de tratamiento de una IA realizado al analizar miles de medicamentos antiguos salvó la vida de un hombre. (Kate Morgan / New York Times)
  • Una encuesta de 730 codificadores y desarrolladores sobre cómo usan chatbots de IA en el trabajo. (Personal con cable / Cableado)

Esas buenas publicaciones

Para más buenas publicaciones todos los días, Sigue las historias de Instagram de Casey.

(Enlace)

(Enlace)

(Enlace)

Hablar con nosotros

Envíenos consejos, comentarios, preguntas y alineación socioafectores: casey@platformer.news.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version