Imagine un mundo en el que un adolescente angustiado se despierta en mitad de la noche y abre una aplicación en su teléfono para hablar sobre la aflicción de no encajar en la escuela o echar de menos a sus amigos después de mudarse a una nueva ciudad.
Esta es la nueva solución de las grandes compañías de tecnología para la crisis de salud mental juvenil: una terapia con un chatbot al alcance de todos los niños a través de un smartphone. Con la inteligencia artificial (IA) infiltrándose en la atención a la salud mental, todo lo que se necesita es una simple búsqueda en Google para producir la ilusión de conexión.
«Pequeñas charlas para grandes sentimientos», anuncia Woebot for Adolescents, un chatbot de IA que está «siempre dispuesto a escuchar» y disponible «en cualquier momento, de día o de noche».
Sin embargo, algunos expertos sostienen que la promesa de tener un terapeuta en el bolsillo de cada adolescente es lo contrario de una auténtica conexión humana, lo que los niños realmente necesitan.
«Ellos anhelan sentir que pertenecen a algo», explicó a The Epoch Times Pamela Garfield-Jaeger, terapeuta licenciada y autora de «Una respuesta práctica a la angustia de género». «Eso es lo que los adolescentes quieren más que nada».
Conexiones interminables, ninguna pertenencia verdadera
A menudo se acusa a Silicon Valley de agravar la crisis de salud mental de los jóvenes con aplicaciones adictivas de redes sociales y juegos.
El año pasado, el Director General de Salud Pública de Estados Unidos emitió un aviso en el que afirmaba que el riesgo de depresión y ansiedad se duplica en los niños y adolescentes que pasan más de tres horas al día en las redes sociales.
Aunque los médicos también citan otros factores como contribuyentes, como el aislamiento social y la falta de independencia, muchos coinciden en que los adolescentes que más luchan contra la soledad y la salud mental son los adictos a las pantallas.
«Los niños de hoy en día necesitan aprender a desconectarse y a estar al aire libre y alejados de sus dispositivos», afirmó la Sra. Garfield-Jaeger, que se muestra escéptica ante la idea de que «más tecnología» venga a rescatarlos.
Ella añadió que muchas personas acuden a una terapia por problemas con las relaciones, y «necesitan una relación empática con otro ser humano».
Según el sitio web de Woebot Health, más del 80% de los mensajes de los adolescentes a Woebot se reciben fuera del horario habitual del proveedor «cuando no hay otra atención disponible». Muchos de estos mensajes llegan entre las tres y las cinco de la madrugada.
La psicóloga Alison Darcy, fundadora y presidenta de Woebot Health, creó el chatbot de IA en 2017, pensando en los jóvenes. Recientemente, le dijo a 60 Minutos que Woebot emplea técnicas de terapia cognitivo-conductual (TCC) para ayudar a los usuarios a replantear sus pensamientos.
Según la Sra. Darcy, la aplicación ofrece las mismas afirmaciones que un terapeuta real y puede mantener conversaciones terapéuticas. Sin embargo, no puede sentir empatía ni comprender la situación particular de una persona.
Tras la pandemia, los distritos escolares de todo el país empezaron a recomendar la aplicación gratuita Woebot para ayudar a los adolescentes a sobrellevar la situación. Al mismo tiempo, Wysa, otra aplicación de terapia de salud mental basada en IA, desarrolló un chatbot «COVID Anxiety» para ayudar a los adolescentes a hacer frente a un estrés sin precedentes.
Diagnósticos apresurados patologizan los efectos normales del crecimiento
La CEO y fundadora de Wysa, Jo Aggarwal, presentó la plataforma de salud mental basada en IA de la compañía en la cumbre 2023 del Foro Económico Mundial (FEM) en Davos, Suiza.
«Los adolescentes han sido nuestra primera cohorte», dijo la Sra. Aggarwal. Alrededor del 30% de los usuarios de Wysa tienen entre 13 y 25 años.
La investigación de Wysa reveló que más del 80% de los adolescentes experimentan problemas de salud mental, y uno de cada tres necesita apoyo profesional. Estos resultados son comparables a los de la National Health Interview Survey-Teen, que entrevistó directamente a adolescentes estadounidenses de 12 a 17 años y descubrió que casi uno de cada cinco experimentaba síntomas de ansiedad o depresión.
«Pero lo más preocupante», según el sitio web de Wysa, «es que los jóvenes no están recibiendo la ayuda que necesitan. Más de la mitad (55%) de los que obtuvieron una puntuación de 3 o más en los cuestionarios de detección de ansiedad y depresión GAD2 y PHQ2 no han hablado con un profesional pertinente al respecto».
El cuestionario de dos ítems para el trastorno de ansiedad generalizada (TAG-2) y el cuestionario de dos ítems para la salud del paciente (PHQ-2) son herramientas breves de cribado que se utilizan para evaluar rápidamente la ansiedad y la depresión, respectivamente.
«Según cómo interprete la persona esas preguntas, todo el mundo puede estar deprimido», afirmó la Sra. Garfield-Jaeger. «La verdadera evaluación de la depresión solía llevar un par de sesiones con un profesional de la salud mental o al menos varias horas».
«Yo creo que se está diagnosticando depresión o ansiedad a mucha gente que no la tiene», afirmó la terapeuta. «Sí, creo que hay más gente ansiosa y deprimida debido al aislamiento social y otras razones».
,
La escritora Abigail Shrier, examinó esta cuestión en su libro «Bad Therapy» (Mala terapia) y concluyó que los diagnósticos se están haciendo sin cuidado y los tratamientos que «afirman todos los sentimientos» también se están dispensando libremente.
«Solíamos llamar a eso validar», dijo la Sra. Garfield-Jaeger, que trabajó durante más de una década en un programa de hospitalización parcial con jóvenes que luchaban contra enfermedades mentales graves.
«Entonces, nosotros diríamos que validamos su sentimiento, pero eso no significa que su sentimiento sea la realidad. Significa que lo siente, y ahora tenemos que investigar y hacer, lo que ello llaman, pruebas de realidad», añadió la terapeuta.
La investigación de la Sra. Shrier también concluyó que a menudo se trata a los niños, por lo que antes se consideraba «aflicciones habituales del crecimiento».
Esto invita a los padres a hacer preguntas sobre las evaluaciones terapéuticas y el lenguaje utilizado para entrenar los algoritmos de IA. Además, existen otros riesgos y limitaciones que los padres deben tener en cuenta.
Chatbots de IA como terapeutas de adolescentes: Los problemas
Dependencia emocional
Cuando los chatbots dan consejos que de otro modo vendrían de un padre cariñoso o un consejero empático, es más probable que los adolescentes humanicen al chatbot y establezcan un vínculo emocional.
«Nos antropomorfizamos porque no queremos estar solos», escribió el escritor de tecnología y cultura L. M. Sacasas en su boletín «La sociedad convivencial«. «Ahora tenemos tecnologías poderosas, que parecen estar finamente calibradas para explotar este deseo humano central».
La Sra. Garfield-Jaeger ve esto como la creación de una cuña entre las personas en la vida de uno. Ahora ellos quieren hablar con su «terapeuta» en lugar de hablar con sus amigos, sus padres, sus primos, sus tíos y su abuela, como solíamos hacer antes».
Respuestas perjudiciales
A principios de 2024, una usuaria preocupada por un trastorno alimentario se puso en contacto con la Asociación Nacional de Trastornos Alimentarios (NEDA) tras recibir consejos perjudiciales sobre dietas.
El chatbot «puede haber dado información dañina y no relacionada con el programa», publicó NEDA en su página de Instagram.
NEDA retiró el chatbot de IA que había sustituido a sus consejeros humanos en su línea de ayuda.
Explotación de datos privados
Las apps de bienestar terapéutico no entran dentro de las normas federales de privacidad y, en algunos casos, comparten datos con terceros como Facebook. Sin embargo, algunas empresas, como Wysa y Woebot, siguen protocolos de seguridad de «grado hospitalario» y no comparten ni venden datos a terceros.
Un informe de investigación de Pew de 2023, «How Americans View Data Privacy» (Cómo ven los estadounidenses la privacidad de los datos), descubrió que entre quienes están familiarizados con la IA, alrededor del 70 por ciento confía poco o nada en la capacidad de las empresas para tomar decisiones responsables sobre su uso en sus productos. La investigación sugiere que a los pacientes les preocupa que se utilice para anuncios dirigidos, rastreo u otros fines nefastos.
Comprender las limitaciones
En el contexto de la autoayuda, los ejercicios sencillos de relajación y los consejos para controlar el estrés similares a los disponibles en la mayoría de las aplicaciones de mindfulness pueden ser útiles en un momento de aflicción.
Pero para las personas que se sienten solas, hambrientas de conexión y en apuros —que son precisamente las que los creadores de los chatbots creen que pueden ser más útiles— «creo que es malo que no haya humanos implicados», afirma la Sra. Garfield-Jaeger, «porque una vez que empiezas a enfrentarte a tus sentimientos, tiene que haber un humano que te tranquilice o te ayude si empiezas a tener ideas suicidas. Eso es peligroso».
Únase a nuestro canal de Telegram para recibir las últimas
noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.