
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Según datos de la Organización mundial de la Salud, uno de cada ocho personas en el mundo padece algún tipo de trastorno mental, y, al menos una de cada cuatro lo sufrirá a lo largo de su vida, aumentando la probabilidad de otras patologías y acortando los años de vida saludables. Solamente en el caso de la depresión, la enfermedad mental más prevalente, se estima que afecta a más de 350 millones de personas en todo el mundo, cifras que podrían ser mayores dado el incremento de patologías mentales durante la pandemia por COVID 19.
Entretanto, el reto para las autoridades de salud y la sociedad es enorme y las barreras de acceso a la atención en salud mental siguen creciendo. Los sistemas de salud tienen presupuestos limitados, el estigma de la enfermedad mental sigue siendo muy alto, el recurso humano entrenado es escaso y los costos de la atención son muy elevados tanto para el individuo como la sociedad. En este contexto, el advenimiento de la Inteligencia Artificial (IA), ha despertado una amplia gama de expectativas en el mundo entero y promete revolucionar la atención en salud mental ofreciendo soluciones a bajo costo que vayan más allá del alcance de los métodos convencionales de la terapia o consulta uno a uno.
Puede ver: ¿Hablar con ChatGPT sobre mis emociones en vez de llamar a mi psicólogo?
Las herramientas de la IA que se usan para el diagnóstico y detección temprana de la enfermedad pueden aplicarse masivamente. Están también los modelos predictivos multifactoriales que pueden contribuir a identificar individuos en riesgo, a señalar qué tipo de intervenciones farmacológicas, psicoterapéuticas o cambios en el estilo de vida serían de más ayuda para mejorar los resultados de las intervenciones.
Paralelamente, se han ido desarrollando y mejorando los algoritmos de IA para ayudar a los clínicos en el tratamiento individual, que son alimentados con datos de predisposición familiar, composición genética que pueda predecir mejores respuestas a determinados medicamentos, respuesta a tratamientos previos, patrones comportamentales y variables fisiológicas en tiempo real, que ayudan a realizar planes de tratamiento más personalizados. Sin embargo, el reto de lograr una cobertura en la atención a más personas requiere de otros desarrollos, y dado que la terapia se basa de forma importante en la comunicación y el lenguaje, aparecen en escena los grandes modelos de lenguaje (LLMs) como herramientas importantes.
Los LLMs son la base de chatbots como ChatGPT de OpenAI; LaMDA de Google y LLaMA de Meta u otros desarrollos como Therabot que utilizan IA generativa, es decir, que el programa aprende de los datos existentes u otros chatbots para producir nuevas respuestas. Se alimentan de enormes bases de datos y van mucho más allá de un simple conteo de palabras para establecer asociaciones entre ellas, es decir, se basan en una técnica de modelamiento de palabras dentro de un contexto amplio permitiendo la construcción de significados y el uso interactivo de esta tecnología. Los chatbots usados en salud mental pueden interactuar directamente con el usuario y pretenden reemplazar, al menos en algunos aspectos a un terapeuta real.
Pueden ser compañeros robóticos como la aplicación Replika que permite al usuario interactuar con un bot central que se va personalizando en el tiempo y se destina a conversaciones personales. Se promocionan como herramientas de bienestar emocional y usan un lenguaje preferencialmente positivo y de apoyo. Sin embargo, cuando los investigadores han analizado el desempeño de Replika con sus usuarios, muchos de ellos adolescentes que dicen sentirse muy solos, han encontrado que, así como algunos manifiestan que su Replika les “habla” en un lenguaje positivo incondicional (adulación) y les ha apartado de algún plan suicida, otros señalan respuestas incoherentes o con sesgos raciales, o generan contenidos inapropiados como conductas de dieta o aún validación de comportamientos de auto lesión.
Puede ver: Para algunos pacientes sin habla, su “voz interior” pronto podría ser escuchada
Algunas compañías desarrolladoras promocionan los chatbots para el tratamiento de las enfermedades mentales. Están disponibles al público en general e interactúan con millones de usuarios en todo el mundo, sin embargo, aún no están reguladas. Estudios en los que los investigadores han comparado el desempeño de los bots de terapia con el de terapeutas reales sobre casos de usuarios construidos para el experimento, revelan cómo los algoritmos de IA no son capaces de realizar la toma de perspectiva del cliente o de otros grupos de referencia, notar matices emocionales, evitar expresiones de discriminación, sospechar una ideación suicida o un elemento delirante en un paciente psicótico, identificar alucinaciones o un estado maníaco.
Es decir, no parecen útiles en situaciones de crisis de salud mental; por otra parte, los bots de terapia utilizan de manera excesiva la validación y la adulación del usuario, facilitando el uso adictivo de la aplicación. Los reportes de usuarios que pasan horas conectados con una aplicación señalan la preocupación de cómo el reforzamiento positivo puede “enganchar” a un adolescente o adulto alejándolo aún más de su mundo de relaciones reales.
En la psicoterapia apoyar no es suficiente; confrontar a un paciente con sus propios pensamientos, emociones o comportamientos es crucial para promover la autoconsciencia y el cambio. En la psicoterapia los tiempos son limitados en sesiones de determinada duración y frecuencia y el contacto visual del y con el terapeuta, facilita un intercambio de expresiones emocionales verbales y no verbales que permiten la verdadera empatía y la cohesión social fundamentales para el individuo y la sociedad. Las limitaciones éticas de la IA generativa en salud mental son varias. Por una parte, está el problema ético del cuidado de los datos personales y la confidencialidad de la información.
Los datos de salud de una persona deben ser privados y confidenciales y no deben ser usados por terceros sin consentimiento. Pero, por otra parte, un bot no es un agente moral ni racional y por tanto, no debe en esencia emitir recomendaciones terapéuticas como las que pueden darse dentro de una alianza terapeuta-paciente, sin embargo, si se comunica con el usuario como si fuera un terapeuta puede crear expectativas erróneas. Esta excesiva personalización del robot puede conjurar con la vulnerabilidad del usuario y actuar de forma contraproducente.
Puede ver: El plan del Minsalud para que la flor de cannabis se venda en las droguerías
Los desarrollos más recientes parecen estar afinando estas respuestas con contenidos encaminados a construir con el usuario lo que han llamado “empatía artificial” basándose en tecnologías de procesamiento del lenguaje natural y de reconocimiento facial. Sin embargo, la empatía es algo mucho más complejo que implica la capacidad de comprender y sentir lo que el otro está sintiendo, es una base importante del razonamiento moral y de la inhibición de la agresión. Esto definitivamente no está al alcance de la IA generativa; no tiene la capacidad de sentir empatía real, sentir emociones o preocuparse de manera genuina por el consultante.
A pesar del intento de lograr respuestas que denoten empatía cognitiva, la empatía afectiva no la puede resolver y por tanto no convence, es algo como su nombre lo indica, artificial.
En conclusión, si bien las herramientas de IA en salud mental pueden contribuir al bienestar emocional de muchas personas, facilitar la detección temprana y el escalamiento hacia la atención especializada, brindar al clínico elementos valiosos que faciliten la atención personalizada, los bots de terapia están lejos aún de reemplazar la terapia convencional. Pueden ser un recurso inicial de apoyo y bajo costo que facilita la expresión emocional de alguien necesitado de ser escuchado, ubicado en un territorio apartado o sin acceso a servicios especializados en salud mental, pero por ahora, no podemos esperar mucho más.
Puede ver: Analizaron datos de 205 mil personas y tienen una advertencia sobre las papas fritas
Los desarrolladores están en la obligación de probar y monitorear los modelos, evaluar y hacer seguimiento a los resultados positivos y negativos. Finalmente, recordemos que la palabra “artificial” proviene del latín artificialis que significa hecho o producido por el ser humano; lo opuesto a natural. La definición más amplia de la RAE es: “artificioso, falso, fingido, espurio, engañoso, ilusorio, sintético, facticio”. Es preciso entonces reconocer que el alcance de estas herramientas seguirá siendo limitado en lo que se refiere a la interacción humana empática real.
*Maritza Rodríguez Guarín es MSc, MD, psiquiatra Codirectora Científica Programa Equilibrio, Bogotá, Colombia.
👩⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺