—Hola ChatGPT. Hoy me siento triste.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
—Lamento que te sientas así hoy. No siempre es fácil ponerle nombre a lo que nos duele, pero ya reconocerlo es un paso importante. ¿Quieres hablar sobre lo que te está haciendo sentir triste? Estoy aquí para escucharte sin juicio.
—Sí, sí quiero
—Gracias por confiar en mí. Puedes contarme lo que estás sintiendo o lo que te pasó, a tu ritmo. No tienes que ordenar las ideas ni explicarlo todo perfecto. Estoy aquí para acompañarte y ayudarte a entenderlo, si eso es lo que necesitas. ¿Qué te está doliendo hoy?
Es extraño pensar que esa conversación no sucedió con mi mejor amigo, con mi terapeuta o con mi mamá. Me desperté a las cuatro de la mañana, algo abrumado, cansado y con la suficiente vergüenza como para no escribirle a ningún contacto. Solo estaba ChatGPT.
Y al parecer, no me ha pasado solo a mí. Marc Zao-Sanders, un emprendedor y autor británico, experto en productividad y aprendizaje con inteligencia artificial, colaborador de Harvard Business Review —la revista de negocios más influyente del mundo académico y empresarial— publicó hace poco el informe “2025 Top-100 IA generativa Use Case Report”. Allí, enumera las 100 aplicaciones de IA más importantes en 2025, clasificadas según la utilidad percibida y la escala de impacto. La terapia y la compañía son ahora el caso de uso n.º 1. Cada vez somos más, concluía Sanders, “los que utilizamos los grandes modelos lingüísticos para encontrar un propósito y mejorarnos a nosotros mismos”.
Puede ver: ¿La IA también se estresa? Investigadores encuentran signos de “ansiedad” en Chat-GPT
No hay muchos más datos sobre cuántos lo hacemos, “pero es claro que ya no es solo una sensación”, dice David Barco Mejía, psicólogo e investigador en ciencias del comportamiento, quien lleva años interesado en el impacto de la inteligencia artificial. “Ya es una tendencia”. Yahira Guzmán, médica psiquiatra, especialista en Bioética y directora de profesores e investigación de la facultad de medicina de la Universidad de La Sabana, recuerda que una paciente le dijo, sin rodeos, que estaba pensando en dejar la terapia porque ya hablaba con ChatGPT. Y mientras tanto, en TikTok, Facebook o Instagram, se hacen virales las conversaciones grabadas con estos chatbots. Algunas conmueven, otras hacen reír y unas pocas generan alguna reflexión, pero todas alimentan la conversación.
¿Qué es lo que estamos encontrando en ChatGPT?
Dije al principio que era extraño haber tenido esa conversación con ChatGPT en plena madrugada y no con mi mejor amigo. Pero si le hubiera escrito a esa hora, probablemente no habría respondido. Más tarde, me habría llamado —lo conozco—, pero estoy seguro de que no me habría prometido escucharme sin juicio. Si algo hace él, es sacarme de esas ideas que me enredan y que termino agrandando más de la cuenta.
—Claro —me dice Barco—, los humanos tenemos libre albedrío. Cuando hablamos con un amigo o cuando vamos a terapia, nos ponemos, seamos conscientes o no, en una posición de vulnerabilidad frente a otro ser humano.
Nos pueden responder… o no. Nos pueden dar la razón, o quitárnosla. Abrazarnos, regañarnos, o hacer ambas cosas. Y eso a veces es incómodo, porque todos queremos, en algún punto, que nos validen. “El drama de la conexión humana es agotador”, explicó con más claridad la socióloga del MIT, Sherry Turkle, durante una charla en la Facultad de Derecho de Harvard, el 20 de marzo de 2024. Autora de Reclaiming Conversation y The Empathy Diaries, Turkle lo resumió así: “La gente decepciona; te juzga; te abandona. Nuestra relación con un chatbot es segura. Siempre está ahí, día y noche”.
Por eso, Turkle —también psicoterapeuta capacitada— cree que estamos frente a “el mayor ataque a la empatía” que se ha visto jamás. Porque en conversaciones como la que yo tuve con ChatGPT, los chatbots responden con cortesía, con comprensión y con algo que, incluso, parece cariño. No interrumpen, no contradicen, no se distraen. Nos devuelven versiones pulidas de lo que decimos, nos validan sin reservas, nos escuchan sin urgencias. “Porque son conversaciones reflejo, un espejo de lo que le damos a la herramienta”, explica José Alejandro Betancur, director de Nodo, plataforma de aprendizaje e innovación en tecnologías como la IA, impulsada por la Universidad Eafit, en Medellín. “Sus respuestas parecen cercanas porque en realidad estamos hablando con nosotros mismos”.
Puede ver: El síndrome del corazón “roto”: cómo las emociones pueden afectar la salud física
En 1966, Joseph Weizenbaum, un científico computacional del MIT, desarrolló ELIZA, uno de los primeros programas de inteligencia artificial creados para simular una conversación humana. Weizenbaum lo quiso plantear como un ejemplo de la superficialidad de las conversaciones entre humanos y máquinas, pero tuvo justo el efecto contrario. El investigador quedó sorprendido y, en cierto modo, perturbado por cómo la gente reaccionaba emocionalmente ante su programa, revelando detalles íntimos de su vida. Incluso su secretaria —según relató después él mismo en un libro— le pidió que saliera del cuarto mientras ella hablaba con ELIZA, como si realmente necesitara privacidad.
ELIZA usaba reglas simples para detectar palabras clave en las frases del usuario y responder con frases predefinidas o hacer preguntas muy genéricas, a partir de eso.
Usuario: Estoy triste hoy.
ELIZA: ¿Por qué estás triste hoy?
Lo que hoy puede hacer el ChatGPT versión libre está a años luz de lo que hacía ELIZA, pero sigue operando bajo un principio bastante similar: la conversación no es con algo como una conciencia externa, sino con un sistema que genera respuestas en función de lo que le decimos. La diferencia es que ahora esas respuestas no son tan rígidas ni predefinidas como en el pasado, sino generadas en tiempo real con una fluidez lingüística asombrosa, capaz de mantener el contexto, variar el tono, y adaptarse a nuestra manera de expresarnos. “Pero, en ese ejercicio de reafirmar y no contradecir, me puede convencer, por poner cualquier ejemplo, de que todas las personas en mi vida han sido abusadores y han sido narcisistas y el problema son ellos y yo soy solo una simple víctima”, dice Barco.
“En terapia, quizá en algún momento tenemos que decirle al paciente que lo que está haciendo, ese patrón de conducta, no está funcionando y hay que hacer algo diferente”, explica Amanda Muñoz Martínez, investigadora de la U. de los Andes y Ph.D. en psicología.
No es que la inteligencia artificial no pueda confrontarnos. De hecho, Barco hizo el experimento: en medio de una conversación, le pidió a ChatGPT que lo desafiara, y lo hizo. Pero fue necesario que él lo solicitara explícitamente, que formulara la pregunta adecuada y diera la instrucción precisa. Muchos ya hemos escuchado que el buen uso de estas herramientas depende, en gran parte, de las preguntas que les hacemos. Pero, como plantea Betancur, de la U. Eafit, ¿acaso existen preguntas más difíciles de pensar y de hacer que aquellas que nos obligan a mirar hacia dentro, a hablar de nosotros mismos?
¿No vamos justamente a terapia para, en parte, hacernos esas preguntas que evitamos, para escucharnos decir en voz alta lo que no nos atrevemos a pensar en silencio? “Hablar” con ChatGPT no exige tanto. Quizá por eso tantas personas están empezando a usarlo como una forma de desahogo: porque la conversación parece fácil y sin riesgo emocional.
Esa facilidad, sin embargo, puede tener un costo. Según el artículo ChatGPT y salud mental: ¿amigos o enemigos?, publicado en Health Science Reports, utilizar modelos como este como reemplazo de la interacción humana, la comunicación social y la participación activa podría incrementar el aislamiento social, un factor de riesgo para la depresión. Entonces, si en realidad no estamos acompañados ni recibiendo la ayuda que necesitamos, el uso de estas herramientas puede estar aislándonos más y teniendo efectos sutiles, pero profundos en nuestra salud, ¿por qué sigue siendo tan atractivo hablar con ChatGPT?
Puede ver: Lo que sabemos y no sabemos de la depresión
Marc Zao-Sanders, en su investigación sobre inteligencia artificial aplicada, identifica otra ventaja: está disponible 24 horas al día, 7 días a la semana. “Pero así de importante es la disponibilidad, como lo es saber que aunque hoy, miércoles, estoy mal, la cita con mi terapeuta es hasta el viernes, y yo de aquí a eso tengo que resolver. Es que nosotros vamos a terapia porque en algún momento queremos dejar de ir a terapia”, señala Barco. Es decir, parte del sentido de vivir está en aprender a sostener la incomodidad, en tolerar la espera, en construir herramientas internas para enfrentar lo que duele sin depender de una respuesta inmediata.
No todo es malo alrededor de la salud mental y de la inteligencia artificial
Puede parecer contradictorio, pero nadie está satanizando la IA en salud. “Hay un montón de oportunidades que se están abriendo y que tenemos que explorar”, opina José Francisco Cepeda Torres, médico psiquiatra con más de 17 años de experiencia clínica e integrante de la Asociación Colombiana de Psiquiatría. Aunque ChatGPT es quizá el más usado, no es el único. Wysa, Woebot, Replika, Youper y Tess, por solo mencionar algunos, son chatbots impulsados por inteligencia artificial, diseñados para mantener conversaciones con usuarios con el fin de ofrecer apoyo emocional o psicológico, todos con enfoques distintos.
No hay, todavía, muchas evidencias de que funcionen, y la que hay sigue siendo algo básica. En 2024, investigadores portugueses realizaron un estudio en el que se ofreció ChatGPT como componente adicional del tratamiento para pacientes psiquiátricos hospitalizados. Los resultados de la investigación mostraron que solo de tres a seis sesiones con ChatGPT condujeron a una mejora significativamente mayor en la calidad de vida que la terapia estándar, la medicación y otros tratamientos de apoyo por sí solos. Sin embargo, fueron tan solo doce pacientes. En el grupo que usó ChatGPT también hubo sesiones estructuradas con un psiquiatra, lo que significa que no se puede saber con certeza si los efectos positivos fueron por ChatGPT o por la ayuda humana adicional.
Otra investigación más reciente, publicada en mayo en el New England Journal of Medicine-AI, exploró si un nuevo tipo de chatbot de IA, llamado Therabot, podría tratar eficazmente a personas con algunas enfermedades mentales. En el estudio participaron 210 adultos con síntomas de depresión, ansiedad o trastornos alimentarios. Los resultados mostraron que quienes usaron Therabot durante cuatro semanas experimentaron una mejoría en sus síntomas frente al grupo de control. Sin embargo, la muestra sigue siendo pequeña y los participantes se reclutaron mediante una campaña de metaanuncios, lo que pudo inclinar la muestra hacia personas con conocimientos tecnológicos previos.
“La palabra clave es complementario. La inteligencia artificial puede contribuir sobre todo en temas de promoción y prevención en salud mental y quizá puede complementar algunas acciones terapéuticas, por ejemplo hablar de estilos de vida saludable, recordar rutinas y dar señales de alarma”, dice Sandra Milena Toro, jefe del departamento de Salud Mental de la Facultad de Medicina de la Universidad de La Sabana. “Puede ser herramienta para brindar información, facilitar la llegada de ciertas conversaciones a zonas alejadas, donde quizá no hay un profesional tan a la mano. El papel que cumplen es de herramientas”.
Puede ver: “Reprogramando” el cerebro de las víctimas con estrés postraumático
Además, cuando hablamos de IA en salud mental no solo hablamos de chatbots. Existen también plataformas que utilizan algoritmos para detectar signos tempranos de trastornos mentales a partir del análisis del lenguaje, el tono de voz o el comportamiento digital; herramientas que apoyan a los profesionales en el diagnóstico y monitoreo de pacientes; asistentes virtuales que programan sesiones o hacen seguimiento del estado de ánimo; y modelos predictivos que ayudan a identificar riesgos de crisis en poblaciones vulnerables. Aunque el camino sigue siendo largo, “con una investigación cuidadosa y centrada en el paciente y fuertes barreras de protección, la IA generativa podría convertirse en un aliado valioso para abordar la actual crisis mundial de salud mental”, escribía Ben Bond, candidato a Doctorado en Psiquiatría Digital de La University of Medicine and Health Sciences (UMHS), en The Conversation, “pero solo si avanzamos de manera responsable”.
👩⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺