El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.

IA para detectar patrones de salud mental: el experimento español al que se sumó Bogotá

Por quinto año consecutivo Bogotá registra un aumento sostenido en reportes de “ideación suicida” e intentos. Ante el panorama, valiéndose de la Inteligencia Artificial, la ciudad implementará el programa español STOP, que ya ha dado resultados en Chile, Panamá y Perú.

Juan Camilo Parra

07 de abril de 2026 - 12:08 p. m.
La implementación del proyecto comenzó el 1 de abril de 2026, en paralelo con Santiago de Chile, como parte de su expansión en América Latina.
Foto: El Espectador
PUBLICIDAD

Un “like”. Un comentario. Un post. Una imagen en el “feed”. A distancia, son simples acciones, comandos básicos que usamos a diario para interactuar en redes sociales. Pero detrás de cada interacción que concedemos en la web, estamos proyectando quienes somos, al menos, en el ecosistema digital. Y eso que proyectamos al aire, en tiempo real, a los ojos de expertos, puede dar señales de cómo está nuestra salud mental. Un análisis más detallado, que cruce datos de post, estados publicados, podría incluso dar cuenta de si una persona presenta signos de deterioro en su salud mental. Señales que hoy día pueden ser solicitudes de un salvavidas.

Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO

¿Ya tienes una cuenta? Inicia sesión para continuar

Le puede interesar: Edificio Telecom: de símbolo en los 70 a bodega y espejo de memoria arquitectónica

Bogotá es una ciudad en la que la salud mental puede correr graves riesgos. En poco más de una década, desde el 2012, los casos de “ideación suicida” se multiplicaron por más de 10. Si en dicho año se registraron 2.795 casos, para 2024 llegaron a 30.209 2025 y el año pasado 30.670. Esto no solo da cuenta de la necesidad de ampliar el espectro y mejorar los mecanismos de medición (los registros oficiales pueden no abarcar toda la realidad) también obliga a las instituciones a pensar y cuestionar qué es lo que están haciendo las grandes urbes para acompañar a sus ciudadanos cuya salud mental se está viendo deteriorada.

En diversos países, la respuesta, por contradictoria que parezca está en la inteligencia artificial: en contextos de salud mental, la IA suele posicionarse al costado negativo del fenómeno, en el de las preocupaciones y riesgos que empeoran el contexto de salud mental. No como una oportunidad para contrarrestar la problemática. Pero países como España (en donde nació el programa), Panamá, Perú, ahora Chile y Colombia, han implementado STOP, un algoritmo que usa la IA para apoyar campañas dirigidas a perfiles sociales que, según el análisis, demuestren que necesitan algún apoyo emocional o psicológico.

Read more!

¿Pueden los perfiles de redes sociales dar indicios de cómo está nuestra salud mental? ¿Puede la IA incidir positivamente en contextos de fragilidad como la ciudad de Bogotá? ¿Qué experiencia ha dejado STOP en otros países?

Siga leyendo: La Séptima en obra: árboles, Transmilenio y un contrato irreversible

IA y salud mental

Ana Freire, directora del proyecto STOP, docente e investigadora en la Universidad Pompeu Fabra, explicó el programa. Parte de una premisa: que la IA es percibida en el mundo como un catalizador de problemas de salud mental, pero no debe ser demonizada del todo. Casos como el ocurrido en Miami, en donde Jonathan Gavalas, de 36 años, se quitó la vida tras sostener una relación con una IA, demuestran que la tecnología sin acompañamiento humano y profesional puede ser peor remedio que la enfermedad.

“Los jóvenes están en redes sociales y no podemos desaprovechar la oportunidad de llegar a ellos también a través de este medio”, dijo Freire a El Espectador, con la convicción de que la inteligencia artificial también puede ser una puerta abierta de oportunidades para atender una problemática que, en grandes urbes como Bogotá, se empieza a percibir cada vez más.

“El proyecto STOP, que nació en 2017, estudia de manera completamente anónima, en redes sociales, cuál es el perfil demográfico y de comportamiento común a usuarios con ideación suicida, depresión o trastornos de la conducta alimentaria, como puede ser la anorexia o la bulimia”, agregó Freire.

Más de Bogotá: El renacer del Bronx en un café: historia de Beto, Lizeth y el local que rompió una estética

No ad for you

El proyecto utiliza inteligencia artificial para analizar el comportamiento de los usuarios en redes sociales e identificar señales asociadas a problemas de salud mental. “Lo que hacemos es analizar, por ejemplo, a nivel textual qué palabras están más relacionadas con el suicidio dentro de estos textos, algunos factores que determinan tener ideación suicida, análisis de sentimientos, de emociones, etcétera. A nivel de imagen estudiamos si las imágenes que publican los usuarios están relacionadas con estos problemas; en el caso de las personas con anorexia, suelen ser imágenes donde no sale la cara, aparece el cuerpo, cuerpos muy delgados o imágenes en blanco y negro”, explica.

A esto se suma el análisis de comportamiento, como los patrones de publicación, que pueden dar pistas sobre alteraciones en el sueño o el nivel de interacción social.

Con esta información, el sistema construye perfiles de riesgo que permiten orientar intervenciones. “Lo que hacemos realmente es extraer un perfil de comportamiento y demográfico común a usuarios en riesgo y lanzar campañas dirigidas a usuarios anónimos que encajen en este perfil”, señala.

No ad for you

Según sus estudios, el perfil más frecuente de ideación suicida en redes corresponde a mujeres menores de 39 años que abordan temas como consumo de sustancias, problemas económicos, de pareja o antecedentes de abuso. En el caso de la depresión, el rango de edad es menor (menos de 29 años) y en trastornos de la conducta alimentaria el 60 % de los casos corresponde a menores de 19 años.

A partir de estos perfiles, el proyecto despliega campañas digitales con rutas de atención. “Estas campañas se lanzan en redes sociales y contienen teléfonos de ayuda o chats de apoyo emocional”, indica. La estrategia ya ha sido probada en otros países con resultados significativos. En España, por ejemplo, “incrementamos en un 60 % el número de llamadas al teléfono de prevención del suicidio y hasta un 1000 % las conversaciones en un chat de apoyo emocional del Ministerio de Salud”. En Perú, una línea creada específicamente para la campaña recibió cerca de 600 llamadas en un mes, mientras que en Panamá el tráfico hacia servicios de ayuda aumentó en un 86 % en el primer mes de implementación.

No ad for you

Judy Costanza Beltrán Rojas, doctora en Psicología con énfasis en Neuropsicología de la U. Nacional asegura que la inteligencia artificial ya está llegando al campo de la salud mental. “Es importante analizarla, seguirla estudiando. Un fenómeno que se está viendo es que las personas le comentan o le piden incluso ayuda a sistemas de inteligencia artificial para resolver dudas de salud mental. Esto pues es algo que ya se hace, se está haciendo en el común de la población”, señaló a este diario.

Le puede interesar: La historia del grupo Quincy: día a día del equipo que humaniza la muerte en Bogotá

Sobre si las redes sociales pueden reflejar la salud mental de una persona, la doctora en psicología afirma que las redes sociales “no pueden usarse para diagnosticar”, no obstante, reconoce que, “para los jóvenes las redes sociales no son simplemente para chatear o para mantenerse al tanto de los amigos, sino que se convierten en un ecosistema de pertenencia donde se miden, donde están pendientes de lo que los demás hacen, donde conviven muchas horas al día”.

No ad for you

“Hay que tener en cuenta otros factores”, agrega la doctora, “como lo son el uso de datos muy personales, la privacidad o el hecho de que estemos cediendo información muy confidencial muy propia a un algoritmo. Más allá de asignar una etiqueta positiva o negativa es ver los límites de la inteligencia artificial. No reemplaza la intervención ni el rol humano”.

Contexto bogotano

Sofia Ríos, subdirectora de determinantes en salud de la Secretaría de Salud cuenta que la alianza que permitirá implementar esta tecnología en Bogotá comenzó a gestarse en 2024, cuando la Universidad Pompeu Fabra, en Barcelona, se acercó a la Secretaría Distrital de Salud. “La universidad empieza a preguntarnos sobre las estrategias que estamos haciendo en Bogotá para la prevención del suicidio. Ahí empezamos una alianza estratégica porque nos parece muy interesante el algoritmo”, explica la subdirectora.

El algoritmo llega a complementar las estrategias de prevención de suicidio que ya existen, como la línea de escucha 106, la cual cuenta con diferentes canales de atención. “Uno es por medio del WhatsApp, otro es eh la llamada telefónica y otra es la atención que tenemos por Facebook”, dice Ríos. Desde la Secretaría, el interés estaba en fortalecer el trabajo con jóvenes. “Nosotros teníamos la inquietud de trabajar de manera mucho más cercana con adolescentes y jóvenes por todo lo que pasa con redes sociales, y ellos ya tenían un algoritmo desarrollado. Entonces empezamos a hacer esta alianza”, señala.

No ad for you

“Es un acuerdo que no tiene recursos, es una transferencia de conocimientos en términos de investigación. Hay total anonimización de las personas”, explica. La lógica del modelo es complementaria: “Ellos tienen cómo acceder a la red social y nosotros tenemos los mecanismos institucionales. Lo que hacen es identificar el patrón de manera anónima y lanzar mensajes para que las personas se acerquen a los servicios que ya tenemos”.

La expectativa es que esta estrategia aumente el contacto con los servicios de ayuda. “En los países donde se ha utilizado, en el primer mes se logra un aumento de entre 30 % y 40 % en la contactabilidad con estas líneas”, afirma. Ante esto, la Secretaría también ha reforzado su capacidad de atención. “Hemos hecho el fortalecimiento de la línea para poder atender este tipo de situaciones y mejorar la escucha a las personas que lo requieren”.

Sobre el uso de inteligencia artificial, la funcionaria reconoce que es un campo en debate. “Sabemos que hay preocupaciones y que la evidencia todavía está en estudio. No es contundente en decir si es bueno malo, hay vacíos normativos y eso limita algunas actuaciones”, señala.

No ad for you

El modelo no reemplaza la atención humana, sino que funciona como puerta de entrada. “Dentro de la línea 106 damos orientación y escucha, y cuando identificamos la necesidad de una acción terapéutica, hacemos la canalización inmediata. Son tres pasos: identificar, orientar y remitir”, explica.

El aumento anual de registros de personas que acuden por ayuda ya sea por ideación suicida e intentos, ha hecho que el Distrito amplíe la oferta. “En términos de conducta suicida”, añade la subdirectora, “hemos estado teniendo un aumento en el número de casos de personas que están identificando sus emociones, que hacen consulta, que captamos en los diferentes sistemas o subsistemas de vigilancia. Sin embargo, en el suicidio como tal, esto ha ido disminuyendo y esto es una situación que con mayor medida hemos visto en Bogotá, pero que también ha sido un efecto nacional”.

Datos de SaluData arrojan que la ideación suicida ha crecido de forma acelerada en los últimos años, pasando de tasas bajas en 2012 (2,3) a 38,6 por cada 10.000 habitantes en 2025, con más de 30.600 casos. Las mujeres registran mayor afectación, con una tasa de 48,2 y 19.757 casos, frente a los hombres, que presentan 28,4 y 19.197 casos. El intento de suicidio también aumentó, especialmente desde 2021, alcanzando una tasa de 9,7 en 2025, con cerca de 7.772 casos. Las mujeres concentran la mayor incidencia, con una tasa de 12 y 4.930 casos, mientras que los hombres registran 7,2 y 2.782 casos.

No ad for you

A diferencia de los anteriores, el suicidio consumado se mantiene estable, con una tasa de 4,4 en 2025 y 352 casos. En este indicador la tendencia de género se invierte: los hombres concentran la mayoría de las muertes (262 casos; tasa de 6,8), frente a las mujeres (90 casos; tasa de 2,2).

La implementación del proyecto comenzó el 1 de abril de 2026, en paralelo con Santiago de Chile, como parte de su expansión en América Latina. “Creemos que al ser megaciudades vamos a tener una connotación diferente y es una gran aproximación al uso de inteligencia artificial en salud mental”, cerró la subdirectora.

Para conocer más noticias de la capital y Cundinamarca, visite la sección Bogotá de El Espectador.

Por Juan Camilo Parra

Periodista egresado de la Universidad Externado de colombia con experiencia en cubrimiento de orden público en Bogotá.jparra@elespectador.com
Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.