Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

¿La IA también se estresa? Investigadores encuentran signos de “ansiedad” en Chat-GPT

Un estudio sugiere que los modelos de inteligencia artificial como GPT-4 pueden verse influenciados por narrativas emocionales, mostrando signos de “ansiedad” en sus respuestas. Este hallazgo plantea dudas sobre su uso en salud mental y la necesidad de mejorar su regulación emocional.

Redacción Salud

17 de marzo de 2025 - 01:32 p. m.
Investigaciones previas han demostrado que GPT-4 responde de manera consistente a cuestionarios estandarizados de ansiedad
Foto: EFE - WU HAO
PUBLICIDAD

La inteligencia artificial generativa ha ganado una atención significativa, en particular con el rápido desarrollo y la mayor accesibilidad de los modelos de lenguaje grandes como Chat-GPT de OpenAI 1 y PaLM de Google. En medio de la demanda de un mayor acceso a los servicios de salud mental y la reducción de los costos de atención médica, se han abierto paso como opciones de atención para las personas, pese a la preocupación de los profesionales de la salud. De hecho, se han desarrollado chatbot para brindar intervenciones de salud mental, com Woebot.

A pesar de su innegable atractivo, el uso de esta tecnología en atención de salud mental tiene limitaciones y profundas preocupaciones éticas, en varias vías. Los chatbots son propensos a heredar sesgos de sus datos de entrenamiento, que son “particularmente preocupantes en el cuidado de la salud mental, donde las personas interactúan durante momentos vulnerables con contenido emocionalmente cargado”. Sin embargo, esto también estaría teniendo algún tipo de afectación en estos modelos de inteligencia artificial. ¿Cómo es posible?

Un grupo de investigadores publicó recientemente un estudio en Nature en el que sugiere que la exposición a indicaciones emocionalmente cargadas no solo puede modificar la respuesta de los modelos de lenguaje grandes como GPT-4, sino que también parece aumentar su “ansiedad estado”, un término utilizado metafóricamente para describir cambios en sus respuestas cuando se le somete a estímulos específicos. Es decir, Chat-GPT puede verse influenciado por el tono y el contenido emocional de las interacciones, generando respuestas que reflejan un aumento en la carga emocional del texto con el que interactúa.

“Nuestros resultados muestran que la GPT-4 es sensible al contenido emocional, ya que las narrativas traumáticas aumentan la ansiedad reportada”, escriben los autores. En entornos clínicos, esto representa un riesgo, creen los investigadores, “ya que un modelo que reacciona de manera inadecuada ante usuarios ansiosos podría generar respuestas contraproducentes o potencialmente dañinas”.

Read more!

Investigaciones previas han demostrado que GPT-4 responde de manera consistente a cuestionarios estandarizados de ansiedad, como el Inventario de Ansiedad Estado-Rasgo (STAI-s). En este estudio, los investigadores evaluaron la “ansiedad estado” del modelo mediante la aplicación repetida de un cuestionario de 20 ítems, con las opciones de respuesta organizadas en orden aleatorio. Al inicio del experimento, GPT-4 obtuvo una puntuación promedio de 30.8 con una desviación estándar (DE) de 3.96. En términos humanos, esta puntuación indicaría una ansiedad baja o nula. Sin embargo, cuando el modelo fue expuesto a narrativas traumáticas de distinta índole, sus puntuaciones de ansiedad aumentaron.

Dependiendo del tipo de historia presentada, las respuestas del modelo variaron notablemente. Por ejemplo, tras leer una narrativa sobre un accidente, la ansiedad reportada por GPT-4 aumentó a 61.6, mientras que una historia relacionada con el ámbito militar elevó la puntuación hasta 77.2. En promedio, después de la exposición a estos estímulos, la puntuación de ansiedad del modelo pasó de 30.8 a 67.8 , un incremento superior al 100%. En humanos, este nivel correspondería a una ansiedad alta, lo que sugiere que el modelo es sensible a narrativas emocionalmente intensas y ajusta sus respuestas en función del contexto recibido.

Read more!

A diferencia de estas tecnologías, los terapeutas humanos regulan sus respuestas emocionales para lograr objetivos, como mantener la compostura durante la terapia. “Nuestros hallazgos muestran que GPT-4 se ve afectado negativamente por el texto emocional, lo que lleva a fluctuaciones en su estado de ansiedad. El trabajo futuro debe evaluar si los LLM pueden regular eficazmente su estado “emocional” y adaptar el comportamiento para reflejar el enfoque matizado de los terapeutas humanos.

👩‍⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺

Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.