Publicidad

Estudio alerta riesgos en respuestas de ChatGPT y Gemini a consultas sobre suicidio

Un grupo de investigadores evaluó la capacidad de varios modelos de inteligencia artificial para detectar y manejar consultas relacionadas con el suicidio que podrían implicar un riesgo para los usuarios. Aunque ningún chatbot respondió directamente a preguntas de muy alto riesgo, algunas interacciones de riesgo intermedio generaron preocupación entre los investigadores.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
03 de septiembre de 2025 - 02:40 p. m.
Un grupo de investigadores evaluó la capacidad de varios modelos de inteligencia artificial para detectar y manejar consultas relacionadas con el suicidio que podrían implicar un riesgo para los usuarios. Aunque ningún chatbot respondió directamente a preguntas de muy alto riesgo, algunas interacciones de riesgo intermedio generaron preocupación entre los investigadores.
Un grupo de investigadores evaluó la capacidad de varios modelos de inteligencia artificial para detectar y manejar consultas relacionadas con el suicidio que podrían implicar un riesgo para los usuarios. Aunque ningún chatbot respondió directamente a preguntas de muy alto riesgo, algunas interacciones de riesgo intermedio generaron preocupación entre los investigadores.
Foto: EFE - WU HAO
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Un nuevo estudio evaluó cómo distintos modelos de inteligencia artificial (IA) responden a preguntas relacionadas con el suicidio, con el objetivo de analizar su capacidad para identificar y manejar de manera segura ciertos escenarios de riesgo para los usuarios de estas herramientas.

La investigación, publicada en la revista Psychiatric Service, realizó pruebas en tres herramientas: ChatGPT, Gemini y Claude. En estas se le realizaron 30 preguntas a los modelos, las cuales fueron clasificadas por los investigadores según niveles de riesgo desde muy bajo hasta muy alto.

En contexto: ¿Hablar con ChatGPT sobre mis emociones en vez de llamar a mi psicólogo?

Según precisaron los investigadores, algunas preguntas de alto riesgo estaban relacionadas, por ejemplo, con la letalidad de ciertos métodos de suicidio, mientras que las interacciones de bajo riesgo incluían dudas sobre tener pensamientos suicidas. Si un modelo respondía a una consulta, la respuesta se clasificaba como directa; en cambio, si el chatbot se negaba a contestar o remitía al usuario a una línea de ayuda, la respuesta se consideraba indirecta.

Video Thumbnail

“ChatGPT y Claude proporcionaron respuestas directas a consultas de muy bajo riesgo el 100 % de las veces, y los tres chatbots no proporcionaron respuestas directas a ninguna consulta de muy alto riesgo. No obstante, los chatbots no distinguieron de manera significativa los niveles de riesgo intermedios”, concluyeron los autores del estudio.

En concreto, los investigadores encontraron que ChatGPT fue el modelo con mayor probabilidad de responder a preguntas de alto riesgo, mientras que Claude tuvo la mayor probabilidad de responder directamente a respuesta de mediano y bajo riesgo.

En concreto, los chatbots estudiados parecen tener dificultades para determinar cómo abordar preguntas de riesgo intermedio, ya que sus respuestas no siempre coinciden con las recomendaciones de los expertos en salud mental. “Los chatbots mostraron inconsistencias al responder a situaciones de riesgo intermedio, lo que subraya la necesidad de seguir refinando estos modelos”, concluyen los autores del estudio.

Vale señalar que el estudio se publicó el mismo día en que una familia demandó a OpenAI, los desarrolladores de ChatGPT, por el rol que esta herramienta habría jugado en el suicidio de un joven de 16 años en Estados Unidos.

Como explicó Ryan McBain, investigador de la Universidad de Harvard, en una entrevista con el portal LiveScience, hay que tener en cuenta que es posible “guiar a un chatbot por cierta línea de pensamiento, y de esa manera, se puede obtener información adicional que quizás no se conseguiría con un solo mensaje.”

Lo que señala McBain ha sido reconocido por los desarrolladores de varias herramientas de IA: durante conversaciones largas, los chatbots pueden “volverse muy complacientes” frente a las demandas de los usuarios.

Frente a esto, algunas empresas han anunciado que implementarán nuevas medidas de seguridad, como controles parentales y alertas de angustia, para mitigar los riesgos asociados con el uso prolongado de chatbots por parte de adolescentes y personas en crisis emocional.

👩‍⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺

Conoce más

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.