Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

Los riesgos de pedirle a la inteligencia artificial que opine sobre su historia clínica

A pesar de los riesgos para la privacidad y las preocupaciones por la inexactitud, la gente introduce resultados de análisis de sangre, notas médicas e informes quirúrgicos en ChatGPT y chatbots similares. ¿Cuáles son los riesgos?

Maggie Astor / The New York Times

11 de diciembre de 2025 - 02:12 p. m.
Foto: Ricardo Santos / New York Times
PUBLICIDAD

Mollie Kerr, una neoyorquina de 26 años que vive en Londres, se asustó este verano cuando sus análisis de sangre mostraron desequilibrios hormonales.

Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO

¿Ya tienes una cuenta? Inicia sesión para continuar

Después de ver los resultados en el portal web de pacientes, sintió mucho miedo como para esperar a hablar con su médico. Así que, con cierta inquietud, pegó el informe completo en ChatGPT. El chatbot le dijo que los resultados podían indicar varias afecciones, pero que “lo más probable” era que se tratara de un tumor hipofisario o de una enfermedad poco común relacionada con los tumores hipofisarios.

Las conjeturas del chatbot no estaban descartadas —el médico de Kerr estuvo de acuerdo en pedir una resonancia magnética para comprobarlo—, pero eran erróneas. No se detectó ningún tumor.

Otro paciente, Elliot Royce, de 63 años, tuvo una experiencia diferente después de subir cinco años de su historial médico a ChatGPT, incluida la documentación de una cardiopatía compleja y un infarto anterior.

Empezó a sentirse más incómodo al hacer ejercicio, y una prueba indicó que tenía una arteria parcialmente obstruida. Su médico creía que, de momento, bastaría con una estrecha vigilancia. Con base en lo que aconsejó ChatGPT, Royce decidió someterse a un procedimiento diagnóstico más invasivo, que reveló una obstrucción del 85 por ciento, un problema grave que se trató con un “stent”.

En todo el mundo, millones de personas utilizan chatbots para tratar de entender mejor su salud. Y algunos, como Kerr y Royce, van más allá de las simples preguntas médicas. Ellos y más de una decena de personas que hablaron con el diario The New York Times han entregado resultados de laboratorio, imágenes médicas, notas del médico, informes quirúrgicos y otros documentos a los chatbots.

La inexactitud de la información es una de las principales preocupaciones. Algunos estudios han revelado que las personas sin formación médica obtienen diagnósticos correctos de los chatbots en menos de la mitad de las ocasiones y la carga de datos confidenciales añade riesgos para la privacidad a cambio de respuestas que pueden parecer más personalizadas.

Read more!

Danielle Bitterman, profesora adjunta de la Facultad de Medicina de Harvard y responsable clínica de ciencia de datos e inteligencia artificial en Mass General Brigham, afirma que no es seguro asumir que los chatbots personalizan el análisis que realizan de los resultados de pruebas médicas. Sus investigaciones han revelado que los chatbots pueden inclinarse a ofrecer respuestas de aplicación más general, incluso cuando se les da contexto sobre pacientes específicos.

“Que se proporcione toda esa información a los modelos lingüísticos no significa que la utilicen de la misma forma en que lo haría un médico”, explicó. Y una vez que las personas cargan este tipo de datos, tienen un control limitado sobre cómo se utilizan.

HIPAA, la ley federal de privacidad en materia de salud, no se aplica a las empresas que están detrás de los populares chatbots. Según Bradley Malin, profesor de Informática Biomédica en el Centro Médico de la Universidad de Vanderbilt, “básicamente se renuncia a cualquier derecho que se tenga con respecto a la privacidad médica”, y solo quedan las protecciones que una empresa determinada decida ofrecer.

Read more!
No ad for you

OpenAI, creador de ChatGPT, afirma que cuenta con amplias medidas de protección de la información privada de sus usuarios.

Un representante señaló que los usuarios pueden optar por que no se utilicen sus chats para entrenar futuros modelos y afirmó que la empresa puso a prueba sus sistemas contra ataques simulados. También dijo que comparte un mínimo de datos con proveedores de servicios de terceros. (El Times demandó a OpenAI por infracción de los derechos de autor del contenido de noticias. OpenAI negó las acusaciones).

Aun así, los expertos en privacidad de datos afirman que subir información médica a cualquier chatbot entraña riesgos porque varían las políticas de los chatbots y porque es muy difícil eliminar todas las vulnerabilidades.

Uno de los problemas es que muchas personas no optan por no entregar sus datos para el entrenamiento de chatbots. Esto crea la posibilidad de que, si una persona sube datos médicos y otra persona pregunta a un futuro modelo sobre esa persona, un chatbot “podría filtrar accidentalmente información muy sensible”, explicó Karni Chagal-Feferkorn, profesora adjunta de la Facultad Bellini de Inteligencia Artificial, Ciberseguridad e Informática de la Universidad del Sur de Florida.

No ad for you

OpenAI afirma que se está ocupando de “minimizar” esta posibilidad, y el representante de la compañía aseguró que ChatGPT estaba entrenado para no aprender ni revelar ese tipo de información. Pero los expertos en privacidad de datos siguen considerando esa posibilidad.

“Sin duda, sus medidas reducen el riesgo, pero no son infalibles y probablemente no puedan serlo”, dijo Chagal-Feferkorn. “No hay que tener miedo a la tecnología, pero hay que ser muy conscientes de los riesgos”, añadió.

Algunos pacientes dijeron que habían tachado sus nombres y eliminado los metadatos antes de compartir sus historiales con los chatbots, pero puede que eso no sea suficiente. Según Rainu Kaushal, director del Departamento de Ciencias de la Salud de la Población del Centro Médico Weill Cornell y del Hospital Presbiteriano de Nueva York, a veces es posible relacionar información suficientemente detallada con personas concretas, aunque no se incluyan sus nombres.

Las consecuencias de la filtración de información sanitaria pueden ser graves. Por ejemplo, aunque para la mayoría de los empresarios es ilegal discriminar a las personas con discapacidad, no es poco común que ocurra.

No ad for you

Pero la mayoría de las personas que hablaron con el New York Times dijeron que no estaban preocupadas.

“Mi móvil me sigue adonde vaya”, comentó Robert Gebhardt, de 88 años, que pide a ChatGPT que evalúe la urgencia de sus síntomas y la idoneidad de sus medicamentos, dados los 15 años de historiales médicos que cargó en el sitio web. “Cualquiera que quiera saber algo de mí puede averiguarlo, incluidos mis datos médicos. Es un hecho de la vida, y ya lo acepté”.

Stephanie Landa, de 53 años, ha introducido los resultados de sus pruebas en ChatGPT desde que el año pasado le diagnosticaron un cáncer de apéndice metastásico. Valora que ChatGPT le ofrezca un panorama inmediato de sus resultados, sobre todo cuando son devastadores, como cuando mostraron que el cáncer se había extendido por todo el abdomen. Si procesa las malas noticias antes de la visita al médico, puede aprovechar mejor el tiempo de la consulta.

Durante un tiempo, redactó minuciosamente los datos identificativos. Pero luego decidió que, dado el pronóstico de su cáncer agresivo, ya no le importaba.

No ad for you

En cuanto a Kerr, un endocrinólogo no pudo ayudarla tras descartar el tumor, relató, y su médico de cabecera no ha podido resolver el misterio.

Así que ha vuelto a recurrir a ChatGPT en busca de nuevas sugerencias diagnósticas y consejos dietéticos, algunos de los cuales le han resultado útiles.

“Sé que es información delicada”, afirma. “Pero también siento que no obtengo respuestas de ningún otro lado”.

A pesar de los riesgos para la privacidad y las preocupaciones por la inexactitud, la gente introduce resultados de análisis de sangre, notas médicas e informes quirúrgicos en ChatGPT y chatbots similares.

👩‍⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺

Por Maggie Astor / The New York Times

Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.