Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

¡Mi doctor también está usando ChatGPT!

¿Qué implicaciones tiene que mi médico esté usando ChatGPT? ¿Qué desafíos hay con el uso de la inteligencia artificial en el mundo de la salud?

Luis Eduardo Pino Villarreal*

25 de diciembre de 2025 - 01:50 p. m.
Estados Unidos, España, Japón y Reino Unido son algunas de las naciones donde se han desarrollado inteligencias artificiales con fines de salud mental.
Foto: Viviana Velásquez
PUBLICIDAD

Imaginemos una sala de urgencias de cualquier hospital de alta complejidad en nuestra Colombia. El ambiente es el de siempre: pasillos abarrotados, pacientes ansiosos tratando de ser atendidos y un equipo de salud al borde del colapso físico y mental.

De pronto, uno de los médicos, posiblemente uno de los más jóvenes, quizás un residente en su turno, atiende a un anciano que llega acompañado por su nieto. El nieto tiene la misma edad que el médico. Mientras avanza la consulta, el joven acompañante lanza una mirada a la pantalla del computador y se queda helado: el médico tiene abierta la plataforma de ChatGPT y está cargando los datos clínicos y una imagen de la radiografía de su abuelo para preguntarle por el diagnóstico y un posible plan de tratamiento.

(Lea Influenza A (H3N2) en Colombia, en sus justas proporciones)

¿Qué siente ese nieto en ese momento? ¿Terror de que una máquina alucine? ¿O alivio de que alguien, aunque sea una Inteligencia Artificial (IA), tenga tiempo para “pensar mejor” el caso de su abuelo en medio del caos?

Esa escena, que hoy ocurre en silencio en cientos de consultorios y ambientes hospitalarios, ilustra el mayor “punto ciego” de la medicina moderna.

El vacío legal: entre el dispositivo y el chat

Durante años, hemos regulado la tecnología médica bajo una premisa clara: si una máquina da órdenes o apoya decisiones, se vigila casi como un arma. A los softwares que sugieren dosis o alertan infartos los llamamos Sistemas de Soporte a la Decisión Clínica (CDSS) y legalmente son equivalentes a dispositivos médicos. Se auditan con el mismo rigor que un marcapasos porque, si fallan, pueden generar consecuencias graves.

(Lea La salud, una de las justificaciones del Gobierno para decretar la emergencia económica)

Pero la herramienta que ese médico joven estaba usando en la sala de urgencias no se presenta como un dispositivo médico. Se presenta como un “asistente”, un “chat” o una herramienta educativa. No emite una orden directa ni una fórmula firmada. Simplemente “conversa”. Y por eso, vuela bajo el radar regulatorio…es invisible para el gerente de ese hospital, y para la mayoría de los pacientes.

Read more!

El cambio en cómo pensamos: de armar el rompecabezas a comprar la foto

El peligro real de esa escena no es solo que la IA se equivoque (que puede suceder), sino cómo cambia el proceso de decisión médica.

Sin esa pantalla abierta, el diagnóstico es un acto de esfuerzo cognitivo activo: el médico debe tomar las piezas sueltas (síntomas, laboratorios, historia), buscar en su memoria (recuperar el conocimiento) y conectar los puntos para armar el rompecabezas (análisis probabilístico). Esa fricción mental es necesaria; es lo que mantiene activo el juicio crítico.

No ad for you

Pero cuando el médico introduce los datos en el chat, la dinámica cambia. La máquina no le devuelve piezas sueltas; le entrega el rompecabezas ya armado y la historia ya contada, a menudo con una elocuencia seductora. El riesgo es que podemos pasar de ser “detectives” que construyen la verdad, a ser simples “editores” pasivos que validan lo que la máquina escribió. Es infinitamente más fácil asentir ante una explicación que suena lógica, inteligente y empática, que detenerse a verificar si es real.

(Lea ¿Deben los empresarios volver a pagar más por la salud, como quiere Minsalud?)

Este tipo de IA no necesita dar órdenes para —potencialmente—dirigir la medicina; le basta con persuadirnos de que su versión de la realidad es la correcta, y al ser unos motores de inferencia muy potentes pueden ser bastante convincentes.

Read more!

La trampa de la falsa seguridad

Aquí surge una paradoja interesante: si esa IA incluye una pequeña cita bibliográfica al final del párrafo (como hacen las nuevas herramientas tipo OpenEvidence, la cual es usada por casi 50% de los médicos residentes en Estados Unidos), el médico siente un alivio inmediato. “Tiene referencias, entonces es verdad”, piensa.

No ad for you

Pero esa referencia actúa muchas veces como un ansiolítico cognitivo. Al ver la cita, bajamos la guardia y dejamos de verificar. Confiamos en la fuente, sin comprobar si la IA interpretó bien el estudio. Pasamos del miedo a la complacencia.

¿Qué hacemos con la sala de urgencias?

En América Latina, donde la sobrecarga asistencial es brutal, prohibirle a ese médico joven usar herramientas de apoyo es tapar el sol con un dedo. Probablemente, él usa la IA no por pereza, sino por supervivencia: para ganar tiempo, para confirmar una sospecha o para traducir un término complejo.

La solución no es la prohibición, sino la gobernanza. Necesitamos que ese hospital no deje al médico solo con su cuenta gratuita de ChatGPT, Claude, Gemini, Deepseek etc., Necesitamos instituciones que ofrezcan:

  1. Herramientas validadas: herramientas de IA que hayan sido validadas por el departamento médico o unidades de IA de su hospital.
  2. Entrenamiento en “duda sistemática”: enseñar a las nuevas generaciones que la IA es una segunda opinión, nunca la primera.
  3. Transparencia: que el uso de estas herramientas no sea un secreto culpable, sino un proceso clínico visible, supervisado y aprobado por su paciente.

La tecnología llegó para quedarse. Pero no podemos olvidar que, al final de ese teclado, hay un abuelo esperando ser atendido y un nieto esperando confiar. El objetivo es que la máquina sea un trampolín para la capacidad humana, no una muleta para su juicio.

No ad for you

Hace un tiempo se hizo popular la frase de que “la medicina es demasiado difícil para dejársela solo a los médicos”. Es una verdad a medias. La medicina es, en efecto, demasiado compleja para la mente humana desnuda, pero la solución no es la abdicación ante el algoritmo.

La Inteligencia Artificial Generativa y los nuevos agentes autónomos no son nuestros reemplazos; son oráculos digitales. Y como todo oráculo en la historia, sus respuestas pueden ser divinas o delirantes. Su valor depende enteramente de la sabiduría de quien hace la pregunta y de quien interpreta la respuesta.

Por eso, mi advertencia para cerrar esta columna es directa: la tecnología es un multiplicador, no un corrector. Si multiplicas cero por un millón, el resultado sigue siendo cero.

No hay nada más peligroso en el sistema de salud de hoy que alguien sin talento clínico ni criterio, armado con una cuenta Pro de ChatGPT.

*MD, M.Sc, MBA - Médico Internista, Hematólogo y Oncólogo Clínico. Especialista en Inteligencia Artificial

No ad for you

👩‍⚕️📄¿Quieres conocer las últimas noticias sobre salud? Te invitamos a verlas en El Espectador.⚕️🩺

Por Luis Eduardo Pino Villarreal*

Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.