En el año 2018 empecé a entrenarme en inteligencia artificial y a explorar, con genuina fascinación, capacidades que hoy ya nos parecen elementales. En aquella época participé en el desarrollo de ecosistemas digitales que incluían entre otros a escribas médicos y asistentes clínicos. La idea era sencilla y ambiciosa a la vez: capturar el acto clínico con menos fricción, reducir la carga cognitiva del médico y recuperar tiempo para mirar a los ojos, no a la pantalla. En ese entonces, hablar de asistentes clínicos o de sistemas de soporte a la decisión era casi una extravagancia. La mayoría de los hospitales seguía creyendo que digitalizar consistía en comprar computadores y licencias, y que innovar era hacer congresos médicos más grandes, más largos y densos.
(Lea Minciencias abre becas para maestrías y doctorados para personas nacidas en el Pacífico)
Hoy, apenas ocho años después, el mundo está discutiendo qué viene después de la Inteligencia Artificial General (AGI), es decir, después del punto en el que la inteligencia artificial deja de ser un conjunto de herramientas especializadas y se convierte en una capacidad transversal, adaptable y autónoma para resolver problemas en múltiples dominios con un desempeño comparable o superior al humano. No hablamos solo de modelos que redactan mejor, responden más rápido o resumen artículos; hablamos de sistemas capaces de razonar, planear, aprender con eficiencia, ejecutar tareas complejas con mínima supervisión y, sobre todo, encadenar decisiones de forma consistente en contextos cambiantes.
Este tema tuvo una importante discusión la semana pasada, en el marco del Foro Económico Mundial en Davos, la cual reunió a dos figuras que representan con bastante honestidad los polos del debate global: Demis Hassabis y Dario Amodei.
Hassabis, premio Nobel de química, fundador y CEO de Google DeepMind, es una de las mentes que empujó a la IA desde el juego y la abstracción hacia la ciencia profunda, con hitos como AlphaFold y la promesa de acelerar el descubrimiento biomédico. Amodei, CEO de Anthropic, viene de la escuela que ha insistido en que el salto de capacidad no puede ir independiente de un salto igual de serio en seguridad, control y alineación. Son dos estilos: uno con mirada científica y constructiva; otro con urgencia moral y enfoque de riesgo. Y lo interesante es que ambos están diciendo, en el fondo, lo mismo: el problema no es la IA. El problema es quién la gobierna.
(Lea Así funciona la industria de clonación de caballos para el polo)
La provocación inicial que dejó el panel es sencilla pero incómoda: si la humanidad logra construir una IAG (escenario altamente probable), ¿qué viene después? ¿Una era de abundancia? ¿Una era de dominancia? ¿Una era de dependencia? El público en Davos escucha “revolución tecnológica”, pero realmente lo que está en juego es un reordenamiento del poder mundial.
Porque si algo quedó claro en el intercambio entre Hassabis y Amodei es que el debate no se trata de capacidades. Se trata de control.
Amodei ha sido explícito en su pronóstico: la frontera de capacidad que muchos asocian con AGI podría materializarse entre 2026 y 2029. Esa ventana temporal esencialmente es hoy: llevamos décadas discutiendo la transformación digital, pero vamos a tener que discutir en tres años quién administra la infraestructura cognitiva del planeta. Y aquí aparece la primera frase potente, que se desprende de su postura: el riesgo no es que la AGI piense, es que nosotros no sepamos qué hacer con alguien que piensa demasiado bien.
Su énfasis suele ser directo: no basta con construir modelos; hay que construir mecanismos de evaluación, límites de despliegue, y una ingeniería de seguridad y contexto proporcional a la potencia. En otras palabras, no puede ser “lanzar y ver qué pasa”. Porque con sistemas que amplifican la capacidad de un individuo, un grupo o un Estado, corregir tarde es un problema, es una catástrofe con un bello front.
Hassabis, por su parte, empuja la narrativa de la IA como multiplicador científico. Es una visión más luminosa y, si se quiere, más peligrosa por su potencial de seducción: una AGI como motor de descubrimiento, como copiloto de la biología, como acelerador de nuevas terapias, nuevas moléculas, nuevos materiales. La frase implícita en su enfoque sería esta: el mayor riesgo no es que la IA nos haga daño, es que desperdiciemos la oportunidad de curar lo que nunca pudimos curar. Para Hassabis la IAG debe responder a las preguntas que no hemos podido responder con la ciencia convencional.
Y en salud eso suena irresistible. Porque lo es.
Pero el propio Hassabis también sabe que el progreso científico es una forma sofisticada de poder. Una inteligencia que acelera el descubrimiento de fármacos y que no solo mejora resultados; redefine mercados, concentra patentes, rediseña cadenas de suministro, decide qué países pagan y cuáles esperan. La ciencia, cuando se vuelve plataforma, deja de ser neutral.
Por eso la conversación en Davos fue menos “tecnológica” de lo que algunos esperaban. Fue geopolítica. La AGI aparece como un nuevo tipo de dominio: no un territorio, sino una infraestructura. No un recurso natural, sino una capacidad industrial que produce ventaja en todos los sectores al mismo tiempo.
Y ahí está el corazón del asunto: la AGI no será simplemente una herramienta. Será una ventaja asimétrica, y posiblemente la quiebra de muchos actores pequeños en el juego.
Un laboratorio con AGI no compite mejor; juega otro juego. Un país con acceso preferente a AGI no exporta productos; exporta control cognitivo, modelos de verdad, estándares, y dependencia. Y en ese escenario, hablar de regulación se vuelve un saludo a la bandera, porque la historia nos enseña que cuando una tecnología define supremacía, primero se despliega, después se normaliza, y finalmente se legisla. El orden rara vez es el correcto.
En este punto, Amodei y Hassabis se encuentran más de lo que divergen. Ambos reconocen que “alinear” no es un punto. Y ambos entienden que el mundo no está preparado para un cambio de esta magnitud, no solo por falta de normas, sino por falta de coordinación. Si hoy no coordinamos sistemas de salud fragmentados, ¿qué nos hace pensar que coordinaremos un sistema cognitivo global?
El problema real es dominancia: dominancia tecnológica, dominancia económica, dominancia narrativa y también dominancia cognitiva.
Porque la AGI reordena quién define qué es evidencia, qué es correcto, qué es eficiente, qué es “mejor práctica”. Y en medicina eso es peligroso: la verdad clínica no es una predicción, es un pacto social respaldado por ciencia, experiencia y ética. Si el pacto se delega a un sistema centralizado, la clínica puede volverse técnicamente impecable y políticamente frágil.
La pregunta, entonces, no es cuándo llega la AGI. La pregunta es si llegaremos nosotros con instituciones capaces de contenerla.
Y aquí me permito una observación con un toque de ironía: en salud llevamos años intentando que los hospitales se muevan a algo simple como la interoperabilidad de la historia clínica electrónica sin destruir la consulta, pero estamos perfectamente listos para que un modelo generalista se convierta en el árbitro invisible del diagnóstico, el tratamiento y el acceso, como dicen los más jóvenes: ¿qué podría salir mal?
Entre 2026 y 2029, lo que está en discusión no es liberar tiempo: es liberar poder o concentrarlo. Y esa diferencia lo cambia todo.
La AGI no será el final de la inteligencia humana. Será el inicio de una nueva competencia por gobernarla, la nueva carrera armamentística.
Y, tal vez, lo más responsable que podemos hacer, desde salud y desde Latinoamérica, es dejar de hablar de “usar IA” o peor, de regularla como psicóticos como si fuera una app. La conversación debe migrar a algo más incómodo y más maduro: cómo diseñamos soberanía, seguridad, transparencia y control en un mundo donde la inteligencia puede convertirse en infraestructura; y la infraestructura, como siempre, termina teniendo dueño. Y todos sabemos que esos dueños no seremos nosotros.
*MD, M.Sc, MBA-Médico Internista, Hematólogo y Oncólogo Clínico.Especialista en Inteligencia Artificial
👩🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬