La reciente noticia del The Wall Street Journal sobre el uso de Claude (la inteligencia artificial de Anthropic) en la operación para capturar a Nicolás Maduro en Venezuela ha encendido las alarmas. Aunque la incursión, que incluyó bombardeos en Caracas, se presenta como un éxito táctico, nos sitúa ante un cuestionamiento ético ineludible: ¿dónde termina el cálculo estadístico de la máquina y dónde empieza la responsabilidad moral del ser humano?
En las instituciones de defensa, la narrativa oficial suele refugiarse en el concepto de “humano en bucle” (human-in-the-loop) como una garantía ética, asegurando que las personas mantienen el control final. Sin embargo, la realidad operativa sugiere una transición acelerada hacia el humano “fuera del bucle” (human-out-of-the-loop), donde la velocidad de los sistemas algorítmicos tiende a separar la agencia humana de la conducta en la guerra. Como advierte la investigadora Toni Erskine, el mundo se enfrenta al riesgo de una “responsabilidad extraviada”. Existe una tendencia peligrosa a atribuir a la IA capacidades de reflexión y comprensión que no posee. El peligro radica en que estos sistemas se conviertan en “chivos expiatorios sintéticos” que permitan a los líderes esquivar el peso moral de la guerra, asumiendo falsamente que la decisión fue validada por una inteligencia “superior”.
Esto revive el debate sobre las armas autónomas letales como sistemas capaces de identificar y atacar objetivos sin intervención humana directa. La posibilidad de que algoritmos de procesamiento de datos controlen plataformas de ataque genera una profunda preocupación sobre la rendición de cuentas. Además, esto se agrava por el “sesgo de automatización”. Investigaciones de Michael Horowitz y Lauren Kahn han demostrado que los operadores tienden a confiar excesivamente en las sugerencias de la IA, tratándolas como verdades empíricas en lugar de simples probabilidades estadísticas. En misiones de alto riesgo, esta confianza ciega puede disminuir la vigilancia humana al percibir que la tarea se comparte con un “miembro del equipo” que no se equivoca.
La integración de la ética en estos códigos es un terreno movedizo. El experimento “Moral Machine” del MIT evidenció que las percepciones de lo que es justo en situaciones límite varía drásticamente según la cultura; lo que algunos consideran justo, otros pueden verlo como un crimen. Al aplicar la IA en la guerra, surge la incertidumbre sobre qué valores se han programado. Como señala Erskine, la tecnología carece de “autonomía reflexiva”, no puede sentir empatía ni evaluar las razones profundas detrás de un acto violento. Le falta lo que Clausewitz denominaba el “genio militar”: la intuición, la flexibilidad y ese ojo interior para evaluar el contexto político y el sufrimiento humano en la incertidumbre de la guerra.
En definitiva, la guerra no puede reducirse a una simple ejecución técnica. Si una decisión guiada por algoritmos deriva en una tragedia o crimen de guerra, el banquillo de los acusados no puede estar ocupado por un código. La responsabilidad moral no es un recurso que se pueda externalizar, es el último baluarte que separa la política de la barbarie.
👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.
El Espectador, comprometido con ofrecer la mejor experiencia a sus lectores, ha forjado una alianza estratégica con The New York Times con el 30 % de descuento.
Este plan ofrece una experiencia informativa completa, combinando el mejor periodismo colombiano con la cobertura internacional de The New York Times. No pierda la oportunidad de acceder a todos estos beneficios y más. ¡Suscríbase aquí a El Espectador hoy y viva el periodismo desde una perspectiva global!
📧 📬 🌍 Si le interesa recibir un resumen semanal de las noticias y análisis de la sección Internacional de El Espectador, puede ingresar a nuestro portafolio de newsletters, buscar “No es el fin del mundo” e inscribirse a nuestro boletín. Si desea contactar al equipo, puede hacerlo escribiendo a mmedina@elespectador.com