El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.

La tecnología no dispara sola

Carolina Botero Cabrera

14 de marzo de 2026 - 12:03 a. m.

Con orgullo bélico Donald Trump habla de su “ejército letal”, el que en apenas 24 horas y junto con Israel, ejecutó más de mil ataques dentro de la operación militar contra Irán, que llamó Epic Fury. Inició una guerra que había prometido en campaña nunca comenzar. Dentro de los primeros resultados de esta guerra se cuentan la muerte de más de 170 personas en una escuela femenina, la mayoría niñas, que reabrió el debate sobre las víctimas civiles en los conflictos armados.

PUBLICIDAD

La reacción de Trump frente a lo sucedido el 28 de febrero en la escuela de niñas Shajarah Tayyebeh (Minab, Irán) ha sido contradictoria. Inicialmente, y sin pruebas, atribuyó el ataque a Irán, sugirió que pudo ser un error o incluso un montaje. Esta semana, ante las evidencias de que sucedió por un misil Tomahawk estadounidense y que la base de datos utilizada estaba desactualizada -en sus mapas era parte de una base naval de la Guardia Revolucionaria-, afirmó desconocer los hechos y esperar los resultados de las investigaciones de la Marina y el Pentágono.

El ataque, descrito en imágenes y relatos periodísticos dolorosos de sobrevivientes y testigos, revive los reclamos sobre la obligación que tienen los actores armados de aplicar el Derecho Internacional Humanitario (DIH) a los conflictos armados. Este reclamo reaparace cuando vemos bombardeos a hospitales, refugios y escuelas, como en Palestina. Incluso en operaciones menos visibles, como las realizadas en Venezuela dónde hubo más de 100 muertes civiles, que también deberían suscitar preguntas sobre intervenciones calificadas como “quirúrgicas”.

Se discute si el ataque a Irán -como antes el de Venezuela- incorporó o no sistemas de inteligencia artificial (IA), lo cierto es que esta tecnología está ya tan integrada en los procesos militares que explica, en buena medida, su capacidad para actuar con mayor alcance, escala y rapidez. El profesor Jon Lindsay señala que la IA en la guerra no representa una ruptura radical, sino la evolución lógica de una automatización que comenzó hace más de un siglo, con las minas navales y las bombas guiadas de la Segunda Guerra Mundial, y que continuó con sistemas de defensa como Patriot, así como con drones, sensores y herramientas de análisis masivo de datos. Lo que permite la IA actual es procesar información a una velocidad sin precedentes y, por ejemplo, sugerir posibles objetivos.

Read more!

Lindsay recuerda también que tampoco los dilemas éticos y errores técnicos atribuidos hoy a la IA son nuevos en la historia de la guerra, sin embargo la responsabilidad última debe recaer siempre en el juicio humano.

El DIH tiene su fundamento en los Convenios de Ginebra de 1949 -desarrollados en protocolos adicionales posteriores- y busca proteger a la población civil y a los combatientes fuera de combate, como heridos, náufragos o prisioneros. El DIH obliga a las fuerzas armadas a aplicar los principios de legalidad, necesidad y proporcionalidad: a analizar si los objetivos seleccionados tienen valor militar legítimo y a evaluar las consecuencias previsibles del ataque. Si existe riesgo de daño a civiles, deben evaluar si el beneficio militar esperado es proporcional al daño potencial. Finalmente, incluso si se evalúa como proporcional, tienen que aplicar el principio de diferenciación: si afecta a poblaciones protegidas (como menores) estamos ante un crimen de guerra.

Read more!

Trump desprecia el derecho internacional, dice estar sujeto solo a su propia moral y en este campo también lo ha debilitado en su país. El Departamento de Defensa publicó en 2015 el Manual de la Guerra que fue actualizado en 2023 para mitigar daños a civiles. Buscaban evitar los errores cometidos durante la llamada guerra contra el terrorismo, crearon mecanismos adicionales de supervisión al seleccionar objetivos y planear operaciones. Sin embargo, parte de esa estructura de control -incluido el equipo especializado del Pentágono para revisar posibles daños civiles- fue desmontada por esta administración.

He insistido en la necesidad de exigir regulaciones que prohíban sistemas totalmente automatizados en la toma de decisiones, especialmente en ámbitos tan sensibles como la inteligencia estatal y los conflictos armados. Sin embargo, como dice Lindsay, el éxito o fracaso de la IA en la guerra depende más de la organización humana que de la tecnología misma. La IA puede aumentar la eficiencia, pero también amplifica los sesgos organizativos. Afirma por ejemplo que el elevado número de víctimas civiles en Gaza es finalmente resultado de decisiones humanas, como las reglas de combate permisivas del atacante.

Coincido con Lindsay: la IA es una herramienta de apoyo y no un sustituto de la responsabilidad humana. Por tanto, la ausencia de regulación que prohíba las decisiones totalmente automatizadas no evita responsabilidad. Toda tecnología es responsabilidad humana, son las personas las responsables de diseñar, gestionar y validar estos sistemas, y los comandantes mantienen la decisión final, también pasó en Minab. Eso sí, regularla ayudaría a asignar y a hacer exigible la responsabilidad.

Conoce más
Ver todas las noticias
Read more!
Read more!
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.