Las guerras modernas se planean y ejecutan de forma más silenciosa e invisible, con la inteligencia artificial (IA) y los ciberataques como protagonistas en los conflictos globales. Estados Unidos ha empleado la IA como pieza clave —y controvertida— en su guerra contra Irán.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
El Ejército de Estados Unidos confirmó el empleo de diversas herramientas de IA en la guerra contra Irán, en un contexto de alarma creciente por el alza de víctimas civiles en el conflicto. El almirante Brad Cooper, comandante del Comando Central de EE. UU. (CENTCOM), afirmó el miércoles que la inteligencia artificial permite a los soldados procesar volúmenes masivos de datos con gran eficiencia. Cooper aseguró que los humanos siempre tomaron la última decisión frente a los ataques.
Estas afirmaciones se producen en el contexto del ataque conjunto de Estados Unidos e Israel contra Irán el 28 de febrero, en el que una investigación del Pentágono señala a Estados Unidos como responsable del bombardeo de una escuela primaria con un misil de crucero Tomahawk. Ese ataque habría dejado 175 personas muertas, en su mayoría niñas.
“La inteligencia artificial puede acelerar la toma de decisiones, pero no garantiza que sean correctas. Si la información de entrada es errónea, el error también se acelera. Por eso, para reducir riesgos es fundamental mantener un control humano real, revisar los datos, contrastarlos con fuentes actualizadas y aplicar filtros legales”, afirmó Daniel Morelo, artista digital especializado en comunicación visual y tecnologías emergentes.
La coalición Stop Killer Robots, integrada por 270 organizaciones de derechos humanos, advierte que los sistemas de IA para apoyar decisiones militares difuminan peligrosamente la línea entre recomendar y ejecutar un ataque, al fomentar un sesgo de automatización donde los humanos supervisados excesivamente en las salidas de las máquinas.
“Esa es justamente una de las grandes tensiones del momento: la tecnología está avanzando más rápido que las reglas éticas y políticas que buscan regularla, lo que dificulta su control”, aseguró Morelo.
El uso de operaciones de inteligencia artificial en militares ha generado debate. Un ejemplo es Maven Smart, un programa del Departamento de Defensa de EE. UU. que utiliza algoritmos para analizar imágenes de drones y satélites y detectar posibles objetivos, lo que acelera las decisiones humanas en conflictos.
Morelo explicó que el Maven Smart System es, en términos simples, una plataforma que reúne grandes volúmenes de información en un solo lugar. Según indicó, el sistema toma datos de radares, sensores, imágenes, informes y reportes, los organiza y ayuda a identificar posibles objetivos. Además, señaló que también puede proyectar posibles escenarios posteriores a un ataque, ofreciendo una idea de lo que podría ocurrir después de una operación.
Además, la IA Claude, de la empresa Anthropic, ha sido explorada por el Pentágono para analizar inteligencia, planificar estrategias y simular escenarios de guerra, aunque la empresa dice que pone límites éticos para evitar usos letales directos.
“Modelos de inteligencia artificial como Claude no toman decisiones sobre a quién atacar. Su función es analizar grandes volúmenes de información, resumirla y detectar patrones para identificar los datos más relevantes. Esa información se entrega a analistas y mandos militares, quienes son los responsables de interpretar los resultados y tomar las decisiones”, explicó Morelo.
Estados Unidos también ha dirigido ciberataques clave contra redes eléctricas, sistemas bancarios y sistemas de control industrial en Irán —operaciones que muchos analistas consideran herederas de ataques como el del malware Stuxnet—, con el objetivo de debilitar sus capacidades nucleares y de control interno sin recurrir a una guerra convencional.
En este contexto, infraestructuras vinculadas al llamado “Eje de la Resistencia” también han sido blanco de operaciones digitales, algo que el grupo de hackers iraní Handala denuncia como parte de una campaña continua contra sus redes, mientras Teherán responde con ataques de malware tipo “wiper” dirigidos contra empresas aliadas de Washington.
En esa lógica de confrontación digital, Irán tampoco se ha quedado atrás. Hackers iraníes llevaron a cabo un ciberataque dirigido contra la empresa Stryker, considerada uno de los mayores fabricantes de dispositivos médicos de Estados Unidos. El propio grupo Handala afirmó haber ejecutado la operación como represalia por el ataque a la escuela de Minab.
En esa lógica de confrontación digital, Irán tampoco se ha quedado atrás. Hackers iraníes llevaron a cabo un ciberataque dirigido contra la empresa Stryker, considerada uno de los mayores fabricantes de dispositivos médicos de Estados Unidos. El propio grupo Handala afirmó haber ejecutado la operación como represalia por el ataque a la escuela de Minab.
Según el colectivo, la acción se realizó “en represalia por el brutal ataque a la escuela de Minab y en respuesta a los continuos ciberataques contra la infraestructura del llamado Eje de la Resistencia”, evidenciando que el enfrentamiento entre ambos países no solo se libra en el terreno militar, sino también en el ámbito digital.
Sin embargo, el uso de la IA para la guerra no es nuevo y se ha venido usando en otros conflictos, como en la ofensiva de Israel en Palestina, donde según una investigación de The National, reveló que palestinos sin vínculos con Hamás fueron blancos de ataques erróneos en varias ocasiones.
El sistema Lavender, principal herramienta para seleccionar objetivos, recopilaba datos sobre millas de palestinos, complementado por “Gospel”, que analizaba edificios y terrenos. Estos generaban blancos para agentes de inteligencia, quienes —según reportes— los aprobaban en apenas 20 segundos antes de lanzar ataques.
Según la experta Nilza Amaral consultada por el medio, es altamente probable que Israel esté usando este mismo programa para la guerra con Irán.
Las guerras ya no se libran solo en el campo de batalla, sino también en el espacio digital y la esfera de la inteligencia artificial, donde la rapidez no garantiza decisiones correctas. Su regulación es insuficiente, lo que aumenta riesgos de errores, sesgos y mal uso, por lo que el control humano y criterios éticos son esenciales.
👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.
El Espectador, comprometido con ofrecer la mejor experiencia a sus lectores, ha forjado una alianza estratégica con The New York Times con el 30 % de descuento.
Este plan ofrece una experiencia informativa completa, combinando el mejor periodismo colombiano con la cobertura internacional de The New York Times. No pierda la oportunidad de acceder a todos estos beneficios y más. ¡Suscríbase aquí a El Espectador hoy y viva el periodismo desde una perspectiva global!
📧 📬 🌍 Si le interesa recibir un resumen semanal de las noticias y análisis de la sección Internacional de El Espectador, puede ingresar a nuestro portafolio de newsletters, buscar “No es el fin del mundo” e inscribirse a nuestro boletín. Si desea contactar al equipo, puede hacerlo escribiendo a mmedina@elespectador.com