Es tan decisiva y exacta la inteligencia artificial empleada por Estados Unidos e Israel en su guerra contra Irán que, en el primer día de los ataques, se cargaron con misiles una escuela de niñas. Según fuentes iraníes, murieron por lo menos 175 personas en la escuela Shajarah Tayyebeh, en la ciudad de Minab. Medios como el New York Times recabaron fuentes visuales satelitales con las que argumentaron que una base naval cercana, operada por el Cuerpo de la Guardia Revolucionaria Islámica, fue igualmente bombardeada.
El tema del uso de la inteligencia artificial para labores militares ya venía siendo discutido en medios de comunicación y redes sociales desde que a Anthropic, la empresa a cargo de la herramienta Claude, le fueron cancelados los contratos que tenía con el Departamento de Defensa de los Estados Unidos (rebautizado como Departamento de Guerra). Es más, la orden de Donald Trump fue que ninguna entidad pública podría usar la tecnología ofrecida por Anthropic.
La razón: haberse negado a ceder en el uso de Claude para armas autónomas letales (digamos un dron que use inteligencia artificial para identificar una persona como objetivo y decidir disparar un misil sin la autorización de un humano) y sistemas de vigilancia masiva (analizar millones de mensajes, redes sociales, cámaras y demás para detectar personas sospechosas de algo).
Lo mínimo, pues.
E igual Trump salió en su plataforma Truth Social a tratar a los encargados de Anthropic como “lunáticos de izquierda”. Lunáticos o no (con seguridad que de izquierda tampoco), Claude alcanzó a ser usado en Irán. También lo fue en Venezuela, según el Wall Street Journal, y no sería tan raro si fue empleado en el Caribe y los ataques a las supuestas narcolanchas. Y si no es Claude será cualquier otro. Ahora mismo los de OpenAI tomaron su lugar.
Su director ejecutivo, Sam Altman, lo celebró en sus redes sociales con el siguiente mensaje: “En todas nuestras interacciones, el Departamento de Guerra mostró un profundo respeto por la seguridad”, incluido otra vez los dos principios que consideran los más relevantes: “la prohibición de la vigilancia masiva dentro del país y la responsabilidad humana en el uso de la fuerza, incluso en el caso de sistemas de armas autónomos”.
En vez de debatir sobre si lo cumplirán o no (y por supuesto que no lo harán) bastaría con reconocer que el uso de la inteligencia ya está inscrito en las nuevas formas de hacer la guerra. En un artículo en The Guardian lo explicaron así: “la guerra en Irán anuncia una era de bombardeos impulsados por inteligencia artificial más rápidos que la velocidad del pensamiento”. Los autores del artículo, Robert Booth y Dan Milmo, explican que Claude fue utilizado para analizar enormes cantidades de datos de inteligencia, identificar objetivos, priorizarlos, recomendar armas (¡y evaluar la legalidad de los ataques!), hasta reducir el tiempo que va entre que se detecta un objetivo y se lanza un ataque. De ahí la intensidad, explican, de los 900 ataques de las primeras 12 horas.
Una guerra en la que los humanos solo estarían ahí para validar los juicios de los algoritmos.
Y si queda la sensación de que esto ya lo vimos es porque, en efecto, viene de ocurrir. Lo confirma otro artículo en The Guardian escrito por Bethan McKernan y Harry Davies en abril de 2024, en el que fue reseñada una investigación en la que seis oficiales de inteligencia revelaron que el ejército israelí habría usado un sistema de inteligencia artificial llamado Lavender para identificar posibles miembros de Hamas durante la guerra en Gaza. A partir de una enorme base de datos que tenía por fin establecer básicamente quién era un objetivo militar sin que hubiese muchas preguntas ni veeduría humana de por medio y junto con una política permisiva frente a las bajas civiles consideradas “aceptables” en ataques contra militantes de bajo rango, transcurrieron los primeros momentos de la guerra.
De ahí la cantidad de bombardeos que todos vimos.
Así lo retomó Yuval Abraham en el artículo en el que fue publicada la investigación original, en la revista digital+972 Magazine: “Una fuente afirmó que el personal humano a menudo sólo servía como un sello de aprobación para las decisiones de la máquina”.