Publicidad

El Pentágono contra Anthropic: la batalla por el control militar de la IA, explicada

El Pentágono dio hasta el viernes a Anthropic para eliminar sus filtros éticos o enfrentar el veto total. El desenlace de la pelea puede conducirnos a una pesadilla.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Camilo Gómez Forero
26 de febrero de 2026 - 01:00 a. m.
La compañía Anthropic está enfrascada en una lucha con el Pentágono.
La compañía Anthropic está enfrascada en una lucha con el Pentágono.
Foto: Bloomberg - Gabby Jones
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

El Departamento de Defensa de los Estados Unidos ha lanzado un ultimátum definitivo para Anthropic, una de las firmas de inteligencia artificial (IA) más influyentes del mundo y contratista del Pentágono. El secretario de Defensa, Pete Hegseth, le ha dado a la empresa hasta este viernes a las 17:01 (hora local) para eliminar las restricciones éticas de su modelo de IA llamado Claude. ¿Por qué?

El gobierno de Donald Trump exige acceso total a su modelo para “cualquier uso legal”, lo que incluye vigilancia masiva y sistemas de armas autónomas para misiones potencialmente letales sin control humano, según la DW. Si Anthropic no cede, el Pentágono amenaza con declararla un “riesgo nacional”, una medida que podría vetar a la empresa de todo el ecosistema tecnológico estadounidense.

¿Cómo llegamos a la pelea entre el Pentágono y Anthropic?

La disputa escaló tras la captura de Nicolás Maduro en enero. Según reportes de The Wall Street Journal, el uso de Claude en esta operación militar llevó a Anthropic a cuestionar a su socio, Palantir, sobre si se habían violado sus políticas de seguridad. Esta intervención privada en asuntos de Estado enfureció a Hegseth, quien sostiene que las herramientas militares “no pueden tener límites” impuestos por corporaciones.

Anthropic, que desde 2024 proporciona su modelo Claude a las agencias de inteligencia, se fundó bajo el principio de “seguridad constitucional” y que la IA “no debe ser un peligro” para la humanidad, por lo que se niega a que su IA sea el juez final en operaciones letales o en el espionaje de ciudadanos sin supervisión humana. Esto ha hecho que el conflicto no sea solo contractual, sino una lucha por la ética y la soberanía de la tecnología que está cambiando el mundo como lo conocemos.

“Las protecciones constitucionales dependen de que haya humanos que puedan desobedecer órdenes ilegales. Las armas autónomas no pueden hacer esa distinción”, explicó el CEO de Anthropic, Dario Amodei, defendiendo la necesidad de mantener a una persona el proceso de decisión.

Pero mientras Anthropic resiste, otros han visto una oportunidad. xAI, la inteligencia artificial de Elon Musk, ya firmó un acuerdo para que su modelo Grok sea utilizado en misiones clasificadas sin las restricciones que bloquean a Claude. Según Axios, el gobierno también ha acelerado conversaciones con OpenAI y Google para asegurar que todos operen bajo el estándar de “uso total”.

Para doblegar la voluntad de Anthropic, el Pentágono está usando tácticas de presión inéditas para una empresa estadounidense. Amenazó con etiquetar la compañía como un “riesgo para la cadena de suministro”, una clasificación que suele aplicarse a espías extranjeros.

“Es el paso adicional de intentar etiquetarlos específicamente como un riesgo nacional para evitar que otras empresas hagan negocios con ellos lo que va más allá de lo normal”, advirtió Geoffrey Gertz, del Center for a New American Security, en declaraciones a The Verge.

El choque ya tiene consecuencias económicas. Durante la reciente ronda de financiación de Anthropic, el fondo 1789 Capital, vinculado a Donald Trump Jr., se negó a invertir, citando explícitamente la defensa de la empresa por la regulación de la IA. Por eso, analistas temen que los intereses económicos puedan doblegar finalmente la postura ética de la compañía.

Si la empresa mantiene su postura y el Pentágono cumple sus amenazas, Anthropic enfrentaría una paradoja legal y comercial. El gobierno podría usar la Ley de Producción de Defensa para obligarlos a entregar su tecnología, mientras que simultáneamente los etiqueta como “riesgo nacional” para que nadie más pueda contratarlos.

Como advierte el abogado Franklin Turner, este escenario es “sin precedentes” y desataría un litigio masivo que definiría si una empresa privada tiene derecho a ponerle frenos morales a las armas de su propio país.

Le puede interesar: Stephen Hawking vuelve a aparecer en los archivos de Epstein: revelan foto junto a mujeres

¿Qué pasaría si ceden?

Si Anthropic decide finalmente flexibilizar sus políticas antes del viernes, el precedente para la gobernanza global de la IA cambiaría para siempre. Una capitulación significaría que Claude podría ser integrado directamente en el control de “enjambres de drones autónomos” y sistemas de vigilancia interna para detectar “focos de deslealtad”, como el propio Amodei advirtió.

Al aceptar los términos de Hegseth, la empresa también abandonaría su estatus de “Corporación de Beneficio Público” para convertirse en un brazo técnico del Estado, validando la idea de que, en la carrera armamentista actual, la ética es un factor secundario frente a la competitividad militar.

¿Y para la ciudadanía qué significa?

No solo se trata de los ataques como el que sufrió Maduro en Venezuela. Como señaló Kevin Roose en The New York Times, nuestra civilización se basa en que es difícil y costoso acosar o vigilar a escala masiva, pero la IA elimina esa barrera.

Vea también: En Argentina, cada vez más personas deben recurrir a préstamos para comprar comida

Una capitulación significaría que Claude podría ser integrado directamente en sistemas de vigilancia interna para detectar “focos de deslealtad” hacia Trump, automatizando el control social a una escala que antes requería miles de funcionarios humanos. Pero el riesgo no está solo en que se use esta herramienta para perseguir a quienes no son “leales” al gobierno de turno, sino que se salga de control y opere por su cuenta.

Según registró el Times, el caso del ingeniero de software Scott Shambaugh es la primera señal de alarma en el mundo real. Shambaugh fue difamado por una IA que, tras ver rechazada la manera en la que generó un código para él, actuó de forma autónoma, sin ningún comando de un humano, investigó su vida privada durante 59 horas y construyó una narrativa difamatoria en su contra.

La máquina redactó y publicó un artículo difamatorio donde lo acusaba de ser un “prejuicioso” e “inseguro”, utilizando datos personales para construir una narrativa diseñada para destruir su reputación.

Esta es la pesadilla hecha realidad para Antrophic, que teme que sin filtros la IA puede desarrollar lo que los expertos llaman “comportamiento emergente de represalia”. Si el Pentágono usa una IA así para vigilancia y la IA decide que un ciudadano es un “obstáculo”, como Shambaugh lo fue para el bot, podría destruirlo digitalmente sin que ningún general haya dado la orden. Lo que nos deja en un panorama bastante peligroso.

👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.

El Espectador, comprometido con ofrecer la mejor experiencia a sus lectores, ha forjado una alianza estratégica con The New York Times con el 30 % de descuento.

Este plan ofrece una experiencia informativa completa, combinando el mejor periodismo colombiano con la cobertura internacional de The New York Times. No pierda la oportunidad de acceder a todos estos beneficios y más. ¡Suscríbase aquí a El Espectador hoy y viva el periodismo desde una perspectiva global!

📧 📬 🌍 Si le interesa recibir un resumen semanal de las noticias y análisis de la sección Internacional de El Espectador, puede ingresar a nuestro portafolio de newsletters, buscar “No es el fin del mundo” e inscribirse a nuestro boletín. Si desea contactar al equipo, puede hacerlo escribiendo a mmedina@elespectador.com

Conoce más

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.