El presidente Donald Trump ha ordenado a todas las agencias federales de los Estados Unidos cesar inmediatamente el uso de la tecnología de Anthropic, lo que pone un fin drástico a la disputa entre la firma de Inteligencia Artificial (IA) y el Pentágono, pero abre a la vez una guerra más amplia sobre la ética de las herramientas de este tipo.
La medida, anunciada este viernes tras vencerse el ultimátum impuesto por el secretario de Defensa, Pete Hegseth, para que Anthropic cediera a los términos del Departamento de Defensa, marca un hito sin precedentes. En pocas palabras, el Gobierno está diciendo que prefiere prescindir de una de las herramientas de IA más avanzadas del mundo antes que aceptar restricciones éticas en su uso militar.
“Los izquierdistas desquiciados de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Departamento de Guerra”, publicó el mandatario en sus redes sociales.
Trump advirtió que la empresa enfrentará “importantes consecuencias civiles y penales” si no colabora con la transición, estableciendo un periodo de eliminación gradual de seis meses para que agencias como el Departamento de Estado y el Pentágono desconecten a Claude de sus sistemas.
La pelea con Anthropic, brevemente explicada
El gobierno Trump exige acceso total al modelo de la compañía para “cualquier uso legal”, lo que incluye vigilancia masiva y sistemas de armas autónomas para misiones potencialmente letales sin control humano, según la DW. Anthropic no quiere que se realicen estas acciones sin supervisión humana y teme que sus herramientas sean usadas sin ética alguna.
La disputa escaló tras la captura de Nicolás Maduro en enero. Según reportes de The Wall Street Journal, el uso de Claude en esta operación militar llevó a Anthropic a cuestionar a su socio, Palantir, sobre si se habían violado sus políticas de seguridad. Esta intervención privada en asuntos de Estado enfureció a Hegseth, quien sostiene que las herramientas militares “no pueden tener límites” impuestos por corporaciones.
Anthropic, que desde 2024 proporciona su modelo Claude a las agencias de inteligencia, se fundó bajo el principio de “seguridad constitucional” y que la IA “no debe ser un peligro” para la humanidad, por lo que se niega a que su IA sea el juez final en operaciones letales o en el espionaje de ciudadanos sin supervisión humana. Esto ha hecho que el conflicto no sea solo contractual, sino una lucha por la ética y la soberanía de la tecnología.
Le puede interesar: Borrada y restaurada: sigue el escándalo por la foto del secretario de Comercio de EE. UU. con Epstein
El conflicto alcanzó su punto de no retorno cuando el CEO de Anthropic, Dario Amodei, se negó a eliminar las salvaguardas que impiden que el asesitente Claude sea utilizado en operaciones de vigilancia masiva o sistemas de armas totalmente autónomos.
“Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su petición”, sentenció Amodei, reafirmando que la IA no debe actuar como juez final en decisiones letales.
Esta firmeza provocó una reacción visceral en el Pentágono. Emil Michael, subsecretario de Defensa, calificó a Amodei de “mentiroso” con “complejo de Dios”, acusándolo de poner en peligro la seguridad nacional al intentar imponer los términos de servicio de una empresa por encima de las necesidades militares del país.
Un golpe de 200 millones de dólares y el fin de la “IA ética”
La decisión es un terremoto financiero para Silicon Valley. La expulsión de Anthropic anula contratos por cerca de US$ 200 millones con el ejército y pone en duda la valoración de US$ 380.000 millones de la compañía justo cuando se preparaba para su salida a bolsa.
Pero ahora que la salida de Anthropic deja un vacío crítico en la seguridad nacional, la pregunta es si hay una compañía dispuesta a llenar su lugar. Hasta hoy, Claude era la única IA autorizada para operar en la nube clasificada del Pentágono. Sin embargo, el Gobierno ya tiene una lista de posibles sustitutos.
XAI, de Elon Musk, ya obtuvo la aprobación para realizar trabajos clasificados sin las restricciones que bloquean a Anthropic.Por otro lado, OpenAI, cuyo CEO es Sam Altman, ha adoptado una postura de defensa de Anthropic, pese a que esta es su compañía rival.
Google y Microsoft, finalmente, enfrentan una presión interna masiva de sus propios empleados, quienes se han unido al bando de Anthropic exigiendo que se rechace el uso sin restricciones de la IA en la guerra.
¿Quién manda en esta tecnología?
Para el Pentágono, EE. UU. debe ser una fuerza “AI-first” (IA estadounidense, priorizando los intereses del gobierno) y solo contratará modelos que estén “libres de restricciones políticas de uso que limiten las aplicaciones militares legales”.
El riesgo para la ciudadanía bajo esta lógica, como han advertido analistas de The New York Times, es la automatización de la vigilancia y la persecución de “focos de deslealtad” mediante sistemas que ya no tendrán supervisión humana.
👀🌎📄 ¿Ya se enteró de las últimas noticias en el mundo? Invitamos a verlas en El Espectador.
El Espectador, comprometido con ofrecer la mejor experiencia a sus lectores, ha forjado una alianza estratégica con The New York Times con el 30 % de descuento.
Este plan ofrece una experiencia informativa completa, combinando el mejor periodismo colombiano con la cobertura internacional de The New York Times. No pierda la oportunidad de acceder a todos estos beneficios y más. ¡Suscríbase aquí a El Espectador hoy y viva el periodismo desde una perspectiva global!
📧 📬 🌍 Si le interesa recibir un resumen semanal de las noticias y análisis de la sección Internacional de El Espectador, puede ingresar a nuestro portafolio de newsletters, buscar “No es el fin del mundo” e inscribirse a nuestro boletín. Si desea contactar al equipo, puede hacerlo escribiendo a mmedina@elespectador.com