Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En la captura de Nicolás Maduro, aún no es de conocimiento público exactamente cuál fue el papel que jugó Claude, el modelo de lenguaje grande diseñado por la compañía Anthropic. Se usó en el marco de un acuerdo que Anthropic tiene con Palantir, una compañía de integración y análisis de datos masivos para gobiernos y militares creada por Peter Thiel, el gran financiador del vicepresidente de ultraderecha de Estados Unidos, J. D. Vance.
Es decir, Palantir apoyó la Operación Resolución Absoluta del Pentágono, y durante ella se usó el modelo Claude, porque hay un acuerdo de uso entre Palantir y Anthropic. Sin embargo, Anthropic, que se precia de darle una mayor prioridad a la ética que sus más directos competidores —al punto que diseñó una Constitución que rige su proceso de entrenamiento—, ha establecido unas limitaciones en las políticas de uso de su tecnología: no se puede emplear para facilitar violencia, desarrollar armas y realizar vigilancia sin consentimiento.
En el caso de la operación, aparentemente Claude se usó durante operaciones de fijar objetivos para el bombardeo y ubicar a Maduro.
Dado que no es Anthropic la compañía que apoyó al Pentágono en la operación, sino Palantir usando Claude, cuando surgieron preguntas sobre cómo usaron a Claude, altos ejecutivos de Anthropic llamaron a altos ejecutivos de Palantir. Presuntamente querían cersiorarse de que no se hubieran violado las condiciones de uso.
Aunque públicamente Anthropic dice que no encontró violaciones, las preguntas que hizo la compañía han desatado una tormenta.
El secretario de Defensa, Pete Hegseth, ha dicho que todo el uso de Claude fue legítimo, y que, si no puede contar con Anthropic para apoyar a sus militares en ganar guerras, la compañía será dúramente castigada. “Déjanos usar a tu Terminator o te terminamos”, es básicamente lo que dice Hegseth.
Normalmente son los gobiernos y estados los que, con reglamentaciones y regulaciones, les dicen a las compañías privadas cuáles son las líneas rojas que no deben cruzar. Pero en nuestro distópico presente, es un director ejecutivo de San Francisco el que está peleando con el gobierno para que éste respete las reglamentaciones de la empresa. Y esto con una de las tecnologías más volátiles y misteriosas de nuestros tiempos, en el campo más letal y con las fuerzas armadas más poderosas del planeta.
¿Pero qué le puede hacer el Departamento de Defensa a Anthropic? En primer lugar, cancelarle contratos. Hay uno de 200 millones de dólares en la cuerda floja —este no es el mismo que hay con Palantir y que dio origen a la controversia—. En 2025, el Pentágono hizo contratos de hasta 200 millones con cuatro grandes de la IA estadounidense, Anthropic, Google, OpenAI y xAI, para mejorar las capacidades de las redes del Pentágono. Anthropic fue la compañía cuyos productos los militares consideraron más avanzados y seguros para sus usos.
Hegseth ahora dice que no sólo cancelará el contrato, sino que, si Anthropic no desiste de ponerle condiciones al Pentágono para los usos que él califica de legítimos, y recordemos que para Hegseth todo lo que él hace, incluyendo bombardear botes en altamar y realizar ejecuciones extrajudiciales, es legítimo, la calificará como una compañía que tiene “riesgos en su cadena de suministros”, lo que dificultaría que pudiera contratar con el gobierno de los Estados Unidos. Finalmente, Hegseth podría invocar la Ley de Producción de Defensa para obligar a Anthropic a modificar su producto a cualquier necesidad que tenga el Pentágono.
El miércoles hubo una reunión entre Dario Amodei, director ejecutivo de Anthropic, y Hegseth. Aparentemente fue cordial, pero la amenaza se mantiene. Anthropic tiene hasta el viernes a las 5pm para desistir de darle limitaciones al Pentágono para el uso de su tecnología.
Threads: @santiagovillach
