
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
El presidente Donald Trump ordenó a las agencias del gobierno estadounidense que dejaran de usar los productos de Anthropic PBC, culminando una disputa entre el gigante de la inteligencia artificial y el Pentágono sobre las salvaguardas de su tecnología.
A las pocas horas del anuncio, el director ejecutivo de OpenAI, Sam Altman, anunció un acuerdo con el Pentágono para usar sus modelos en la red clasificada de la agencia de defensa, utilizando “salvaguardias técnicas”.
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva a nivel nacional y la responsabilidad humana en del uso de la fuerza, incluidos los sistemas de armas autónomas”, escribió Altman en su red social X.
“También implementaremos garantías técnicas para asegurarnos de que nuestros modelos se comporten como deben, algo que también deseaba el Departamento de Guerra”, prosiguió el director de OpenAI, creador de ChatGPT.
El anuncio se produce después de que la startup de IA rival Anthropic desatara la indignación de la administración Trump esta semana por insistir en incluir salvaguardias similares en su propio acuerdo con el Pentágono.
A fondo: Empezó la guerra por la ética de la IA: Trump ordena expulsar a Anthropic del Gobierno
La empresa pondrá ingenieros a disposición del Pentágono para garantizar la seguridad de los modelos de IA que se desplegarán “únicamente en redes en la nube”.
Altman dijo que pidió al Pentágono “ofrecer estas mismas condiciones a todas las empresas de IA”.
“Hemos expresado nuestro firme deseo de que las cosas se calmen, lejos de acciones jurídicas y gubernamentales, para llegar a acuerdos razonables”, escribió.
Las dudas sobre OpenAI
Más allá del mensaje en X, el acuerdo entre OpenAI y el Pentágono va un paso más allá y permite que los modelos de inteligencia artificial de la empresa puedan utilizarse para cualquier “fin legal”.
Este término fue el que rompió la colaboración con Anthropic, pues la empresa argumentaba que la inclusión de esa frase prácticamente le daba carta blanca al Pentágono para el uso de su tecnología en dos frentes críticos: la vigilancia masiva de ciudadanos estadounidenses y el uso de armas con IA que no tuvieran supervisión humana.
El Pentágono asegura que actúa dentro de la ley y que sus contratistas no pueden imponer condiciones sobre cómo se usarán sus productos.
Anthropic declaró más adelante en un extenso comunicado que buscaría revertir la prohibición.
“Impugnaremos en los tribunales cualquier designación como riesgo para la cadena de suministro”, dijo la startup con sede en San Francisco.
“Esperamos que nuestros líderes dejen de lado sus diferencias (...), rechazando las exigencias actuales del Departamento de Guerra de obtener permiso para usar nuestros modelos en la vigilancia masiva dentro del país y para matar personas de forma autónoma, sin supervisión humana”, continuó la empresa.
El secretario de Defensa de Estados Unidos, Pete Hegseth, acusó a la empresa de “arrogancia y traición”.
“Anthropic dio una clase magistral de arrogancia y traición, así como un caso de manual sobre cómo no hacer negocios con el gobierno de Estados Unidos o el Pentágono”, escribió Hegseth en su cuenta en X.
💰📈💱 ¿Ya se enteró de las últimas noticias económicas? Lo invitamos a verlas en El Espectador.