Publicidad

Terminator para distraer del peligro inmediato

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Santiago Villa
20 de marzo de 2026 - 05:00 a. m.
“Parecen haber empleado IA, quizás también Claude, en el proceso de definir los objetivos para su bombardeo de Irán”: Santiago Villa
“Parecen haber empleado IA, quizás también Claude, en el proceso de definir los objetivos para su bombardeo de Irán”: Santiago Villa
Foto: EFE - Angel Colmenares
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Menos de una semana después de que se publicara mi última columna, en la que decía que Anthropic no estaba aprovechando una mayor atención sobre su producto para premiar a los usuarios, Claude anunció que durante las próximas dos semanas doblará los límites de uso para todos los usuarios, los que tienen y no tienen suscripción. Pone de relieve que Anthropic sí piensa aprovechar la visibilidad alcanzada por entrar en conflicto con el líder de las fuerzas militares más poderosas en la historia de la humanidad.

La compañía tiene mucha suerte de haber marcado su distancia con el Departamento de Defensa cuando lo hizo. Un misil estadounidense voló una escuela primaria de niñas en Minab, Irán, matando a unas 150 e hiriendo a unas 100, el día después que Dario Amodei, director ejecutivo de Anthropic, dijo que no haría excepciones para el Pentágono sobre las limitaciones para el uso de su tecnología. Anthropic comenzó a hacer preguntas sobre el uso de su modelo grande de lenguaje (LLM), Claude, en la operación para capturar a Nicolás Maduro. Los militares estadounidenses aparentemente usaron Claude durante el proceso para ubicarlo. Pero también parecen haber empleado IA, quizás también Claude, en el proceso de definir los objetivos para su bombardeo de Irán.

La información sobre el colegio de niñas estaba desactualizada y, por lo que parecen haber determinado fuentes periodísticas como The New York Times, el sistema habría arrojado un objetivo y no hubo suficiente confirmación por parte de humanos.

Uno de los grandes horrores desencadenados por el uso de la IA en el ámbito militar, entonces, no es un escenario de ciencia ficción en el que esta se tome los sistemas y nos aniquile como especie; sino uno mucho más mundano, que nos haga cómodos y nos exponga a cometer errores criminales por confiar en ella.

Los LLMs son una tecnología peligrosa y difícil de usar adecuadamente. No solo tientan a las instituciones y empresas a reducir sus capacidades humanas, que son más costosas y “fastidiosas” (en el caso de Estados Unidos querían deshacerse de los filtros legales para sus operaciones), sino que facilitan la deshonestidad intelectual, y potencialmente propagan la desinformación y afectan la salud mental de sus usuarios.

Un aparato físico con tantos peligros potenciales exigiría una licencia para emplearlo o al menos vendría con visibles advertencias. En este caso, no.

A menudo creo que los grandes ejecutivos de las compañías de IA hablan sobre los peligros potenciales de su tecnología en términos de ciencia ficción —que se vuelvan conscientes y eliminen a la especie humana, por ejemplo—, para distraer de los peligros más inmediatos que exigen una regulación inmediata.

Karen Hao, autora de El imperio de la IA, advierte que los LLMs son como los cohetes de la IA. No es la única IA disponible, sino que son la más exageradamente poderosa. ¿Cómo es que al usuario promedio se le sugiere andar en cohete, en lugar de diseñar bicicletas para ellos? Hay posibilidades de IAs más específicas y enfocadas, pero la industria está obsesionada con escalar la tecnología hasta su máximo potencial.

No temo que eso nos lleve a una realidad de Terminator, sino que deje a su paso una cadena de consecuencias que trae la irresponsabilidad, la negligencia y el deseo de buscar atajos allí donde antes la seguridad la proporcionaba la verificación humana.

Threads: @santiagovillach

Conoce más

 

Sin comentarios aún. Suscríbete e inicia la conversación
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.