
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En respuesta al editorial del 21 de abril de 2026, titulado “La inteligencia artificial, peligrosa y sin regulación”.
El editorial de El Espectador sobre inteligencia artificial tiene la virtud de reunir hechos verificables sobre uno de los debates más urgentes del momento. Tiene el defecto de procesarlos con un marco que los simplifica hasta hacerlos irreconocibles. El resultado es un texto que produce indignación legítima sobre problemas reales, pero no avanza un centímetro en la comprensión de ninguno de ellos.
El argumento central del editorial es que la ausencia de regulación explica los males que describe. Esta premisa no resiste el examen de sus propios ejemplos. Claude fue usada en el operativo sobre Venezuela bajo contrato, con términos de uso explícitos, por una empresa que se define como pionera en seguridad de IA. La regulación privada existía. Fue ignorada o burlada por el Estado. Esto no prueba que la regulación falle por ser insuficiente; prueba que el problema es de otra naturaleza, a saber, la relación entre el poder estatal y los límites que puede imponerse a sus propias herramientas en tiempos de guerra. Agregar capas regulatorias a un sistema en el que el principal actor armado se aplica a sí mismo sus propias normas no cambia la ecuación fundamental.
El bombardeo de Minab el 28 de febrero ilustra el mismo punto con mayor crueldad. Lo que las investigaciones establecen no es que un sistema de inteligencia artificial eligiera autónomamente una escuela como blanco, sino que oficiales del comando de Estados Unidos crearon coordenadas de ataque usando información desactualizada, en un proceso de fijación de objetivos acelerado sin verificación suficiente. El editorial atribuye agencia a la máquina donde debería exigir responsabilidad a la cadena de mando. Este desplazamiento no es inocente. Hace más fácil regular el software y más difícil juzgar a los generales.
El editorial presenta a Anthropic como víctima del militarismo, castigada por su ética. Esta lectura oculta que la empresa firmó en julio de 2025 un contrato de doscientos millones de dólares con el Pentágono; que sus modelos fueron los primeros autorizados para operar en plataformas clasificadas del Departamento de Defensa; y que su propio CEO declaró que la compañía nunca objeta operaciones militares específicas. El conflicto posterior no fue entre una empresa pacifista y un Estado militarista; fue una disputa contractual sobre los límites del uso de la tecnología dentro de una relación de proveedor militar que Anthropic construyó deliberadamente. Lo que agudizó esa disputa no fue solo la presión del Pentágono, sino la evolución de la propia tecnología, teniendo en cuenta que, en febrero de 2026, Anthropic lanzó modelos con capacidad para coordinar equipos de agentes autónomos en paralelo, capacidades que volvían sus restricciones contractuales progresivamente más difíciles de sostener, porque la línea entre análisis de inteligencia y fijación de objetivos automatizada se adelgazaba con cada iteración. La diferencia con OpenAI no es moral, sino de posición negociadora, y el editorial no tiene interés en verla, porque el esquema víctima-victimario que sostiene el texto no admite gradaciones.
Sebastian Mallaby es citado como respaldo para la tesis regulatoria. Su argumento real es el inverso. Después de visitar China, Mallaby concluyó que los controles de exportación de chips no funcionan y propuso eliminarlos a cambio de un acuerdo diplomático tipo no proliferación nuclear. Su posición es que la regulación unilateral es impotente y que se requiere una arquitectura de gobernanza completamente distinta. Usar esta conclusión como evidencia de que necesitamos más regulación invierte el argumento de la fuente.
Lo que el marco del editorial no puede ver es que el problema central no es técnico, sino político. Los Estados con capacidad militar usan las herramientas disponibles con o sin restricciones corporativas. La pregunta que los hechos descritos plantean no es qué dice el contrato de Anthropic, sino quién responde cuando una decisión humana, acelerada por un sistema de apuntamiento de inteligencia artificial, mata a ciento cincuenta y seis personas en una escuela primaria. Esa es una pregunta sobre rendición de cuentas democrática, control civil de los militares y arquitectura de la guerra. No tiene respuesta en los términos de servicio de ninguna empresa de Silicon Valley.