Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Apoyado en una investigación de The New York Times, según la cual el sistema del Departamento de Guerra escogió ese objetivo con información desactualizada y sin suficiente verificación humana, El Espectador afirma en su editorial del 21 de abril (“La inteligencia artificial, peligrosa y sin regulación”) que el gobierno de EE. UU. mató por error a 150 niñas en una escuela al sur de Irán durante un bombardeo. Sin embargo, la casa editorial nacional se equivoca al dejar entrever que ese ha sido el único error de esa guerra por falta de verificación humana.
Solo menciono dos más: por “selección errónea de objetivos señuelo”, se reportó que el ejército estadounidense atacó siluetas de aviones F-14 iraníes pintadas en el suelo, “desperdiciando” municiones de alta precisión en “dibujos” debido a fallos en la interpretación de imágenes por la IA. Y, por “ataques a infraestructuras civiles”, debido a la rápida generación de objetivos por IA —más de 1.000 en 48 horas—, ha aumentado el riesgo de “daños colaterales”, provocando la muerte de civiles y daños a infraestructura no militar, según fuentes también del diario neoyorquino.
Por eso, EE. UU. está de acuerdo con la desregulación de la IA y permite su “uso en la guerra, incluso al relajar controles que potencialmente prevendrían impactos negativos en la salud mental de sus usuarios; además, esa desregulación puede entenderse en el marco de una carrera con China por alcanzar una IA capaz de superar a la inteligencia humana”.
Al presidente Trump le importa un bledo toda la regulación alcanzada por Europa, que asume la posición tranquila del medio. Europa reconoce los inmensos potenciales que tiene la IA, pero también sus riesgos. Según palabras del comisario europeo para el Mercado Interior, la ley “está regulando lo menos posible, pero todo lo necesario”. Busca garantizar el progreso de la investigación y el desarrollo en IA, pero es cuidadosa. Pese a eso, muchos no quedaron satisfechos con la ley europea: algunos creen que limita innecesariamente el desarrollo de la IA “y otros, que las disposiciones son insuficientes, fáciles de burlar y, por su ambigüedad o tibieza, poco efectivas”.
Es claro que estoy de acuerdo con El Espectador cuando plantea que “China y Estados Unidos deberían concertar un acuerdo de reglamentación de la IA. Sin embargo, la promesa de lucro y de poder tras la carrera de la IA parece disuadir a los involucrados de ir en esa dirección”. Por eso, el futuro es bastante oscuro e inimaginable, pues delegar decisiones de vida o muerte a algoritmos en un escenario de guerra —de por sí, todas las guerras son peligrosas— la convierte en algo aún más peligroso debido a la desregulación global de esta tecnología, lo que ha generado, con toda razón, un intenso debate sobre la responsabilidad ética de los gobiernos que la utilizan de manera indebida.
Dairo Elías González Quiroz
Envíe sus cartas a lector@elespectador.com
