Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La versión final del CONPES 4144, “Política Nacional de Inteligencia Artificial” (IA), sí destacó aspectos relacionados con los derechos humanos (DD. HH.) en el contexto del desarrollo y uso de la IA en Colombia. Sin embargo, desde esa óptica su apuesta es débil. Su mirada privilegia la habilitación del mercado presumiendo que cualquier desarrollo y uso de la IA es legítimo y amarra el cumplimiento de los estándares de DD. HH. a los marcos éticos de una industria en desarrollo. En la implementación se puede elevar la apuesta.
En línea con la Recomendación del Consejo de la OCDE sobre IA, adoptada por Colombia en 2019, el Conpes empieza reconociendo la centralidad de los DD. HH. y de los valores democráticos para el desarrollo y uso de la IA; continúa exigiendo transparencia y explicabilidad para que las decisiones tomadas por la IA sean comprensibles para las personas; sigue resaltando la importancia de desarrollar sistemas de IA robustos y seguros, minimizando riesgos y evitando daños a las personas; habla de responsabilidad en el cumplimiento de principios éticos para desarrolladores y personas usuarias en relación con el diseño, implementación y uso de estas tecnologías. Finalmente, señala que la IA debe contribuir al crecimiento inclusivo y sostenible, evitando la perpetuación de desigualdades existentes y promoviendo oportunidades equitativas.
La Recomendación sobre la Ética de la IA desarrollada por Unesco, adoptada en Colombia en 2022, aporta su visión de la ética de la IA como un marco normativo dinámico y global que orienta su uso responsable, basándose en la dignidad humana, el bienestar y la prevención de daños.
Cómo no estar de acuerdo con estos planteamientos. Sin embargo, su punto de partida no son las obligaciones de los Estados con los DD. HH. Está más cerca de premisas start up como “más vale pedir perdón que pedir permiso”, que se aproximan a los DD. HH. más como obstáculos que como herramienta para evitar desastres.
Replanteemos la idea de que la ética es la que asegurará que la IA respete los DD. HH. y contribuya al bienestar social, aboguemos porque los DD. HH. son los que garantizarán que el desarrollo y el uso de la IA sean éticos, ¿Que pasa si la implementación se compromete con principios como el de precaución o acción sin daño, que no se conforme con que los consideren?
Frente a una evolución acelerada de la IA corresponde elevar la apuesta en la implementación del Conpes porque las obligaciones de DD. HH. son mandatos para los Estados.
Dejo tres ideas:
- Dar alcance al concepto de responsabilidad en el cumplimiento de principios éticos para exigir, en línea con las normas de derecho internacional, la reflexión y acción frente a la legalidad del uso. Hay usos que no solo son demasiado riesgosos para los derechos de las personas -tanto que hay que regularlos restrictivamente, incluso prohibirlos-, sino que mientras no exista la ley no pueden desplegarse. Me explico, el reconocimiento facial como tecnología tiene usos no regulados en específico -como cuando sirven para autenticarnos en una plataforma que lo que debe es cumplir la ley, incluyendo la de protección de datos-, pero hay otros usos que por su alcance y afectación a derechos requieren de una ley especial -como los mecanismos de identificación biométrica masiva a través de IA usados por la fuerza pública, llegando incluso a ser prohibidos por no cumplir estándares-.
- Reconfigurar y reinterpretar conceptos como “robustez y seguridad”, para verlos a través de estándares de DD. HH. bien desarrollados y obligatorios como los de “necesidad y proporcionalidad”.
- Mapear y exigir mecanismos de transparencia y explicabilidad, incluyendo herramientas de rendición de cuentas para el desarrollo y uso de la IA en línea con las obligaciones de DDHH. El mapeamiento revelaría las exigencias mínimas para la industria que desarrolle IA y para quienes la implementen en servicios a las personas. Una forma de materializar esto es con obligaciones de reparar cuando se produzcan graves violaciones a los DDHH.
Esto puede materializarse si la regla para el desarrollo y uso de la IA en Colombia consiste en exigir análisis de impacto en DD. HH. Así industria y usuarios verían cómo se aterriza en casos concretos la perspectiva de DD. HH. -incluyendo las tres ideas descritas-, mientras se insertan las preocupaciones de sectores académicos y de la sociedad civil. Les propongo que leamos y apliquemos el tan generalizado lenguaje de la ética en IA desde las obligaciones internacionales de los DD. HH.
Nota. Sobre temas de propiedad intelectual, quedó un vacío advertido: el Conpes se concentra legítimamente en proteger los intereses de las personas titulares, pero olvida proteger a la sociedad en general, no plantea la ruta para incorporar las excepciones necesarias como la de la minería de textos y datos que garantice que se puedan usar métodos de investigación de IA para desarrollar los derechos a la salud, la ciencia y la educación.
