Publicidad

De la ética a la obligación: el desafío de regular la IA en Colombia

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Carolina Botero Cabrera
04 de agosto de 2025 - 05:04 a. m.
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Sin éxito el Congreso ha tramitado múltiples proyectos legislativos para regular la inteligencia artificial (IA). Para esta legislatura tiene varios, incluído uno nuevo del Ministerio de Ciencia, Tecnología e Innovación que dice inspirarse en el modelo europeo, pero se quedó a mitad de camino. En lo positivo, hace énfasis en la protección de los derechos humanos.

La inspiración en el modelo europeo consistió básicamente en copiar el enfoque de medición de riesgos como eje regulatorio. El texto es general, declarativo, delega en la reglamentación aspectos centrales como vigilancia, evaluación, sanción y ejecución. Y es que el modelo europeo es más, porque su modelo requiere autoridades especializadas, capacidades técnicas, instituciones fuertes, personal especializado y… mucho presupuesto, condiciones que Colombia no tiene, ni la ley desarrolla. ¡No garantiza ni presupuesto! Esta aproximación es cuestionable, lo vimos con la ley de protección de datos: copió aspectos del modelo europeo, la calificamos de ambiciosa y pronto quedó rezagada.

Dicho esto, en lo que me interesa destacar, puede fortalecerse más el marco de derechos humanos como garantía de cumplimiento de la regulación y para facilitar que el sistema judicial haga cumplir los estándares. Porque ahí tenemos experiencia: los jueces de Latinoamérica aplican principios de necesidad y proporcionalidad, y tienen una base normativa consolidada en derechos humanos.

El proyecto tiene ese giro en el enfoque regulatorio. Como en otros países, Colombia inició su discusión sobre IA desde una visión optimista, centrada en la innovación y el desarrollo del mercado. Se pensaba que bastaba con promover principios éticos para legitimar su desarrollo y despliegue. Sin embargo, los estándares internacionales -incluso los éticos- van hacia una perspectiva más exigente: el desarrollo de la IA debe estar subordinado al respeto por los derechos humanos. En la práctica, sin bienestar humano no hay mercado viable, y así lo ve este proyecto.

El cambio se materializa en el objeto de la ley que apunta a la “prevalencia de los derechos fundamentales, incluidos los del bloque de constitucionalidad”. Para ser congruentes, habría que ajustar el título de un desarrollo “ético, responsable, competitivo e innovador” por un desarrollo “respetuoso de los derechos humanos, responsable, competitivo e innovador”.

La protección debe ser integral. Aunque la preocupación principal sea la privacidad, la exposición de motivos también menciona la libertad de expresión, y reconoce que pueden afectarse derechos como salud, trabajo y educación. Por tanto, el artículo 3.9 debe ampliarse. Además Cada vez que se mencione la privacidad, debe incluirse la libertad de expresión y el artículo 4.E -sobre responsabilidad jurídica y ética- debería incorporar responsabilidad por violaciones graves a derechos humanos que puede incluir la reparación por parte del Estado y las empresas.

Sobre la supervisión humana, el proyecto exige que sea “adecuada”, pero sí, como dice el artículo 4.E, la IA puede generar responsabilidades administrativas, civiles, penales y éticas, la supervisión humana debe ser “sustancial y efectiva”.

La norma en forma declarativa resalta como principio rector la transparencia y confianza, pero dado el componente técnico del tema, supongo que los mecanismos para hacer esto efectivo se discutirán para la reglamentación. Aún asi, un paso inmediato que reforzaría este compromiso sería derogar el artículo del Plan Nacional de Desarrollo 2022–2026 que protege el secreto del algoritmo del SISBEN. La opacidad no puede ser la estrategia para prevenir el fraude. Debe incorporar también mecanismos de auditabilidad y rendición de cuentas.

El artículo 6, sobre evaluación del impacto potencial de sistemas de alto riesgo, es un enredo. Existen tres tipos de análisis para sistemas de IA: análisis de impacto (prospectivo), auditorias algorítmicas (durante) y evaluaciones de impacto (posterior). No está claro a qué se refieren acá, pero la ley debería incluir los tres. Pero empecemos por exigir un análisis prospectivo de impacto en derechos humanos. Este artículo además debe aplicarse expresamente también a los usos excepcionales de riesgo crítico y, para garantizar la participación efectiva de poblaciones tradicionalmente excluidas, se debería incluir la explicación y documentación de los mecanismos de participación utilizados.

En la exposición de motivos se abordan tensiones actuales en materia de derechos, pero estas no se traducen con claridad en el articulado. Por ejemplo, se reconoce que la imagen y la voz humanas deben entenderse como parte de los derechos personales -lejos de la protección de derecho de autor de Dinamarca-. Sin embargo, el tema se trata brevemente en el artículo 19, sobre derecho de autor.

El proyecto usa los verbos del ciclo de vida de la IA de forma indistinta, esto es problemático, hay que unificar y encajar cada disposición con la o las fases que corresponda a la medida regulatoria específica.

Tener disposiciones sobre usos prohibidos, detalles de gobernanza, derecho de autor, etcétera, también merecen atención, pero solo agregaré que necesitamos más discusión para una ley a la altura de los desafíos que plantea esta tecnología.

Conoce más

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.