La inteligencia artificial (IA) se ha convertido en parte de la cotidianidad de los últimos años. Se puede decir con cierta seguridad que está moldeando cosas del presente, como guiando a estudiantes con sus tareas o muchos profesionales en sus decisiones diarias. Por eso, muchos países están evaluando cómo regularla para mitigar sus efectos negativos o imprevistos y potenciar sus beneficios.
Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO
¿Ya tienes una cuenta? Inicia sesión para continuar
En Colombia no hay una ley que regule la IA. Si bien su uso está enmarcado por leyes de protección de datos y otras salvaguardas para los derechos digitales, la utilización, por ejemplo, de un software de IA capaz de falsificar identidades o de traspasar los límites de la propiedad intelectual (como lo demostró la generación de imágenes con el estilo del Studio Ghibli por ChatGPT) sigue siendo, en gran medida, una zona gris.
Para abordar este vacío regulatorio, en el Congreso se han radicado más de 20 proyectos de ley (de los cuales solo 4 han sido aprobados en primer debate) en los últimos cinco años. De estos, 10 se han enfocado en su regulación directa. A estas iniciativas, se sumó hace poco, una nueva propuesta del Gobierno, a través de su Ministerio de Ciencias y de su Ministerio de Tecnologías de la Información, que contó con el apoyo de 30 congresistas y que busca, a grandes rasgos, “garantizar el desarrollo ético y responsable de la IA en Colombia”.
El documento propone una serie de medidas que busca prohibir ciertos sistemas de IA, proteger los derechos de los colombianos y las empresas e impulsar la innovación en el país. Todo esto basado en los lineamientos del reciente CONPES de IA, legislaciones de otros países, así como en principios éticos recomendados por la UNESCO y la OCDE.
“Se esperaba que el proyecto de ley del Gobierno fuera un unificador de todas las propuestas que hay en el Congreso, pero realmente se trata de algo completamente aparte”, opina Juan David Gutiérrez, doctor en Política Pública de la Universidad de Oxford, docente de la Universidad de Los Andes y quien en los últimos años se ha enfocado en investigar sobre la IA en el país,
Para Gutiérrez, si bien el proyecto tiene aspectos positivos, como la protección de los derechos de los ciudadanos (a la privacidad o a la protección ante eventuales riesgos como discriminación o que se vulneren derechos fundamentales), la propuesta parece tambalear desde la misma definición: en el proyecto se define a la IA como la “disciplina científica que tiene por objetivo simular procesos cognitivos comúnmente asociados con la inteligencia humana (como el aprendizaje, el razonamiento lógico, la resolución de problemas, la creatividad, entre otros). Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos”.
Es algo, indica Gutiérrez, “que quedó pésimamente delimitado en la propuesta, pues imaginemos que se tratara de un proyecto que busca regular la economía y se definiera como la disciplina de estudio de ciencias económicas. Es decir, no se están regulando claramente los productos de esa disciplina, ni queda claro qué entra o no. Eso es sumamente grave si el propósito, como lo hace el proyecto de ley, es establecer derechos o responsabilidades”.
¿Quién responde por lo que hace la IA?
En uno de los primeros capítulos del libro ‘Reglas para robots: regulación de la IA’, el abogado Jacob Turner propone la siguiente imagen para abordar los retos (que apenas inician) para controlar a través de leyes estas tecnologías. Empieza recordando la escena del libro Crimen y Castigo de Fiódor Dostoyevski, en el que Raskolnikov, el personaje principal, asesina a su vecina. “Nuestra reacción inmediata es emocional: ira, horror, asco. Y luego la razón se impone. Se ha cometido un delito. Debe imponerse un castigo. Ahora imagine que el autor del delito no es un ser humano, sino un robot. ¿Cambia su respuesta? ¿Y si la víctima es otro robot? ¿Cómo deberían reaccionar la sociedad y el sistema judicial?”, argumenta Turner.
Se trata de un asunto que le ha causado angustia a más de un legislador y, en el caso del proyecto de ley presentado por el Gobierno, se optó por seguir un modelo ya desarrollado. Como uno de sus principales objetivos, la propuesta legislativa crea una clasificación de sistemas de IA, según su riesgo, en un modelo inspirado en la Ley de Inteligencia Artificial de la Unión Europea (UE), como lo dice el mismo proyecto, que a la fecha sigue siendo ampliada y modificada. En el documento que está en trámite en el Congreso se establecen, tal como en Europa, diferentes niveles que van desde los sistemas prohibidos hasta aquellos con riesgo limitado.
El encargado de revisar en Colombia estos programas sería una nueva entidad: la Autoridad Reguladora de Inteligencia Artificial (ARIA), adscrita al Ministerio de Ciencias. Tendrá la responsabilidad de supervisar los programas, catalogarlos, e incluso emitir sugerencias para su despliegue en el país.
“Frente a sistemas de IA clasificados como prohibidos, y únicamente cuando representen un riesgo inaceptable para los derechos fundamentales, la seguridad, o el bienestar social, el Ministerio de Ciencias podrá recomendar u ordenar, directamente o a través de las autoridades competentes, la suspensión, bloqueo, desactivación o cese de su operación, con base en evaluación técnica debidamente sustentada”, se lee en el proyecto de ley.
Hay quienes tienen algunas dudas en torno a este punto. “Prohibir cualquier tecnología exige una capacidad institucional para vigilar, controlar y asumir responsabilidad sobre su implementación, algo que hoy en Colombia no existe”, explica José Daniel Sánchez, director de Blueway Consulting en Colombia, dedicada a la asesoría en derecho empresarial y de las tecnologías digitales e investigador de derecho de las tecnologías digitales de la Universidad Javeriana.
Además, investigadores como Sánchez y Gutiérrez, tienen otra inquietud: el proyecto de ley le otorga responsabilidades al Ministerio de Ciencias para regular la IA en Colombia, en medio de constantes quejas por la falta de gestión de la entidad y un presupuesto cada vez más reducido. Un ejemplo de esto, advierten, es la creación del Consejo Asesor Técnico de Inteligencia Artificial (CANIA), que está incluido en el proyecto de ley, pero ya había sido anunciado por Minciencias hace un año. Incluso se lanzó un borrador de resolución que recibió cientos de comentarios. No obstante, esta iniciativa no ha avanzado.
Al preguntarle al ministerio, este le respondió a El Espectador “inicialmente se propuso la creación del Consejo Asesor mediante resolución, pero con la formulación del CONPES 4144 y la presentación del Proyecto de Ley de Inteligencia Artificial, se definió estratégicamente su inclusión en la Ley para asegurar un respaldo normativo más robusto, con alcance intersectorial. Respondiendo a una visión de largo plazo para fortalecer su legitimidad y sostenibilidad dentro del Sistema Nacional de Ciencia, Tecnología e Innovación”.
En todo caso, frente al tema de las responsabilidades del diseño y uso de IA, Gutiérrez, de Los Andes, critica que la ley ponga en la misma bolsa tanto a desarrolladores de programas como al usuario final bajo la categoría de ‘Responsable de IA’. “Esperemos que sea una ligereza por parte del proyecto, pero es como si por un daño causado por una herramienta de inteligencia artificial, un usuario de ChatGPT fuera igual de responsable que OpenAI. Es más complejo que eso”, señala. Lo cierto es que, a partir de los parámetros actuales, el Estado podría establecer sanciones administrativas o financieras por daños realizados por sistemas de IA.
Además de esto, el documento propone una modificación al código penal “con el fin de incorporar disposiciones relativas a los impactos negativos y riesgos asociados al desarrollo, implementación o uso indebido de sistemas de IA”. Esto incluye la indemnización de víctimas o la imputación de delitos con agravantes.
“El reto está en que el daño derivado de la IA no siempre es fácil de rastrear, sobre todo cuando se trata de sistemas altamente complejos. Las ‘cajas negras’ de la IA —es decir, la dificultad para entender por qué los algoritmos toman ciertas decisiones— dificultan entender cómo un sistema llegó a una conclusión determinada, lo cual representa un desafío profundo para nuestro sistema legal, si queremos asignar responsabilidad de manera justa y efectiva”, indica Sánchez, de Blue Consulting.
La ley también busca establecer los derechos de los ciudadanos para la no discriminación algorítmica (es decir, evitar que programas que toman decisiones con sesgos que puede incrementar las desigualdades), la protección de datos personales y, entre otros, la participación informada, de acuerdo con principios internacionales.
“Una gran oportunidad perdida en este aspecto es que no se estableció cómo el Estado rendirá cuentas sobre su uso de la IA a través de decisiones automatizadas”, agrega Gutiérrez. En Colombia el sector público utiliza más de 200 herramientas de IA, en particular los sectores defensa, ambiente y justicia.
Facultades de IA e innovación
Una de las ideas que ha puesto sobre la mesa el Gobierno, en particular a través del Ministerio de las TIC, es la creación de facultades universitarias de Inteligencia Artificial. La primera fue inaugurada en 2024 en la Universidad de Caldas. El proyecto de ley busca promover la creación de este tipo de departamentos en las universidades del país, así como programas que aborden estas temáticas, entre otras, para mitigar el efecto en el mercado laboral, en particular a través de la “formación de talento humano altamente calificado, promover la investigación y el desarrollo científico”.
Camilo Rocha, decano de la Facultad de Ingeniería de la U. Javeriana de Cali, quien participó en foros previos a la construcción del proyecto, tiene sus reparos a la propuesta: “Yo veo difícil defender esta idea de facultades en este campo, pues la inteligencia artificial, que es un área de la computación, es transversal varios campos del conocimiento, ya que es utilizada tanto en la biología como en la medicina. Lo fundamental es que alguien, sin los fundamentos que ofrecen carreras como ingeniería o las matemáticas, pueda realmente aplicar la IA de manera efectiva, planificada y en la toma de decisiones”.
Para Rocha hay un fenómeno que se está dando en la educación superior y es darle el apellido de “IA” a diferentes programas para hacerlos más atractivos. “Tenemos que ser responsables con esto y lograr cosas atractivas, pero sin mitos en torno a estas tecnologías”, dice. Frente al impacto en el mercado laboral, el documento propone la implementación de programas de capacitación para empleados en la utilización de IA y medidas para armonizar con procesos automatización en los diferentes sectores de la economía. “Se implementarán programas de reconversión laboral para capacitar y reubicar a los trabajadores afectados por la IA”, indica el texto.
Pero para Sánchez, director de Blueway Consulting, algo que no menciona el proyecto, “es que desde el sector empresarial también se deben incentivar programas de transición laboral que permitan identificar roles que deben complementar su formación y otros que desaparecerán o cambiarán significativamente, requiriendo nuevas habilidades. La IA no eliminará todos los empleos, pero sí transformará la naturaleza del trabajo”.
Los retos de la sostenibilidad de la IA
Si bien Colombia no cuenta, aún, con grandes centros de procesamiento de datos o para el entrenamiento de la IA, el modo en que se usan estas tecnologías tiene su impacto ambiental. “Hace poco salió un estudio que decía que los colombianos eran de las personas más amables con la IA, que más saludaban o agradecían a través de comandos. Pero, creo que muchos no saben el impacto ambiental, por ejemplo, en cantidades de agua, que significan estas acciones para el planeta. Y en esto la educación y discusión sobre estas tecnologías pueden ser fundamental desde el uso de estas herramientas”, dice Rocha.
Para poner en perspectiva lo que menciona Rocha, según una investigación de la Universidad de California, un correo electrónico de 100 palabras generado por un chatbot de IA que utiliza GPT-4, requiere 519 mililitros de agua, un poco más de 1 botella.
En ese sentido, el proyecto de ley propone desarrollar programas de educación y capacitación en IA que incluyan aspectos técnicos y éticos, que buscan preparar a la actual y futura fuerza laboral para los cambios tecnológicos. Aun así, para algunos investigadores, la apuesta por la sostenibilidad no quedó claramente delineada en el proyecto, lo que podría ser fundamental a medida que se implementan centros de datos en el país, como el acordado entre Ecopetrol y los Emiratos Árabes y que se construirá en Santa Marta.
Con todos estos elementos, el proyecto de ley tiene tiempos apretados, pues, a menos de dos meses del fin de la actual legislatura, este tendrá que ser debatido al menos una vez para que no sea archivado automáticamente.
👩🔬📄 ¿Quieres conocer las últimas noticias sobre ciencia? Te invitamos a verlas en El Espectador. 🧪🧬