Con estas palabras, poderosa llamada de atención que ojalá no quede en el aire, Larry Fink dio apertura al foro de Davos el 20 de enero de este año: “Desde la caída del Muro de Berlín, se ha creado más riqueza que en toda la historia humana anterior. Pero en las economías avanzadas, esa riqueza correspondía a una proporción mucho más reducida de personas que cualquier sociedad sana pueda sostener. Ahora la IA amenaza con repetir el mismo patrón. Las primeras ganancias llegan a los propietarios de modelos, datos e infraestructuras. La pregunta abierta es qué les pasa a los demás. Si la IA hace al trabajo de cuello blanco lo que la globalización hizo a la clase trabajadora, tenemos que afrontarlo directamente. No con abstracciones sobre ‘los empleos del mañana’, sino con un plan creíble para una amplia participación en las ganancias (…) Y ese tipo de cambio es difícil. Especialmente en un mundo de ideologías y suposiciones en competencia sobre cómo debería funcionar el sistema”.
Lo cierto es que el cambio en el mundo siempre ha sido permanente, pero también ha sido reiterada la ausencia en el debate de lo negativo que se esconde en cada innovación. Solo para hablar de un tema, el libre comercio fue acogido con entusiasmo mientras el comercio justo quedó arrinconado. Uno de los efectos, la enorme desigualdad y hechos contundentes como que una cuarta parte de la humanidad no tiene acceso a una dieta básica. Con la inclusión en la agenda de Davos del “despliegue responsable de tecnologías transformadoras como la IA generativa”, estimular la reflexión sobre los impactos de la inteligencia artificial resultará provechoso.
En la edición del 12 de diciembre El Espectador publicó lo siguiente: “Desde la presidencia de la Comisión Nacional de Disciplina Judicial, se compulsaron copias a la Comisión Seccional de Bogotá para que investigue disciplinariamente a la jueza 21 penal de Bogotá por presunto uso indebido de la inteligencia artificial para proferir condena en un caso por abuso sexual. La decisión ya fue anulada”.
El asunto, que tiene enormes complejidades, abre el campo para mayores y agudas profundizaciones en relación con los efectos que tiene la IA en los individuos, en la sociedad, en la economía, en la ley, en la ética, en la educación, en la creación artística y literaria y, por supuesto, en la filosofía. Aunque los desafíos que plantea han suscitado debates importantes desde hace varias décadas, entre nosotros parece prevalecer el deslumbramiento de una nueva moda. Al igual que con las teorías, nos dejamos seducir por la novedad sin medir las consecuencias.
Por supuesto la IA no ha escapado al escrutinio y la evaluación dentro de muchos sectores. La Sentencia T-323/24 de la Corte Constitucional sería suficiente para advertir las reacciones que su uso ha provocado. No obstante, lo que se observa a nivel general está más ligado a la herramienta como elemento para aumentar ganancias, para aumentar la productividad, para incrementar la eficiencia del recurso humano sin que se pongan sobre la mesa los efectos negativos que puedan generarse.
No obstante, el tema no es tan novedoso como se quiere presentar ahora. Cuando tenía 19 años, en 1967, escribí lo siguiente: “La posible utilización de máquinas electrónicas en el Derecho está creando grandes inquietudes dentro de los filósofos del Derecho, no tanto en lo que se refiere a la colección de material y planificación de medidas legislativas y administrativas, como en lo referente a la aplicación del Derecho. A este respecto se ha argumentado que constituye una violación de los derechos fundamentales del hombre, por cuanto una máquina está imposibilitada para procesar elementos irracionales y emotivos decisorios las más de las veces”*.
El punto que quisiera enfatizar es que, al volverse moda la herramienta —tal es mi percepción—, se dan por aceptadas sus ventajas y se descuida la identificación de sus vacíos y de los efectos negativos de su uso. En tal sentido, quizás resulte útil señalar lo que publicó Vonoroi el 24 de noviembre pasado con el sugestivo título de “Which AI Models Hallucinate the Most?”. La tasa de alucinaciones mide la frecuencia de respuestas incorrectas que deberían haberse negado o admitido como desconocidas por la herramienta. Ahora, la suma de aquellas alucinaciones e imprecisiones nos ayuda a dar cuenta de los problemas del sistema.
Entre los 17 modelos líderes analizados, el más preciso fue GPT-5 (high) con 0.39 y los que menos alucinaron fueron Claude 4.1 Opus y Claude 4.5 Sonnet, ambos con 0.48. Lo que esto revela es que la confianza generada por la herramienta en términos de acierto está por debajo del 40 %, y las respuestas incorrectas se sitúan en cerca del 50 % de los casos examinados. Por eso, no resultan extraños algunos resultados revelados por Voronoi según los cuales el 70 % de los proyectos en los que se utilizó la IA fallaron (no por efecto de la herramienta sino por el uso de malos modelos) y, tal vez lo más significativo, sólo en 2024 las pérdidas que se ocasionaron sumaron US$ 67.000 millones.
El avance de la IA es imparable. No obstante, no debe dejarse por fuera de consideración el hecho de que su alimento es lo que conocemos que incluye tanto aciertos y como desaciertos. Por eso, el desafío de hoy no es otro que el desarrollo de la Ignorancia Artificial, porque el conocimiento es finito, es todo con lo que contamos, pero la ignorancia es infinita y, mientras no la incorporemos, no podremos contar con nuevas soluciones. Ese es el gran reto.
* Fernando Barbosa (1970). “De la estructura lógica de las normas jurídicas”. ARED 1:1.