Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Hace años gocé la lectura de varias historias de robots del prolífico escritor Isaac Asimov, compiladas en su libro Yo, robot, de 1950. En su momento fueron para mí simplemente unos divertidos cuentos de ciencia ficción; hoy pienso, al igual que Cal Newport, profesor de la Universidad de Georgetown, que tienen una gran relevancia debido al vertiginoso y descontrolado desarrollo de la inteligencia artificial (IA).
Los robots de las historias de Asimov están sometidos a unas reglas básicas de comportamiento: las tres leyes de la robótica. La primera establece que “un robot no puede dañar a un ser humano o por inacción permitir que un ser humano sufra daño”. La segunda señala que todo “robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entran en conflicto con la primera ley”. Y la tercera precisa que un “robot debe proteger su propia existencia hasta donde esta protección no entre en conflicto con la primera o segunda ley”.
Esas tres leyes buscan evitar que la humanidad sufra con los robots un destino semejante al del doctor Frankenstein, quien, como es conocido, creó una criatura que se salió de su control y terminó matando a sus más cercanos. Estas leyes nos alejarían de ese drama ya que lograrían que los robots se autoprotejan (pues son costosos) pero que siempre nos obedezcan y, ante todo, que nunca sean una amenaza para ningún ser humano. Además, para cualquier estudioso del derecho, el sistema normativo conformado por estas leyes es envidiable: el enunciado de cada una de ellas es claro y simple, y las tres leyes tienen entre ellas una jerarquía inequívoca que debería permitir superar en forma sencilla los posibles conflictos normativos entre sus mandatos. Sin embargo, los distintos relatos de Asimov muestran que esas leyes, tan simples y coherentes en abstracto, generan complejidades y contradicciones en situaciones concretas; y por eso los robots se confunden y entran en verdaderos dramas existenciales.
La doctora Susan Calvin, una especie de sicóloga de robots, rememora en el libro esos conflictos robóticos. Uno muy ilustrativo es el cuento “Círculo vicioso”: una estación espacial en el planeta Mercurio requiere selenio para seguir funcionando y que sobrevivan los dos técnicos que la ocupan. Como ellos no pueden buscar ellos mismos el selenio, debido a la toxicidad de la atmósfera mercuriana para los seres humanos, entonces mandan a Speedy, un robot de última generación, a que recupere el material en una mina a varias millas de distancia. Al acercarse a la mina, el robot constata que ésta podría dañarlo y, por ello, conforme a la tercera ley, se aleja de ella. Pero al mismo tiempo recuerda la orden que le fue dada y entonces, por mandato de la segunda ley, se devuelve a la mina; pero vuelve a alejarse debido a que el peso de esa tercera ley había sido reforzado en este robot por ser muy costoso, mientras que los técnicos no le habían enfatizado que la orden de traer el selenio tenía que ser cumplida a toda costa, por ser un asunto de vida o muerte. Speedy queda atrapado en un círculo vicioso, que lo enloquece… Dejo al lector el gusto de leer el resto del cuento, que tiene un final feliz, gracias a la creatividad humana.
Estas historias hoy nos interpelan: muestran que las máquinas basadas en la IA deberían estar sometidas a ciertos principios éticos, semejantes a las tres leyes de la robótica, si queremos potenciar sus beneficios y reducir sus riesgos. Asimov era optimista de que eso era posible, con una mezcla de reglas abstractas y ajustes humanos en situaciones concretas. Pero también estos relatos nos revelan que los riesgos son reales y la tarea es difícil, incluso si hubiera un interés de los Estados más poderosos por cooperar y lograr acuerdos y regulaciones en esa dirección. Lo realmente grave es que ese interés hoy no existe y la IA está siendo desarrollada en forma alocada y sin restricciones éticas.
* Investigador de Dejusticia y profesor de la Universidad Nacional.
