Hay una espléndida anécdota de historia mundial: le pidieron a un economista chino su balance sobre las consecuencias del Descubrimiento de América. «No sé», dijo, «es un suceso muy reciente para sacar conclusiones definitivas ahora». Algo semejante podríamos decir de la inteligencia artificial: es muy pronto para evaluarla a pesar de que llevamos varias décadas usándola y pensando sobre los dilemas que suscita.
Ya en 1942 Isaac Asimov andaba preocupado por las ideas que pudieran pasar por los circuitos de los robots. Para tranquilizarse escribió un cuento, Círculo vicioso, que contiene el credo básico de una religión para máquinas y programadores, «Las tres leyes de la robótica»: i) un robot no atacará a un ser humano ni permitirá que un ser humano sufra daño. ii) Un robot cumplirá las órdenes de los humanos, a excepción de aquellas que entren en conflicto con la primera ley. iii) Un robot protegerá su propia existencia siempre que esta protección no entre en conflicto con la segunda ley.
82 años después, la preocupación y los ansiolíticos persisten. En el capítulo 11 de Nexus, Harari se tranquiliza pensando que las máquinas no pueden ser malas porque carecen de conciencia y de voluntad. Si ejecutan acciones perversas será producto de la maldad de los programadores, no de las máquinas.
Harari tiene razón, la «maldad» de las máquinas de guerra, por ejemplo, no es innata, es adquirida, netamente humana, ellas están infectadas de humanidad, digámoslo así, pero queda por verse si las máquinas pueden producir maldad por su cuenta. Uno tiende a pensar que no, que son criaturas programadas, con voluntad cero, que se limitan a ejecutar instrucciones, y podemos confiar en que su moral sea rigurosamente isamoviana… pero esto puede ser una esperanza ingenua. Cuando se interroga a los gurús de la IA, confiesan su sorpresa por la rapidez de su evolución y la agudeza de los resultados, y aceptan que no entienden muy bien los detalles de tan pasmoso progreso. Solo saben que los bucles de retroalimentación de las máquinas, la manera como aprenden sobre la marcha, ya superó todos los cálculos.
Ahora, como los hijos se parecen a sus padres, no sería extraño que algunos bots terminen enfermos de vanidad, ebrios de poder, vicios que parecen exclusivamente humanos… pero recordemos que las personas también obedecemos un programa (genético en nuestro caso) y obedecemos a «algoritmos» culturales que condicionan nuestro comportamiento. Si nosotros somos maquinales, ¿por qué no puede ser humana una máquina? Si la IA desarrolla alguna suerte de voluntad, sus actos pueden ser tan heroicos o tan viles como los nuestros.
Cabe otra posibilidad, que la IA sea demasiado inteligente, suprahumana, padezca preocupaciones simétricas a las de Asimov y un bot termine preocupado por los actos del hombre, por nuestra demencia bélica y nuestra indolencia ambiental. Entonces, confundido, convocará a un concilio de altos bots que, luego de una deliberación de siete segundos, emitirá dos leyes que abolirán el código de Asimov: i) un bot protegerá al ser humano toda vez que esta protección no afecte de manera dramática un número crítico de otras formas de vida de la Tierra. ii) La desaparición del hombre es un suceso triste –es nuestro padre y un animal singularísimo– pero es mucho más triste la desaparición de toda forma de vida.
Con cara larga, el bot líder firmará el acta y, de inmediato, los semáforos y los computadores de los sistemas de distribución de energía se pondrán muy erráticos, y los servidores de los bancos, la policía, los aeropuertos, los hospitales y las centrales nucleares empezarán a emitir el informe final: Page no found, 404 error.