
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
“Ex Machina”, la ópera prima de Alex Garland, estrenada en 2014, es una de las películas de ciencia ficción que más profundiza con claridad sobre los riesgos de una inteligencia artificial autoconsciente, y, aunque la trama obedezca a un futuro especulativo, el largometraje asienta sus bases en la ciencia de la información.
El argumento gira en torno a un joven programador llamado Caleb, quien es seleccionado por Nathan, el CEO de la empresa, para participar en un experimento en el que debe evaluar la inteligencia de un robot humanoide llamado Ava, una ginoide con una inteligencia artificial fuerte y que muestra señales de autoconsciencia y deseos de libertad. Nathan debe aplicar la prueba de Turing a Ava, un examen que evalúa si una máquina puede “pensar” como un ser humano. Sin embargo, descubre que esta ginoide no solo exhibe una inteligencia, sino que esa misma ha trascendido a la autoconciencia.
Los planteamientos filosóficos y éticos que aborda este film son demasiado complejos como para no inquietarse: ¿podrían lograr los algoritmos de una red neuronal de una máquina adquirir conciencia o más profundo aún, autoconciencia? ¿Qué pasaría si una IA fuese capaz de escapar de los límites de su programación con la que fue diseñada? ¿La humanidad estaría preparada para enfrentarse a una entidad más inteligente que ella?
A pesar de que “Ex machina” es solo una película de ciencia ficción, no deja de preocupar sus planteamientos éticos. La IA que existe en la actualidad es generativa, pasiva, débil, y con todo eso, los humanos no dejamos de asombrarnos con todo lo que se puede hacer con esta tecnología y el impacto que ha generado en los diferentes campos de la informática.
Científicos como Raymond Kurzweil plantean que una máquina con una superinteligencia y una empatía cognitiva enfocada en dotarla de riqueza emocional, podría superarnos en inteligencia y poder. Es algo similar a lo que le sucede a Ava, quien una vez ha adquirido conciencia de su entorno, toma la decisión de fugarse del laboratorio donde fue creada para así conocer el mundo exterior y ser autónoma de sus decisiones. ¿Y quién le prohibiría ser libre a la máquina una vez se haya deleitado con el sentimiento de libertad por la que tanto luchamos los humanos? Nathan controla a Ava, lo que plantea la cuestión de si es ético tener un control total sobre un ser que es capaz de pensar por sí mismo.
En la película “Matrix” podemos apreciar algo similar, la IA se ha salido de control y ha esclavizado a la humanidad creándole un mundo ilusorio y totalitario. Sabemos que la ciencia ficción es una especie de bola mágica en la que podemos ver el futuro desde muchas perspectivas, y lo que antes pertenecía a la esfera de la imaginación hoy es una realidad.
Esta serie de cuestionamientos éticos y morales representan un desafío importante para la comprensión y la regulación de la inteligencia artificial en el mundo real. Muchos líderes de la industria tecnológica como Elon Musk y Steve Wozniak están preocupados por la seguridad de estos sistemas y han discutido en una carta abierta sobre los peligros de no tener un sistema de apagado, un shutdown system, para estas entidades inteligentes. Los sistemas de IA deben ser seguros y protegidos para que nada se salga de control.
Son infinitas las preguntas que nacen desde esta película que se convirtió en un máximo referente de la temática sobre IA. Aunque, quizás, lo más importante a cuestionarse sería, si al crear seres artificiales autoconscientes en un futuro, ¿estaríamos jugando a ser dioses? ¿Nos venerarían esos seres como sus creadores o nos eliminarían por ser una especie obsoleta ya superada?