La última advertencia de Stephen Hawking

El Espectador
15 de marzo de 2018 - 04:15 a. m.
Una inteligencia artificial superinteligente será extremadamente buena en conseguir sus objetivos, y si esos objetivos no se encuentran alineados con los nuestros, estaremos en problemas. / AFP
Una inteligencia artificial superinteligente será extremadamente buena en conseguir sus objetivos, y si esos objetivos no se encuentran alineados con los nuestros, estaremos en problemas. / AFP

El miércoles falleció el célebre científico británico Stephen Hawking. Con ello, culmina una historia extraordinaria no sólo de fortaleza humana, sino de una inteligencia aguda que nos ayudó a construir buena parte del entendimiento que tenemos del universo. Por eso, haría bien la humanidad en no ignorar la última gran advertencia de esta mente aguda: el peligro que representa la inteligencia artificial para la subsistencia de nuestra especie.

En una entrevista con The Guardian en 2011, Hawking dijo: “He vivido con la perspectiva de una muerte prematura durante los últimos 49 años. No tengo miedo de la muerte, pero no tengo prisa de morir. Hay tanto que quiero hacer primero...”. Se refería a la esclerosis lateral amiotrófica (ELA) que sufría y que le paralizó el cuerpo, disminuyendo su expectativa de vida. Pero, además de desafiar los pronósticos médicos, Hawking utilizó sus 76 años de vida para intervenir en los debates más importantes de la ciencia. Sus últimos años se concentraron particularmente en la inteligencia artificial.

Principalmente, la preocupación de Hawking es que si el desarrollo de esta tecnología no se hacía con estrictos y claros principios éticos, los resultados podrían ser catastróficos.

Lo explicó de manera contundente en una respuesta que dio en Reddit en 2016: “El verdadero riesgo de la inteligencia artificial (IA) no es la mala fe, sino la competencia. Una IA superinteligente será extremadamente buena en conseguir sus objetivos, y si esos objetivos no se encuentran alineados con los nuestros, estaremos en problemas. Usted probablemente no es un genocida de hormigas que las pisa con mala fe, pero si está a cargo de un proyecto de energía sostenible hidroeléctrica y hay un hormiguero en la zona que necesita inundar, pues esa es una mala noticia para las hormigas. No pongamos a la humanidad en la posición de esas hormigas”.

Como ese, son múltiples los retos que representa el desarrollo de IA: cuando lleguemos al punto no tan lejano en que esa inteligencia empiece a pensar sobre eficiencia de recursos, los humanos podemos salir muy mal parados en la ecuación. ¿De verdad queremos llegar a ese punto?

Por supuesto, la respuesta no es mermar el progreso. Lo que Hawking y muchos científicos han propuesto es que, así como se están invirtiendo incontables recursos en la carrera por desarrollar la IA, todos los involucrados estén comprometidos con pautas claras que delimiten éticamente el alcance de los avances, que no se hable de inteligencia artificial sin incluir un componente ético, humano, incluso.

Eso no está ocurriendo. Peor aún, quienes lideran la carrera por la IA son entidades privadas que sólo están pensando en probar que pueden hacerlo, no si deben, ni cómo lograrlo sin causar daños irreparables. ¿La humanidad desaparecerá por la arrogancia de sólo pensar en el progreso sin ninguna otra consideración?

Hawking dedicó sus últimos años a advertirnos sobre esto. Es hora de que la sociedad adopte el liderazgo en este debate.

¿Está en desacuerdo con este editorial? Envíe su antieditorial de 500 palabras a yosoyespectador@gmail.com.

Por El Espectador

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar