Los peligros de la inteligencia artificial, según Elon Musk

El fundador de Tesla advierte, una vez más, acerca de la necesidad de regular prontamente el desarrollo de esta tecnología.

Redacción Tecnología.
17 de julio de 2017 - 01:41 p. m.
Elon Musk, fundador de Tesla y Space X. / Bloomberg
Elon Musk, fundador de Tesla y Space X. / Bloomberg

Elon Musk, el fundador del fabricante de carros Tesla y la empresa de exploración espacial Space X, asegura que es necesario comenzar a crear regulación para supervisar el desarrollo e impacto de la inteligencia artificial (IA) en todos los aspectos de la vida.

No es la primera vez que Musk se mete en esta discusión. Es, por lo menos, la tercera vez que pide en público más supervisión de esta tecnología. Se estima que en su tiempo como asesor del presidente Donald Trump, Musk discutió en varias oportunidades este tema con el mandatario, quien es un enemigo de la regulación estatal en cualquier caso.

La inteligencia artificial representa el raro caso en el que necesitamos ser proactivos con la regulación, en vez de reactivos. Creo que, para el momento en el que estemos reaccionando, será muy tarde. La inteligencia artificial representa un riesgo fundamental para la existencia de la civilización humana”, dijo Musk durante una reunión de gobernadores de Estados Unidos.

Suena algo paradójico que sea Musk quien dice este tipo de cosas, pues, a la vez, el empresario es uno de los jugadores fuertes en el campo de la inteligencia artificial. El fin suprem de Tesla es la conducción autónoma, una tecnología que descansa fuertemente sobre la IA; los autos de este fabricante son los que, actualmente, tienen el más alto nivel de autonomía en manejo.

Siendo justos, esta aparente paradoja es mucho más común de lo que se cree: algunos de los nombres más importantes en la investigación de la IA son, a su vez, algunos de los que más advierten sobre los peligros que esta tecnología puede tener si no se comprende y se usa correctamente.

También son algunos de los que le ven mayor potencial productivo y positivo en la sociedad, pero las promesas de cambio y revolución que vienen con la inteligencia artificial, han advertido los expertos, sólo llegarán si esta herramienta se usa para bien, con la debida supervisión de los gobiernos en todo el mundo.

Estas preocupaciones quedaron consignadas y explicadas públicamente en una carta abierta de 2015, en la que 8.000 científicos, entre ellos Stephen Hawking y Tom Dietterich, presidente de la Asociación para el Avance de la IA, en la que se llama a utilizar esta tecnología para cerrar las brechas sociales: “El progreso en estas investigaciones debe apuntar no sólo a desarrollar más capacidades tecnológicas, sino a maximizar los beneficios sociales de la IA”, dice el documento.

El mes pasado, la ONU convocó a una reunión en Ginebra, Suiza, para analizar cómo la IA puede ayudar a cumplir los Objetivos de Desarrollo Sostenible, así como las metas de mejoramiento de calidad de vida de las personas más necesitas en 2030. 

“Normalmente, la forma en la que se diseñan regulaciones es así: cosas malas suceden, hay una reacción pública negativa y, después de muchos años, se instala una agencia para supervisar una industria determinada”, dijo Musk en su discurso ante los gobernadores de Estados Unidos.

Los miedos de los expertos acerca del desarrollo de IA tienen que ver más con la pérdida masiva de empleos en todo el mundo y la ampliación de las brechas sociales que con robots asesinos (aunque también puede haber de eso un poco). El gran peligro acá es la automatización del trabajo y cómo segmentos enteros de población pueden resultar irrelevantes para un sistema de producción que quede en manos, primordialmente, de máquinas.

Por Redacción Tecnología.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar