Publicidad

Manual de ética para robots

Después de 35 años, expertos en  inteligencia artificial se volvieron a reunir en EE.UU. para acordar  pautas de seguridad en el diseño de máquinas que eviten que éstas se conviertan en una amenaza para el hombre.

Santiago La Rotta
08 de agosto de 2009 - 10:00 p. m.

“Un robot no podrá dañar a un ser humano o permitir que, mediante la inacción, un hombre resulte herido”. “Un robot debe obedecer cualquier orden de un humano, con excepción de aquellas que contradigan la anterior regla”. “Un robot debe proteger su propia existencia salvo en aquellos casos que ésta vaya en contravía de las reglas números uno y dos”, escribió Isaac Asimov, un profesor de bioquímica que en sus ratos libres se dedicó a imaginar un futuro en el que los robots serían indispensables para el hombre. En aquel mundo distante las leyes de Asimov serían la fina línea que separa la supervivencia de la especie y el exterminio por parte de las máquinas.

Hace dos años una batería antiaérea, programada para disparar automáticamente, enloqueció en medio de una demostración militar en Suráfrica y descargó sus proveedores sobre los soldados que supervisaban su operación. Al final del día había nueve cuerpos destrozados y 11 personas heridas. Al poco tiempo se conoció un video de una prueba militar en Estados Unidos en el que un cañón se sale de control y gira hacia todos los lados en busca de nuevos blancos. La máquina presionó el gatillo. Afortunadamente las balas se habían agotado.

En junio de 2007 se repitió la historia. Un trabajador de una fábrica sueca estuvo a punto de morir cuando intentó reparar un robot diseñado para levantar grandes rocas. Para efectuar su labor, la máquina había sido supuestamente desconectada. En el momento en que el obrero comenzó a trabajar, el robot emergió de su aparente letargo y con su poderoso mecanismo lo tomó por el cuello. La batalla la ganó el hombre, que salió ese día con un relato increíble y cuatro costillas rotas. La fábrica fue multada a principios de 2009 con US$3.000 por poner en riesgo la vida de sus empleados.

¿Qué está pasando?

La frecuencia con la que se están presentando este tipo de casos, en los que las máquinas parecen salirse de control y poner en peligro la vida humana, encendieron las alarmas entre la comunidad científica mundial y los expertos en inteligencia artificial. Por eso, después de 35 años decidieron reunirse nuevamente en Asilomar (EE.UU.) para acordar nuevos estándares de seguridad en la creación de los robots. Las conclusiones del encuentro están por revelarse; entre tanto expertos en tecnología de diferentes países intentan encontrar una explicación al extraño comportamiento de estos artefactos, que parecen ignorar los comandos con los que fueron diseñados.

Josh Storrs Hall, un científico norteamericano experto en inteligencia artificial, sostiene en un ensayo titulado “Ética para máquinas”, que “hay un creciente debate acerca de nuestras responsabilidades con otras criaturas vivientes. Sin embargo, nunca hemos considerado que tenemos deberes ‘morales’ con nuestras máquinas o ellas con nosotros”. ¿Por qué es necesario pensar en una ética para máquinas? En entrevista con El Espectador, Storrs aseguró que “una vez los robots sean tan inteligentes y capaces para realizar nuestras tareas, una máquina sin ética sería como un hombre sin ética, algo que a toda costa hay que evitar”.

Si bien un nutrido grupo de ingenieros de sistemas, científicos computacionales y programadores descartan la posibilidad, al menos en un futuro inmediato, de que las máquinas tomen el control del mundo, también han llegado al consenso de que pronto los sistemas artificiales serán más poderosos que el hombre. Tom Mitchell, profesor de inteligencia artificial de la Universidad Carnegie Mellon (EE.UU.) y director del departamento de Machine Learning de este centro educativo, explicó a este diario que es inevitable que las máquinas superen las capacidades del ser humano en ciertos escenarios.

“Por ejemplo, mi celular puede multiplicar números más acertada y rápidamente que muchas personas. Por otro lado, no pueden tocar guitarra tan bien como yo lo hago. Creo que estamos en un mundo en el que los computadores ya se desempeñan mejor que nosotros en algunas tareas y espero vivir en una época en la que los robots, al menos, laven mejor los platos que yo”.

La certeza de que los robots serán inevitablemente más poderosos con el paso del tiempo (Storrs afirma que entre 2020 y 2030 habrá máquinas capaces de hacer todas las tareas de un humano promedio) redibuja el futuro para nuestra especie. Hasta el momento, la ciencia ficción ha sido la encargada de hacer un boceto, bastante apocalíptico, de cómo serán nuestros días al lado de las máquinas. Uno de los más notables, al menos por su impacto comercial, es la saga de Terminator: una narración que cuenta cómo una máquina llamada Skynet se encarga de exterminar la raza humana en el momento en que adquiere conciencia de sí misma.

El concepto de conciencia es clave a través de toda la literatura que explora las posibilidades y peligros de las máquinas, pues suponer que un robot adquiere conciencia de su existencia abre la posibilidad de que éste pueda tomar decisiones por sí mismo, al menos en un grado más alto para el que fue programado. Con esto en mente, es válido preguntarse: ¿qué fue lo que ocurrió con la batería antiaérea en Suráfrica o con el robot industrial en Suecia?

Para Jovani Jiménez, doctor en ingeniería de la Universidad Nacional, es probable que se haya presentado una falla en alguno de los sensores de estos artefactos, claves a la hora de calcular un disparo o distinguir entre una roca y una persona. Sin embargo, Jiménez cree que el avance en la tecnología permitirá que errores como estos no se vuelvan a repetir; aunque sea aún incierto el grado de conciencia que una máquina tenga o pueda llegar a tener. “No sabemos muy bien qué es la conciencia en humanos, así que aventurarnos a decir si una máquina es o no consciente es complicado. De pronto ya lo son y no lo sabemos”, advierte el profesor Mitchell.

Ética para máquinas

En un aparte de su ensayo el científico Josh Storrs asegura que no importa tanto determinar si las máquinas son conscientes o no. De todas formas, “pronto seremos las criaturas inferiores, así que lo que nos conviene es enseñarles sus responsabilidades hacia nosotros”. Después de presenciar episodios como el de Suráfrica y Suecia, en momentos en que aeronaves no tripuladas y con cierto nivel de autonomía sobrevuelan los cielos de Irak o Afganistán con la única misión de devastar, es cada vez más claro para la comunidad científica que es necesario empezar a discutir las bases morales para regular el comportamiento de las máquinas, de la misma forma como sucede con el ser humano.

Fernando de la Rosa, profesor de la Universidad de los Andes y doctor en robótica, asegura que “cada vez hay organismos más autónomos y un mayor número de tareas que los robots pueden resolver”. Y recuerda que la meta para 2050 es que los robots compitan con el campeón mundial de la Fifa, un escenario que hace todavía más complejo establecer una ética para el comportamiento de estos agentes autónomos. A esto, advierte, se suma otro problema: el nuevo sistema moral para robots estaría basado en la experiencia ética de nuestra especie, un campo del cual aún no sabemos mucho.

La inteligencia artificial avanza a pasos agigantados y será una tecnología más importante y poderosa en el futuro. Por eso, enfatiza el profesor Mitchell, “es nuestra responsabilidad comenzar la discusión acerca de lo que vamos a construir con ella”.

Lo cierto es que la forma como las máquinas aprenderán ética y reglas de comportamiento es algo que aún no está claro. Sin embargo, la primera conclusión es que los postulados de Asimov, sin duda un visionario, necesitan una revisión o por lo menos una ampliación. “Las leyes de Asimov son buenas historias de ciencia ficción, pero al final son sólo eso: historias”, concluye Storrs.

Las creaciones colombianas

Colombia no se ha quedado rezagada con respecto a los avances que se están desarrollando en el mundo en materia de robótica. La Universidad Manuela Beltrán, la Javeriana y la de los Andes, entre otras instituciones, han creado novedosos programas investigativos y de alta tecnología que buscan promover la creatividad de nuestros ingenieros.

Robots que pueden intervenir como asistentes en una cirugía, seleccionar piezas de ensamble de una fábrica, alimentar una mascota cuando sus dueños están fuera de casa o detectar minas antipersona son algunos de los diseños más destacados que han logrado reconocimiento nacional e internacional. Por ejemplo, los diez robots con forma de araña, que detectan minas en terrenos difíciles, están en estudio para ser utilizados por la Fuerza Pública.

Mascotas de metal

El desarrollo de robots que puedan interactuar con el hombre ha sido uno de los principales logros de la ciencia en los últimos años. Dentro de estos inventos quizás el que ha tenido un mayor éxito ha sido el perro robot, creado por Sony en 1999.

Se trata de una mascota de metal y circuitos capaz de simular las emociones de un perro de verdad. Aibo, como fue bautizado por sus creadores, mueve la cola cuando está contento, juega y hasta duerme,  además, tiene la ventaja de que no hay que sacarlo a pasear para que haga sus necesidades.

El éxito de esta mascota llevó a que otras compañías japonesas y coreanas desarrollaran ejemplares muy similares, aunque con rostros y funciones distintas, programadas para acompañar a sus dueños y convertirse en los mejores amigos del hombre.

Por Santiago La Rotta

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar