Por: Klaus Ziegler

Promesas y desengaños de la inteligencia artificial

Una mosca vuela enfrente de mí y se posa con suavidad en unas sobras de pan que han quedado en un plato. Me acerco con sigilo, y mediante un movimiento rápido de mi mano intento cogerla, pero escapa sin ningún esfuerzo. De alguna manera, su diminuto cerebro fue capaz de integrar en una fracción de segundo la información proveniente de sus ojos y patas para generar la respuesta motora que le permitió levantar el vuelo y eludir la amenaza.

A pesar de que no falta quien alegue haber construido un computador tan poderoso como para simular la inteligencia de un insecto, no conozco, sin embargo, ningún autómata que pueda ejecutar siquiera una fracción de las increíbles proezas que realiza una pequeña mosca. Estos dípteros son acróbatas del vuelo, reconocen infinidad de objetos, gozan de vida social, y jamás confundirían a uno de su especie con una gota de tinta, o intentarían aparearse con una mancha oscura en el tronco de un árbol ¡Y todas estas hazañas con tan solo unos pocos miles de neuronas!
Han transcurrido más de cincuenta años desde la célebre “Conferencia de Dartmouth”, en la que se delineó un ambicioso programa de investigación que, entre sus muchas promesas, daba por sentado que para finales del siglo XX los autómatas alcanzarían un niel de inteligencia casi humano. Después de cinco décadas, los robots humanoides, que algunos pronosticaron estarían a nuestro servicio para ayudarnos en las labores domésticas, son apenas más astutos que esa graciosa aspiradora móvil que, a tumbos, va succionando todo lo que halla a su paso, y cuya mayor destreza consiste en esquivar los objetos que encuentra en su errático recorrido por la alfombra.
¿Dónde quedaron los llamados “sistemas expertos”, que nos ayudarían a tomar decisiones financieras y hasta se convertirían en nuestros médicos de cabecera? La pregunta me recuerda un gracioso incidente durante la defensa de una tesis doctoral que llevaba por título “Sistemas expertos aplicados al reconocimiento de la calidad del banano”. Tras una presentación minuciosa del software, y después de que el candidato exaltara su promisoria utilidad en la industria bananera, llegó el inaplazable momento de someterlo a prueba. Tras una serie de preguntas imprevistas, y para horror del graduando, su motor de inferencia, no solo falló en el intento de reconocer la fruta de buena calidad, sino que al final quedó claro que confundía a uno de los jurados con un banano.
Construir cerebros virtuales capaces de hacer inferencias útiles sobre su entorno requiere mucho más que capacidad lógica. Un niño de escasos dos años sabe que si Harry Potter monta en su auto volador, su cabeza también va con él. Tampoco hay que explicarle que si su padre sale en la mañana, y vuelve a casa en la tarde, entonces no pudo haber muerto al mediodía. Y es capaz de deducir miles de hechos similares que nadie nunca pudo haberle enseñado, como señala el científico cognitivo Steven Pinker. Lo más sorprendente es que programar una máquina que demuestre teoremas de la geometría de Euclides, o juegue ajedrez como un gran maestro, es un asunto trivial en comparación con la dificultad que existe en dotarla de esa esquiva facultad denominada “sentido común”. Como ya había observado Bertrand Russell, conocemos de manera implícita millones de hechos fundamentales sobre el mundo, imposibles de asimilar por simple transmisión cultural aun en el transcurso de una vida matusalénica. Cómo logramos inferir este asombroso acervo de conocimientos a partir de un pequeño núcleo de hechos fundamentales sigue siendo uno de los problemas más frustrantes de las ciencias cognitivas.
El diseño de máquinas inteligentes capaces de una mínima comprensión lingüística presenta otro obstáculo hasta ahora insuperable. Cualquier pequeño sabe que la frase “el niño se comió el perro caliente” no significa lo mismo que “el perro caliente se comió al niño”. Es “obvio” que la diferencia reside en que, en el segundo caso, el complemento de la primera oración pasa a ser el sujeto. Pero, ¿cómo explicarle a una autómata cuál es el sujeto? Lo que va antes del verbo, contestarán algunos. El lector que aún crea que la cuestión es evidente puede intentar reconocer el sujeto en la siguiente oración: “Leo Legris es el nombre que porta --para esquivar el irónico gesto-- mi extravagancia, que, riendo, soporta la burla, la estultez y el elogio indigesto.”
¿Y por qué no simular una verdadera red neuronal como propone el enfoque conexionista? Desde hace décadas se conoce el mapa completo del cerebro de un pequeño gusano, el Caenorhabditis elegans, el cual contiene alrededor de trescientas neuronas y apenas siete mil sinapsis (un cerebro humano contiene alrededor de cien billones). No obstante, hasta la fecha ni siquiera existe un modelo matemático adecuado para este sencillo sistema nervioso. Las redes neuronales más complejas contienen unos pocos cientos de neuronas artificiales que en realidad se asemejan más a clásicas compuertas lógicas, y que de ninguna manera simulan la complejidad de la maraña de sinapsis de una red biológica real. Las predicciones de hace veinte años sobre neuroprocesadores con cientos de millones de neuronas virtuales son hoy tan reales como las habilidades cognitivas de “Arturito”, el simpático robot de “La guerra de las galaxias”.
Hay que reconocer que tras medio siglo de promesas, y no obstante algunos éxitos innegables, la inteligencia artificial ha sido, como señala el experto Peter Kassan, una promesa fallida y un espejismo inalcanzable. La madre naturaleza ha sabido guardar con sigilo un secreto que le permite construir cerebros capaces de las más increíbles hazañas, entre las cuales se cuenta soñar con máquinas inteligentes concebidas a su imagen y semejanza.
 

 

Buscar columnista

Últimas Columnas de Klaus Ziegler

Vallejo y Ospina: de lo patético a lo risible

De San Anselmo a Murphy

Ondas de gravitación: escuchando el pasado