5 Oct 2019 - 10:57 p. m.

Colombia, en la búsqueda de una verdadera interacción con las máquinas

Un grupo de estudiantes de la Universidad de los Andes desarrolló un novedoso modelo de inteligencia artificial que le permite a las máquinas reaprender a partir de los errores. Su diseño fue presentado en la Conferencia Europea de Visión por Computador, en Münich, Alemania, donde fueron el único grupo latinoamericano.

Diana Cristina Carvajal*

Pixabay
Pixabay

Imagine una sala de cirugía donde los pacientes son operados por un robot que corta, sutura y, en general, sigue las órdenes específicas de un médico. Por ahora, este es apenas un gran sueño al que apuntan algunos investigadores en inteligencia artificial, entre ellos Pablo Arbeláez, quién hizo un doctorado en Matemáticas aplicadas, en la Universidad París-Dauphine de Francia, y desde hace varios años trabaja en análisis de imágenes, uno de los campos de aplicación de la visión por computador. (Lea Por primera vez graban a cerdos salvajes usando herramientas)

Aunque esta y el procesamiento del lenguaje natural son dos líneas de la inteligencia artificial ampliamente desarrolladas, tradicionalmente se han estudiado por separado. “Las técnicas utilizadas eran completamente distintas porque se requería conocer muy bien el tipo de información; es decir, si se trabajaba con texto era necesario dominar muy bien la gramática, la sintaxis de los lenguajes, etc.; si era con imágenes, la modelización de la textura, del color y de la forma”, explica Arbeláez quien, junto con un grupo de estudiantes uniandinos, desarrolló DML, un novedoso modelo que permite sintetizar ambos procesos. Gracias a éste, una máquina podría ser capaz de recibir una orden en palabras, asociarla a un concepto y posteriormente a una imagen. (Lea Con edición genética crean moscas mutantes que producen vómito a quien las coma)

El DML emplea redes neuronales –convulocionales, que analizan la parte visual, y recurrentes, que analizan el lenguaje– y complejas técnicas de aprendizaje profundo (deep learning) —técnica de aprendizaje de máquina (machine learning) —, que le permite a la máquina reaprender a partir de los errores. Además, fue construido con código abierto, con el objetivode permitir el libre acceso y que cualquier persona interesada en el tema pueda trabajar con él.

“Todos nuestros resultados están disponibles y cualquiera puede bajar el código, reproducir todo y construir sobre nuestro artículo. Así, la siguiente persona que desee trabajar en este problema ya no tiene que empezar de cero. Esto se hace para promover y acelerar el desarrollo de la disciplina”, señala Arbeláez.

Los avances ofrecidos por este modelo pueden ser implementados en la clasificación de imágenes más detallada. Por ejemplo, a una máquina se le podrían dar órdenes más complejas como buscar a un perro con capota amarilla en una foto. Esto significa que debe saber qué es un perro, qué es una capota y cuál es el color amarillo. De igual manera, se puede emplear en tareas que impliquen la interacción de máquinas con humanos, como sucede con los robots asistentes. Si a uno se le pide un jugo de naranja, este debería ser capaz de interpretar las palabras, trasladarse a la cocina, identificar el jugo y entregárselo al humano.

“Las aplicaciones son más que todo para este tipo de tareas, porque el lenguaje es nuestra primera herramienta de comunicación”, señala Edgar Margffoy, ingeniero de sistemas y estudiante de la maestría en Ingeniería de Sistemas y Computación, quien participó en la creación de DML, junto con Juan Camilo Pérez, ingeniero biomédico y candidato a grado de la Maestría en Ingeniería Biomédica; y el también ingeniero biomédico uniandino Emilio Botero.

Desde el año 2017 el grupo ha venido trabajando en este modelo, el cual fue probado en las bases de datos públicas existentes —donde se encuentran miles de imágenes y de frases—. Los resultados fueron tan satisfactorios que el trabajo fue seleccionado para participar en la European Conference on Computer Vision (Conferencia Europea de Visión por Computador), realizada en Münich, en septiembre del año pasado.

“La conferencia tiene un nivel de exigencia muy alto. Su tasa de aceptación es del 25%, es decir, de 4 artículos solo aceptan uno. Se presentaron 1.000 y nosotros éramos el único grupo de una universidad en América Latina”, destaca Arbeláez, quién se trasladó a Alemania con todo su equipo para participar en el encuentro, uno de los más relevantes a nivel mundial, al que acuden los mejores investigadores en el área de la visión por computador.

“Tener esa cercanía con todos los investigadores de punta en este tema, hablar uno a uno y preguntarles su opinión, fue una experiencia única. Eso te abre la cabeza”, añade Pérez.

Por ahora, el modelo tiene un desempeño positivo del 60% en las bases de datos donde se ha probado. A futuro, el equipo espera alcanzar un desempeño del 100% y empezar a probarlo con otras bases de datos más grandes y complejas.

En la actualidad, el grupo adelanta una segunda fase de este prometedor modelo que, de implementarse positivamente, podrá emplearse en áreas mucho más complejas. Una muy concreta es la cirugía robótica, línea en la que trabajaba Arbeláez. Hoy en día existen robots como Da Vinci que, aunque pueden hacer cirugías, son manejados por un doctor con la ayuda de un joystick.

“Lo ideal sería que la máquina pudiera operar de manera autónoma, tan solo siguiendo las órdenes del cirujano. Si algún día queremos tener robots inteligentes con los que podamos interactuar de verdad, este tema va a estar en el corazón de todo”, concluye el profesor del departamento de Ingeniería Biomédica.

*Este artículo fue publicado originalmente en la revista Contacto de la facultad de Ingeniería de la Universidad de los Andes, bajo el título En la búsqueda de una verdadera interacción con las máquinas.

Síguenos en Google Noticias