¿Cómo se puede construir inteligencia artificial con parámetros éticos?

Compañías como IBM y Microsoft se unieron con el Vaticano para empujar un movimiento global para que la investigación y diseño de esta tecnología se haga con principios claros de responsabilidad y transparencia, entre otros, y así evitar problemas de sesgos y prejuicios sistemáticos.

Santiago La Rotta.
28 de febrero de 2020 - 04:53 p. m.
Getty Images
Getty Images
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

¿Cómo podría el mundo aprovechar la inteligencia artificial (IA) para el bien común, mientras reduce su potencial para ser una fuerza para el mal? En toda justicia, esta no es una pregunta nueva y, en últimas, puede aplicar para prácticamente cualquier tecnología de alto impacto, especialmente en la era digital.

Lo que quizá resulta novedoso, o cuando menos sorprendente, es que sea el Vaticano el que se formule esta pregunta. Por instrucción del Papa Francisco, la Academia Pontifica por la Vida comenzó a estudiar el tema y, producto de este análisis, IBM y Microsoft firmaron este viernes el Rome Call for AI Ethics, un compromiso para establecer parámetros éticos en el desarrollo de inteligencia artificial.

Lea también: ¿Cómo sumarle humanidad a la tecnología?

La ética en el desarrollo de tecnologías es un tema cada vez más importante porque compañías de esta escala cada vez ofrecen soluciones para sistemas críticos para el funcionamiento de una sociedad: algoritmos que clasifican el desempeño de los profesores de escuelas públicas o análisis de datos para intentar predecir qué paciente puede desarrollar problemas como diabetes. En las manos equivocadas, con un diseño y una implementación incorrecta, esta información puede resultar en discriminación y otras injusticias, pero a gran escala.

“IBM nunca antes había firmado un llamado papal. Pero estos no son tiempos comunes en tecnología”, en palabras de John E. Kelly III, vicepresidente ejecutivo de IBM, quien añadió que “el Rome Call for AI Ethics nos recuerda que tenemos que elegir cuidadosamente a quién beneficiará la IA y debemos hacer al mismo tiempo importantes inversiones en personas y habilidades. La sociedad tendrá más confianza en la IA cuando las personas vean que se está construyendo sobre una base de ética, y que las compañías detrás de la IA están abordando directamente cuestiones de confianza y responsabilidad”.

Responsabilidad es una palabra clave en este debate. A pesar de su evidente significado, su aparición en temas de tecnología suele ser más bien opaca por la complejidad misma de los sistemas, pero también por temas de mercado. Por ejemplo, ¿cómo se pelea contra un algoritmo que decidió que no es elegible para un crédito hipotecario si la fórmula que lo compone es un secreto industrial de una compañía basada en Massachusetts?

“Esto es un problema porque, a medida que los algoritmos gobiernan más partes de nuestra vida, es cada vez más necesario saber cómo operan, pero también tener mecanismos para pelear contra ellos, para debatir sus juicios, para apelar sus decisiones”, dice Alethea Lange, del Centro para la Democracia y la Tecnología (CDT), en Estados Unidos.

La vinculación de parámetros éticos en el diseño de tecnologías como inteligencia artificial es cada vez un debate más grande e interesante, así como urgente. De fondo, se trata de resaltar asuntos como transparencia y cadena de responsabilidad porque, cuando las cosas salen mal, la culpa no puede ser de la máquina.

Lea también: Hurto de celulares en Colombia: la pesadilla sin fin

“La inteligencia artificial puede reemplazar el razonamiento en algunos lugares y, francamente, a veces puede ser incluso más seguro que lo haga, como en un carro. Pero hay muchos aspectos que deben ser gobernados por los humanos. La utilización indiscriminada de IA puede erosionar la cadena de toma de decisiones y aislarnos de la responsabilidad detrás de una elección. Nadie quiere esto”, asegura Paula Boddington, investigadora de la Universidad de Cardiff, en el Reino Unido, y autora del libro “Towards a Code of Ethics for Artificial Intelligence”.

El Rome Call for AI Ethics incluye trabajar sobre seis principios básicos. Transparencia, que busca que los sistemas de IA deben ser explicables; inclusión, para tener en cuenta las necesidades de todos los seres humanos; responsabilidad, quienes diseñan y despliegan el uso de IA deben proceder con responsabilidad y transparencia; imparcialidad, que implica no crear ni actuar de acuerdo con prejuicios o discriminación; confiabilidad y seguridad y privacidad.

“Para IBM es un honor haber ayudado a darle forma al Rome Call for AI Ethics del Vaticano y ser uno de sus primeros firmantes. Involucrar al Vaticano en este tema ayudará a que la conversación pase de ser sobre máquinas y sea sobre la gente. Esto es crítico porque, al final del día, los sistemas de IA son simplemente un reflejo de las personas que los construyen”, dijo Fabio Rúa, director de Asuntos Regulatorios y Gubernamentales de IBM para América Latina, en diálogo con El Espectador.

¿Qué implica una inteligencia artificial ética? ¿Si ya no tiene sesgos ni prejuicios de diseño, eso ya la vuelve ética?
La IA ética no es sólo un resultado final, es una promesa que se aplica a través de todo el ciclo de vida de un sistema de IA. Se trata de involucrar grupos diversos de individuos en la creación de tecnologías que reflejen a las personas y estén ancladas en principios de código abierto y en ser explicable. También se trata de adoptar, como lo hemos hecho, una visión en la que un sesgo dañino o inapropiado en la IA es algo totalmente inaceptable, así como también implica trabajar proactivamente para identificar y mitigar estos impactos.

¿Si las máquinas son, de cierta forma, un reflejo de los humanos (y claramente tenemos nuestra porción de dilemas éticos), cómo se diseña una tecnología con parámetros éticos?
La inteligencia artificial debe ser equipada con datos sin sesgos. Para lograr esto debemos salirnos de nuestros silos y avanzar hacia un enfoque que sea multidisciplinario e involucre a más actores para así poder asegurar que estos sistemas son justos y se puede confiar en ellos.

¿Por qué involucrar una institución religiosa, como el Vaticano, en un asunto de tecnología?
Este acuerdo no es sólo un pronunciamiento religioso, es uno humano. IBM ve esta iniciativa como un acuerdo colectivo, con actores y líderes globales, para establecer líneas de acción que permitan impulsar la tecnología en el camino de garantizar los derechos fundamentales de las personas a tener una vida segura, saludable y próspera. Creemos que, a través de su trabajo de enganchar a otras grandes religiones alrededor de prioridades similares, el Vaticano puede tener un rol poderoso en hacer que la conversación sobre IA sea sobre la gente y sus valores y no sólo sobre tecnología.

¿En un escenario global de aplicación, podemos estar seguros de que un humano siempre estará en control de los productos de IA que lleguen a los usuarios finales?
En IBM pensamos que el rol de tecnologías como la IA es aumentar, no reemplazar, la inteligencia humana: la combinación de humano y máquina es lo que hace de la IA una tecnología tan transformadora. Los humanos han jugado, y lo seguirán haciendo, un papel fundamental en cada fase del ciclo de vida de la IA: desde el momento en que la investigación y desarrollo empiezan, hasta mucho después cuando el producto es desplegado, y entonces continuamos monitoreando.

Por Santiago La Rotta.

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar