Distopía digital

Noticias destacadas de Opinión

Por Alejandra Zuluaga Duque

En Estados Unidos, un hombre negro recién graduado está buscando trabajo. Aspira encontrar una posición en una multinacional reconocida. Luego de enviar su hoja de vida, no recibe una llamada de vuelta. Por el contrario, tres amigos suyos, exactamente con el mismo perfil pero con nombres y apellidos de estadounidenses blancos, consiguen la entrevista. Extraño, ¿no?

Investigaciones conducidas en Estados Unidos, muestran que la probabilidad de conseguir una entrevista es mucho mayor si su nombre es asociado a personas blancas (David, William, John) en comparación con aquellos nombres asociados a personas negras (Jamal, Rasheed, Darnell). ¿A qué se debe esto? Uno de los grandes descubrimientos que nos trae la cuarta revolución industrial es el uso de machine learning, en español, aprendizaje automático.

El aprendizaje automático se da por medio de algoritmos. Un algoritmo es un conjunto de instrucciones para hacer algo. La secuencia de levantarse, tomar café y sacar al perro antes de ir al trabajo es un algoritmo. Sin darnos cuenta, tenemos algoritmos en nuestras rutinas y preferencias. Ahora bien, existen algoritmos más complejos. Digamos que quieres buscar en Google una foto de la iglesia de tu barrio llamada San Pedro. Google usa algoritmos para darte un resultado. El orden en que te los presenta dependerá de cuántas iglesias de San Pedro existen y cuáles son las más populares. Si la iglesia de tu barrio no es muy popular, probablemente no estará entre los primeros resultados o quizás no exista un resultado. Esto suena familiar, ¿verdad?

Ahora, ¿por qué es tan complejo pensar en algoritmos que regulen nuestra seguridad, educación y salud? Con la coyuntura del COVID-19, muchos gobiernos comienzan a interesarse en nuevas tecnologías como la inteligencia artificial.

La inteligencia artificial funciona con aprendizaje automático, en consecuencia, con algoritmos. El ejemplo del hombre buscando trabajo es uno de muchos escenarios en los cuales una minoría o población históricamente segregada puede verse afectada. Y no es para menos: la tecnología es hecha por humanos y, como tal, acarrea vicios y prejuicios de nuestra historia.

El aprendizaje automatizado funciona con la información que se le suministre. Si la información proveída tiene un sesgo de valor, en este caso racismo, el resultado será, por ejemplo, y como es evidenciado en varios estudios, relacionar la tez negra con delincuencia. Esto enfrenta a la población negra a un mayor hostigamiento por parte de las autoridades en aeropuertos y demás lugares donde se use el reconocimiento facial.

Nada justo, ¿verdad? Decidir qué cuenta como éxito en el avance tecnológico es una tarea compleja para todos. El mundo se transforma y, con ello, nuevos retos emergen.

Virginia Eubanks se ha referido al tema como la automatización de la pobreza. En su escrito The Digital Poorhouse (El hospicio digital), la politóloga explica cómo las personas de color, los migrantes, los grupos religiosos estigmatizados, las minorías sexuales, los pobres y otras poblaciones oprimidas y explotadas soportan, en la era digital, una carga mucho más pesada de monitoreo, seguimiento y clasificación social que los grupos favorecidos.

Hoy más que nunca resulta relevante un estudio más holístico de las nuevas tecnologías. Esto debe incluir no solo la informática, sino también la historia, lo social y la ley. Toda innovación es, en un sentido inexacto, una innovación social. Como tal, y siguiendo a Klaus Schwab, fundador del Foro Económico Mundial, en su libro The Fourth Industrial Revolution (La cuarta revolución industrial), es nuestra responsabilidad asegurarnos de establecer un conjunto de valores comunes para impulsar la elección de políticas que garanticen que los cambios que tenga la cuarta revolución industrial sean, sin excepción alguna, una oportunidad para todos.

Comparte en redes: