"El joropo es la altanería del llanero": Cholo Valderrama

hace 0 sec

Las cinco herramientas tecnológicas que deciden por los humanos

Los algoritmos están cada vez más presentes en nuestra cotidianidad. A través de ellos se decide, por ejemplo, quién es apto para una vacante, quién va a prisión, quién puede adquirir un préstamo o quién es tu pareja ideal.

Imagen de referencia. Pixabay

¿Se imagina un mundo en el que la inteligencia artificial es la que decide? Pues ya vive en él. A través de los algoritmos, cada vez más, los humanos se ahorran el trabajo de evaluar ciertas variables para tomar decisiones. Casi parece que la tecnología piensa por nosotros.

Los algoritmos hacen parte de nuestra vida tanto en la tecnología como fuera de ella. El conjunto de instrucciones que da el GPS para llegar a un sitio, es un algoritmo, al igual que la receta para preparar unos frijoles. Todo se trata de resolver problemas.

Elegir algo dentro de otras opciones, es un problema al que nos vemos enfrentados cada día. ¿María o Juana, Pedro o Miguel, jean o falda, jugo de mango o de maracuyá? Son elecciones cotidianas que no nos llevarán mucho tiempo. Y, para las decisiones que implican mucho tiempo y trabajo, la tecnología tiene la respuesta.

La BBC presentó cinco ejemplos de cómo nuestras vidas están siendo afectadas por la inteligencia artificial que decide por los humanos.

1. ¿Quién merece la vacante?

Para descartar hojas de vida o currículums no es necesario, siquiera, que un humano se tome el trabajo de revisarlas. Muchas compañías optan por implementar un programa de Sistemas de Seguimiento a Candidatos, que maneje los procesos de reclutamiento, especialmente el análisis de cualquier cantidad de solicitudes iniciales.

Según lo informado por la BBC, se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos, en Estado Unidos. Así se ahorran tiempo y dinero en los procesos de contratación.

No obstante, hay quienes cuestionan la neutralidad de los algoritmos. En un artículo de la Harvard Business Review, citado por la BBC, los académicos Gideon Mann y Cathy O'Neil argumentan que estos programas no están desprovistos de los prejuicios y sesgos propios de los humanos, lo que podría hacer que la inteligencia artificial no sea realmente objetiva.

2. Hasta lo que haga en sus redes sociales podría impedir que tenga un préstamo.

Normalmente las entidades financieras otorgaban préstamos teniendo en cuenta la capacidad de pago del solicitante, sus ingresos, su historial crediticio. Pero, ahora, al parecer, también tienen en cuenta tu historial de google.

De acuerdo a lo que explica la BBC, el obtener un crédito o no, dependerá de la evaluación a través de algoritmos informáticos, que analizan datos de distintas fuentes, como patrones de compra, búsquedas en internet y actividad en redes sociales.

En este caso también se cuestiona la transparencia e imparcialidad del proceso y un tema más delicado sobre tratamiento de datos.

3. ¿Quién es su pareja ideal?

Ya es común hablar de aplicaciones que utilizan algoritmos para emparejar a los solteros. La persona puede llenar un formulario de cualquier cantidad de preguntas sobre gustos y preferencias, con el fin de encontrar a la que pueda ser su alma gemela.

Sin embargo, se pueden presentar casos como el citado por la BBC, del eHarmony, el reconocido sitio web de citas, que reveló que ajustaba los perfiles de algunos clientes para volverlos más “simpáticos” y atractivos.

Tal acción se traducía en ignorar algunas preferencias de los usuarios, lo cual puede ser muy molesto para alguien que gasta su tiempo respondiendo las preguntas del formulario.

En el caso de Tinder, también citado por el medio, hay menos variables que computar, pues no hay un gran formulario. Por ello, para facilitar el emparejamiento, la compañía le asigna a la persona una calificación sobre cuán deseable es el candidato, posiblemente, teniendo en cuenta cuántas personas lo dejan pasar, o cuantas indican que les gusta.

4. ¿Es apto para un seguro médico?

El abuso de sustancias psicoactivas, legales o ilegales, es una de las principales causas de muertes accidentales en Estados Unidos, según lo indicado por la BBC. Por ello, para atacar el problema científicos y autoridades buscan crear y ejecutar proyectos basados en datos.

¿Cómo así? Crear algoritmos que analicen ciertas variables para detectar a los usuarios que, por el consumo de opioides, generan mayores costos de servicio médico.

La BBC cita el caso de el proveedor de seguro médico Blue Cross y la firma tecnológica Fuzzy Logix, quienes anunciaron la creación de un algoritmo que analizaba nada más y nada menos que 42 variables para evaluar el riesgo de abuso o identificar posibles adictos.

La discusión, al igual que en los otros ejemplos, viene a ser por el tratamiento de datos, pues deberán computar incluso historiales médicos.

No obstante, según defensores del uso de la inteligencia artificial, que cita la BBC, algoritmos como ese pueden ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.  

5. ¿Quién dicta la condena, el juez o el computador?

Según la información de la BBC, jueces de al menos 10 estados de EE.UU. dictan sentencia con la ayuda de una herramienta llamada COMPAS.

Ese algoritmo de evaluación de riesgos, puede predecir las probabilidades de que un individuo haya cometido un crimen. En 2013, por ejemplo, Eric Loomis fue sentenciado a siete años de prisión por eludir el control policial y manejar un vehículo sin el consentimiento de su dueño.

Ello, luego de que las autoridades locales presentaran una evaluación basada en una entrevista y en la información sobre sus probabilidades criminales, en la que Loomis obtuvo una calificación de “alto riesgo de cometer nuevos crímenes”.

La condena fue rechazada por los abogados, según explica la BBC, argumentando que el COMPAS era desarrollado por una empresa privada y la información sobre su función no había sido revelada.

Además, porque la evaluación de riesgo tomó en cuenta información sobre el género y la raza, violando los derechos de Loomis.

De hecho, cita la BBC, “un análisis de más de 10.000 acusados en el estado de Florida publicado, en 2016, por el grupo de investigación ProPublica mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes”.