Twitter presenta una iniciativa sobre equidad algorítmica

La plataforma anunció un plan para entender la forma en que se comporta su algoritmo y descubrir los potenciales daños que se puedan producir con su uso, como el sesgo racial y de género en el recorte de imágenes.

15 de abril de 2021 - 12:00 p. m.
Cuando Twitter utiliza el aprendizaje de máquinas o aprendizaje automático, “puede afectar a cientos de millones de tuits al día".
Cuando Twitter utiliza el aprendizaje de máquinas o aprendizaje automático, “puede afectar a cientos de millones de tuits al día".
Foto: Agencia Bloomberg

Twitter dijo el miércoles que lanzará una iniciativa sobre “aprendizaje de máquinas responsable” que incluirá revisiones sobre la equidad algorítmica en su plataforma.

La empresa, con sede en California, dijo que el plan tiene como objetivo ofrecer más transparencia sobre su inteligencia artificial y abordar “los potenciales efectos dañinos de las decisiones algorítmicas.”

La iniciativa surge en medio de una creciente preocupación por los algoritmos utilizados por los servicios en línea, que según algunos pueden promover la violencia, contenidos extremistas y reforzar los prejuicios raciales o de género.

“El uso responsable de la tecnología incluye el estudio de los efectos que puede tener a largo plazo”, señalan en un blog Jutta Williams y Rumman Chowdhury, del equipo de ética y transparencia de Twitter (Meta, por su sigla en inglés).

Lea también: La escasez de chips también le pega al mundo de los videojuegos

Cuando Twitter utiliza el aprendizaje de máquinas o aprendizaje automático, “puede afectar a cientos de millones de tuits al día y, a veces, la forma en que un sistema fue diseñado para ayudar podría empezar a comportarse de manera diferente a la prevista”, explicaron.

Según los investigadores, la iniciativa busca “asumir la responsabilidad de nuestras decisiones algorítmicas” con el objetivo de lograr “la equidad y la justicia en los resultados”.

“También estamos construyendo soluciones de aprendizaje de máquinas que sean explicables, para que se puedan entender mejor nuestros algoritmos, lo que los informa y cómo impactan en lo que (el usuario) ve en Twitter”.

Un equipo de trabajo interdisciplinar se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.

Le puede interesar: La selectiva justicia de Facebook que amenaza a los países pobres

Williams y Chowdhury dijeron que el equipo compartirá sus hallazgos con investigadores externos. “Para mejorar la comprensión colectiva de la industria sobre este tema, ayudarnos a mejorar nuestro enfoque y hacernos responsables”.

Según ha destacado la compañía, “las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas”. Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos “para mejorar la experiencia que la gente tiene en Twitter”.

Esta estrategia se produce tras una serie de controversias en el equipo de ética de inteligencia artificial de Google, que han provocado el despido de dos investigadores de alto nivel y la dimisión de un científico de alto rango.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar