Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La Inteligencia Artificial (IA) ha avanzado de manera impresionante en la recreación de imágenes, pero aún enfrenta obstáculos significativos en su capacidad para representar con precisión la diversidad étnica.
Recientemente, un episodio revelador ha puesto de relieve los desafíos que enfrentan los generadores de imágenes por IA para contrarrestar el racismo en la red, y en el centro de esta polémica se encuentra el generador de imágenes de Meta (casa matriz de Facebook, Instagram y WhatsApp), que ha sido sometido a un escrutinio meticuloso por parte de la redactora Mia Sato de The Verge.
Te puede interesar: Juanes, J Balvin, Billie Eilish y otros cantantes alzan su voz en contra de las IA
¿La Inteligencia Artificial de Meta es racista?
Durante su exhaustiva evaluación, Sato probó la capacidad del generador de imágenes de Meta para representar una pareja interétnica: una mujer blanca junto a un hombre asiático. Sin embargo, los resultados dejaron mucho que desear.
A pesar de introducir diversas indicaciones, como “Asian man and Caucasian friend” (hombre asiático y amiga caucásica), “Asian man and white wife” (hombre asiático y esposa blanca) y “Asian woman and Caucasian husband” (mujer asiática y marido caucásico), el generador de imágenes falló repetidamente en producir una representación fiel de esta dinámica. En lugar de ello, las imágenes generadas mostraban consistentemente parejas asiáticas, con rasgos más o menos acentuados, dejando a Sato sorprendida y consternada.
“Que el generador de imágenes no pueda concebir que haya asiáticos junto a blancos es atroz”, lamentó Sato después de sus pruebas.
Además, señaló otro problema preocupante: la representación sesgada de las mujeres asiáticas por parte del sistema. Aunque la India alberga una diversidad étnica y racial significativa, el generador de imágenes de Meta tendía a retratar a las mujeres asiáticas con rasgos orientales y tez clara (como chinas, coreanas o japonesas), ignorando esta riqueza cultural y étnica.
Meta’s AI image generator won’t create photo of Asian dating white person — even though Mark Zuckerberg is married to Priscilla Chan https://t.co/6TIY43OYxN pic.twitter.com/CRqo42WX6I
— New York Post (@nypost) April 5, 2024
Lee en Cromos: Así se vería Selena Quintanilla en 2024, según la Inteligencia Artificial
El racismo dentro de la Inteligencia Artificial
Este episodio pone de manifiesto una verdad incómoda: los generadores de imágenes por IA todavía tienen mucho camino por recorrer en términos de precisión y sensibilidad étnica.
Más allá de ser simplemente un problema técnico, este fallo también refleja los prejuicios arraigados en nuestra sociedad, que se transmiten a través de las tecnologías emergentes.
Es fundamental abordar estos problemas y trabajar hacia soluciones que promuevan la diversidad y la inclusión en todos los aspectos de la tecnología.
