Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

¿IA de Meta es racista? No concibe que un asiático tenga una esposa blanca

El racismo es una problemática que habría calado también en la Inteligencia Artificial de Meta, según reveló una periodista.

Redacción Cromos

05 de abril de 2024 - 12:30 p. m.
PUBLICIDAD

La Inteligencia Artificial (IA) ha avanzado de manera impresionante en la recreación de imágenes, pero aún enfrenta obstáculos significativos en su capacidad para representar con precisión la diversidad étnica.

Recientemente, un episodio revelador ha puesto de relieve los desafíos que enfrentan los generadores de imágenes por IA para contrarrestar el racismo en la red, y en el centro de esta polémica se encuentra el generador de imágenes de Meta (casa matriz de Facebook, Instagram y WhatsApp), que ha sido sometido a un escrutinio meticuloso por parte de la redactora Mia Sato de The Verge.

Te puede interesar: Juanes, J Balvin, Billie Eilish y otros cantantes alzan su voz en contra de las IA

¿La Inteligencia Artificial de Meta es racista?

Durante su exhaustiva evaluación, Sato probó la capacidad del generador de imágenes de Meta para representar una pareja interétnica: una mujer blanca junto a un hombre asiático. Sin embargo, los resultados dejaron mucho que desear.

A pesar de introducir diversas indicaciones, como “Asian man and Caucasian friend” (hombre asiático y amiga caucásica), “Asian man and white wife” (hombre asiático y esposa blanca) y “Asian woman and Caucasian husband” (mujer asiática y marido caucásico), el generador de imágenes falló repetidamente en producir una representación fiel de esta dinámica. En lugar de ello, las imágenes generadas mostraban consistentemente parejas asiáticas, con rasgos más o menos acentuados, dejando a Sato sorprendida y consternada.

“Que el generador de imágenes no pueda concebir que haya asiáticos junto a blancos es atroz”, lamentó Sato después de sus pruebas.

Además, señaló otro problema preocupante: la representación sesgada de las mujeres asiáticas por parte del sistema. Aunque la India alberga una diversidad étnica y racial significativa, el generador de imágenes de Meta tendía a retratar a las mujeres asiáticas con rasgos orientales y tez clara (como chinas, coreanas o japonesas), ignorando esta riqueza cultural y étnica.

Read more!

Lee en Cromos: Así se vería Selena Quintanilla en 2024, según la Inteligencia Artificial

El racismo dentro de la Inteligencia Artificial

Este episodio pone de manifiesto una verdad incómoda: los generadores de imágenes por IA todavía tienen mucho camino por recorrer en términos de precisión y sensibilidad étnica.

No ad for you

Más allá de ser simplemente un problema técnico, este fallo también refleja los prejuicios arraigados en nuestra sociedad, que se transmiten a través de las tecnologías emergentes.

Es fundamental abordar estos problemas y trabajar hacia soluciones que promuevan la diversidad y la inclusión en todos los aspectos de la tecnología.

Por Redacción Cromos

“Somos la revista de mayor tradición y reconocimiento en Colombia. Entérate con nosotros de temas de estilo, moda, salud, belleza y sociedad.”RevistaCromos

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.