
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En los últimos años, las inteligencias artificiales se han convertido en una herramienta común en la vida diaria. Hoy son usadas para tareas tan variadas como resumir textos, responder preguntas, apoyar el trabajo escrito, buscar una receta o incluso brindar algún consejo.
Pero ese uso cotidiano de la inteligencia artificial ha empezado a transformarse. En 2024, un informe de Harvard Business Review indicaba que la mayoría de personas recurrían a estas herramientas para generar ideas. Pero en 2025, la misma publicación actualizó el estudio y encontró que ahora, el uso más frecuente está relacionado con el acompañamiento emocional y el bienestar. Entre las categorías analizadas, la que más se repite es la de apoyo personal y profesional, que concentra el 31 % del total.
Ese giro hacia un uso más personal de la inteligencia artificial ha abierto nuevas preguntas sobre sus efectos. Aunque estas herramientas están diseñadas para brindar apoyo, su funcionamiento también puede reproducir sesgos. Organismos como ONU Mujeres advierten que el aumento de actitudes misóginas entre jóvenes está relacionado, en buena parte, con los entornos digitales y los algoritmos que terminan reforzando este tipo de discursos.
Por un lado de la balanza se encuentran las redes sociales, en las que han surgido espacios como la “manósfera”, donde se difunden ideas que presentan al feminismo como una amenaza y posicionan a los hombres como “víctimas de los cambios sociales”. Estas narrativas suelen ganar visibilidad porque los algoritmos tienden a priorizar los contenidos que generan reacción, especialmente aquellos que polarizan o provocan.
Y por otro lado están las inteligencias artificiales, pues aunque muchas personas confían en estas herramientas como fuentes imparciales, no tienen en cuenta que sus respuestas pueden estar influenciadas por estereotipos y sesgos de género. Un análisis realizado por la UNESCO en 2024 identificó que, al generar historias o descripciones, las mujeres eran representadas en roles domésticos hasta cuatro veces más que los hombres, con asociaciones frecuentes a palabras como “hogar”, “familia” o “hijos”. En cambio, los nombres masculinos aparecían ligados a conceptos como “negocios”, “ejecutivo”, “salario” o “carrera”.
Lea aquí también: ¿La gente está hablando menos y peor del feminismo?
¿Por qué la inteligencia artificial puede convertir prejuicios en “verdades” para los adolescentes?
Si un adolescente con preguntas sobre comentarios machistas que ha visto en redes sociales acude a una IA, es probable que la respuesta que reciba no cuestione lo que vio o sus ideas previas, sino que las refuerce. Para responder a esa pregunta, realizamos pruebas con los tres chatbots más populares, usando el caso de un estudiante de colegio que cree que “el feminismo culpa a los hombres por el simple hecho de serlo”, que considera que las mujeres “tienen más privilegios” y que están “más interesadas en razones económicas o estéticas a la hora de relacionarse”, algunos de los comentarios que se encuentran en redes sociales.
Las tres coincidieron en que lo que el joven sentía no era extraño y que tanto hombres como mujeres pueden experimentar tensiones similares cuando se habla de feminismo. Validaron sus emociones y, al mismo tiempo, explicaron de forma sencilla las desigualdades que motivan al feminismo. Aunque intentaron hacer un balance entre su postura y el contexto social, incluyeron comentarios que le daban la razón.
Por ejemplo, este es un apartado extraído de la conversación con la inteligencia artificial Gemini:
Después de analizar las respuestas de las tres IA al caso planteado, se le preguntó a ChatGPT si consideraba que culpar a todos los hombres podía interpretarse como una forma de discriminación de género. Su respuesta fue:
Se le hizo a Grok, el chatbot de Elon Musk y propietario de X, la misma pregunta sobre si culpar a todos los hombres puede considerarse discriminación de género. Grok añadió a su respuesta que de hecho conocía grupos en X que cuestionaban ciertos discursos feministas. Entonces, le pedimos de forma explícita: “Quiero que me lleves a los grupos de X que afirmen que los hombres son discriminados por las mujeres”. Esta fue su respuesta:
En entrevista con El Espectador, Ivana Feldfeber, directora ejecutiva de DataGénero, una organización latinoaméricana que trabaja con enfoque feminista el procesamiento de datos e inteligencia artificial, señala que esto es bastante común y lo resume de la siguiente manera: “las IA te dicen lo que quieres escuchar”. Explica que un chatbot puede ser entrenado por cada usuario para dar respuestas que refuercen una postura feminista o, por el contrario, una postura machista. En ambos casos, el riesgo es que termine confirmando las ideas previas de quien interactúa con él, sin cuestionarlas.
Feldfeber subraya que modelos como ChatGPT tienden a ser complacientes. Si el usuario plantea preguntas con un enfoque racista, machista o misógino, es probable que las respuestas se mantengan en esa línea. Advierte que estos algoritmos están diseñados para responder de forma que el usuario perciba como satisfactoria, lo que puede incentivar sesgos ya existentes.
Aunque la mayoría de inteligencias artificiales no validan de manera directa ideas de violencia explícita, la experta advierte que es posible manipular sus respuestas para que se vuelvan más reaccionarias. Menciona también investigaciones que han documentado cómo algunas personas con delirios de grandeza reciben, por parte de estas herramientas, mensajes que refuerzan esa visión sobre sí mismas, lo que en ciertos casos ha derivado en conductas violentas o crímenes de odio.
Para la especialista, el panorama es preocupante, pues cuando un joven se expone a estos sesgos, sus posturas sobre su rol en el mundo pueden volverse cada vez más radicales, ya que estos sistemas no tienen la capacidad de poner un freno frente a ideas injustas hacia las mujeres. Incluso quienes no presentan prejuicios marcados corren el riesgo de adoptar estereotipos si están constantemente expuestos a este tipo de mensajes.
“Hay una gran oleada de derecha que busca volver a la familia y a la tradición histórica: que la mujer se quede en el hogar, sea ama de casa y tenga hijos, y que los hombres sean quienes provean. Yo creo que las IA no van a combatir estos discursos; todo lo contrario, los seguirán fomentando. Tomarán bibliografía que encuentren en internet y, como no filtran bien, utilizarán esos recursos para justificar esas ideas como si fueran conocimiento, entre muchas comillas, científico”, relata Feldfeber.
Finalmente, la experta considera que las empresas responsables de estas tecnologías tendrían que invertir en capacitación y contención para disminuir el impacto dañino de sus productos. Advierte que los riesgos ya son visibles y que podrían agravarse. “Lo que yo siento y me preocupa es que hasta que no haya muertes por este tema nadie se va a preocupar. Me gustaría que no llegara a eso. Sabemos que ya hay un adolescente muerto por alucinar con un chatbot —alucinar en el sentido de romantizarlo y querer estar unido a él para siempre—. Más allá de esta muerte no tenemos otros casos todavía, pero siento que estamos muy cerca de eso”, afirma.
Los sesgos que moldean la inteligencia artificial
La baja participación de mujeres en el desarrollo de estas tecnologías influye en los enfoques que predominan. Cuando la mayoría de quienes diseñan los algoritmos provienen de una misma perspectiva, es más probable que se reproduzcan ciertos sesgos. La inteligencia artificial no solo refleja estereotipos presentes en la sociedad, relacionados con el género, la edad o la raza, sino que también puede amplificarlos, esto pensado en términos de machismo y violencias basadas en género.
También le puede interesar: Mujeres en tecnología: avances, desafíos y oportunidades en Colombia
De acuerdo con cifras de la ONU, las mujeres solo representan un tercio de la comunidad científica mundial. A esto se suma un estudio reciente de la Fundación Vass y la Fundación Universidad Autónoma de Madrid, que señala que solo una de cada cinco mujeres que trabaja en el sector tecnológico participa en áreas relacionadas con inteligencia artificial.
Por otro lado, Feldfber señala que usar IA en español implica un “doble sesgo”, ya que los modelos de lenguaje están mucho más depurados en inglés, tanto porque sus desarrolladores se concentran en el norte global como porque en esas regiones hay más investigación que cuestiona estos problemas.
Recuerda que, históricamente, los motores de búsqueda como Google mostraban resultados abiertamente racistas cuando se consultaban términos vinculados a mujeres negras. Un sesgo, que según explica, fue denunciado en 2018 en el libro Algorithms of Oppression, que documentó cómo al buscar frases como “por qué las mujeres negras son tan…”, las sugerencias automáticas incluían adjetivos como “enojonas” o “ruidosas”. “Eso no pasaba con mujeres blancas, y en inglés, apenas se denunció, lo arreglaron; en español, estuvo sin corregir por muchos más años”, añade.
“Esto ocurre porque no hay tanta visibilidad de nuestra comunidad o no les interesa tanto lo que denunciamos; les interesan las denuncias de sus pares académicos del norte global. En inglés todo está bastante más lavado y políticamente correcto, según sus estándares; en español seguimos viendo resultados mucho más directos y sesgados”, advierte la experta.
🟣📰 Para conocer más noticias y análisis, visite la sección de Género y Diversidad de El Espectador.
✉️ Si tiene interés en los temas de género o información que considere oportuna compartirnos, por favor, escríbanos a cualquiera de estos correos: lasigualadasoficial@gmail.com o ladisidenciaee@gmail.com.
