Publicidad

La IA de Elon Musk, en el centro de la polémica por ‘deepfakes’ sexuales de mujeres y niñas

La generación de deepfakes sexuales sin consentimiento mediante Grok, la inteligencia artificial de Elon Musk, encendió alertas entre gobiernos y organismos internacionales, que advierten sobre el avance de la violencia sexual digital impulsada por la IA.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Redacción Género y Diversidad
07 de enero de 2026 - 05:36 p. m.
Gobiernos investigan y piden respuestas a Grok por imágenes sexuales falsas de mujeres y menores generadas con inteligencia artificial.
Gobiernos investigan y piden respuestas a Grok por imágenes sexuales falsas de mujeres y menores generadas con inteligencia artificial.
Foto: AFP - LIONEL BONAVENTURE
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Durante las últimas semanas, la inteligencia artificial Grok, propiedad de Elon Musk, ha estado en el ojo del huracán por generar imágenes falsas y sexualizadas de mujeres y menores de edad. La indignación de usuarias en redes sociales no se hizo esperar y rápidamente se sumaron reacciones y advertencias internacionales.

Este martes, el Gobierno británico instó a la red social X a adoptar medidas urgentes para frenar la proliferación de este tipo de contenidos, sumándose a México, Francia, India y Malasia, que ya habían manifestado su preocupación y exigido acciones concretas.

Las críticas surgieron tras la implementación, a finales de 2025, de una nueva herramienta integrada en la inteligencia artificial: el botón “editar imágenes”. Esta función permite modificar imágenes de cualquier tipo y generó alarma cuando cientos de personas comenzaron a utilizarla con instrucciones como “quitarle la ropa” o “ponerle en bikini”. La indignación aumentó al constatar que la herramienta posibilitaba estas alteraciones sin el consentimiento de las mujeres retratadas.

Frente a esto, la Comisión Europea afirmó el lunes que está “revisando de manera muy seria” las denuncias contra la inteligencia artificial desarrollada por la startup de Musk, xAI, integrada en la red social X. “Grok ahora ofrece un ‘modo picante’ que muestra contenido sexual explícito, con algunos de los contenidos generados con imágenes de apariencia infantil. Esto es ilegal. Es indignante”, dijo Thomas Regnier, portavoz de la Comisión Europea para Asuntos Digitales.

Asimismo, la semana pasada, las autoridades de Francia anunciaron que la investigación contra la red social X, iniciada en julio de 2025, se ampliará para incluir acusaciones relacionadas con el uso de Grok para generar y difundir pornografía infantil.

¿Qué respondieron Grok y Elon Musk ante la oleada de denuncias?

El pasado viernes, la propia inteligencia artificial reconoció la existencia de “fallos” en su programación que permitieron la generación de imágenes sexualizadas falsas de mujeres, adolescentes y niñas. “Hemos identificado fallos en las medidas de seguridad y las estamos corrigiendo con urgencia”, publicó Grok en X.

También emitió una disculpa pública tras la difusión de una imagen sexualizada de dos menores de edad, generada el 28 de diciembre. En ese mensaje, reconoció que producir y distribuir este tipo de imágenes es ilegal, incluso en Estados Unidos, y puede conllevar penas de prisión y multas.

Sin embargo, la indignación volvió a intensificarse cuando Elon Musk solicitó públicamente a la inteligencia artificial, esa misma noche, que generara una imagen suya en bikini. Usuarias en redes sociales interpretaron este gesto como una burla frente a la oleada de denuncias y críticas, así como una forma de trivializar y minimizar las violencias de género vinculadas a la sexualización no consentida.

Mientras tanto, las usuarias continúan exigiendo respuestas y responsabilidades. Más allá de las disculpas públicas de una inteligencia artificial o de atribuir estos hechos a “errores de programación”, lo cierto es que detrás de la generación de estos contenidos hay personas que los solicitan, lo que deja en evidencia un problema estructural más profundo relacionado con el acoso, la falta de consentimiento y la normalización de las violencias de género en entornos digitales.

‘Deepfakes’ pornográficos: una forma de violencia sexual digital

Tras la polémica, vale la pena aclarar que este tipo de prácticas se conocen como “undressing”, una técnica que simula imágenes falsas de desnudez a partir de imágenes reales, o como “deepfakes”, que pueden ser videos, imágenes o audios manipulados mediante herramientas tecnológicas para que parezcan auténticos en cuestión de minutos. Un fenómeno que ya ha sido catalogado por organismos internacionales como una forma de violencia sexual digital.

Según el último informe global de ONU Mujeres, la llegada de la inteligencia artificial ha transformado las formas de violencia contra las mujeres, “de manera más rápida, específica y difícil de detectar”. Por ejemplo, de los contenidos generados por inteligencia artificial o tecnología digital, como los “deepfakes” pornográficos, se estima que casi el 95 % de estas imágenes, videos o audios falsos de personas, simulando acciones o declaraciones que nunca ocurrieron y que se utilizan para acosar, desinformar o difamar, están dirigidos contra mujeres.

Un tema que no es menor, y parece avanzar a pasos más rápidos que las regulaciones y leyes de los países. Miles de mujeres, adolescentes y niñas han visto cómo los espacios digitales se convierten en escenarios que amplifican las violencias basadas en género. De acuerdo con un informe de State of Deepfakes, publicado en 2023, los “deepfakes” pornográficos constituyen el 98 % de todo el contenido manipulado mediante inteligencia artificial, y las mujeres son el blanco de estos ataques en el 99 % de los casos.

*Con información de AFP.

🟣📰 Para conocer más noticias y análisis, visite la sección de Género y Diversidad de El Espectador.

✉️ Si tiene interés en los temas de género o información que considere oportuna compartirnos, por favor, escríbanos a cualquiera de estos correos: lasigualadasoficial@gmail.com o ladisidenciaee@gmail.com.

Por Redacción Género y Diversidad

Conoce más

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.