Publicidad

Las imágenes pornográficas de Taylor Swift que se viralizaron en X son falsas

En un comunicado, X aclaró que “publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido”. Incluso la Casa Blanca expresó su preocupación sobre el tema.

Alex Pigman
27 de enero de 2024 - 01:54 p. m.
New Rutherford (United States), 27/05/2023.- US singer-songwriter Taylor Swift performs during the Eras Tour, at MetLife Stadium in New Rutherford, New Jersey, USA, 26 May 2023. (Estados Unidos) EFE/EPA/SARAH YENESEL
New Rutherford (United States), 27/05/2023.- US singer-songwriter Taylor Swift performs during the Eras Tour, at MetLife Stadium in New Rutherford, New Jersey, USA, 26 May 2023. (Estados Unidos) EFE/EPA/SARAH YENESEL
Foto: EFE - SARAH YENESEL
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Fanáticos de la cantante pop Taylor Swift, políticos estadounidenses e incluso la Casa Blanca expresaron su indignación el viernes por imágenes pornográficas falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.

Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadounidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.

Las imágenes pornográficas “deepfake” -falsas pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.

Le invitamos a leer: Aprender literatura al son de Taylor Swift

El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.

“El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos”, escribió la influencer Danisha Carter en X.

“Alarmados”

Incluso la Casa Blanca expresó su preocupación sobre el tema. “Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas”, dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.

“Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea”, añadió.

X es una de las plataformas de contenido pornográfico más grandes del mundo, afirman algunos analistas, ya que sus políticas sobre desnudez son más flexibles que las de Facebook o Instagram, propiedad de Meta.

Además: Harvard abrió un curso sobre Taylor Swift para 2024, ¿en qué consiste?

Apple y Google tienen la potestad de intervenir para controlar los contenidos que circulan en las aplicaciones mediante las reglas que imponen sus sistemas operativos móviles, pero hasta ahora ambos han tolerado esta situación en X.

En un comunicado, X aclaró que “publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido” en su plataforma. “Tenemos una política de tolerancia cero hacia ese contenido”.

La red social, propiedad del magnate Elon Musk, afirmó que estaba “eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”.

Además, resaltó que estaba “vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido”. Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios de la AFP.

“Barreras necesarias”

Yvette Clarke, congresista demócrata de Nueva York que ha respaldado una legislación para luchar contra las fotos pornográficas falsas, resaltó que “con los avances en IA, crear deepfakes es más fácil y barato”.

De su lado, el legislador republicano Tom Kean, advirtió que “la tecnología de inteligencia artificial está avanzando más rápido que las barreras necesarias”. “Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta tendencia alarmante”, añadió.

Un estudio de 2019 estimó que el 96% de los vídeos del tipo “deepfake” eran pornográficos.

Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113.000 vídeos “deepfake” a los sitios web pornográficos más populares.

Por Alex Pigman

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar