Redescubren uso ilegal de aplicación que “desnuda” mujeres a partir de fotos

En 2019 el portal de noticias Vice denunció la existencia de una aplicación que cobraba US $50 por usar inteligencia artificial para crear desnudos a partir de fotos de mujeres. Una agencia de seguridad redescubrió esta estrategia ilegal operando en red de mensajería.

20 de octubre de 2020 - 10:00 p. m.
Empresa de ciberseguridad descubre uso creciente de tecnología de inteligencia artificial que crear falsos desnudos de mujeres a partir de fotografías.
Empresa de ciberseguridad descubre uso creciente de tecnología de inteligencia artificial que crear falsos desnudos de mujeres a partir de fotografías.
Foto: Pixabay

En 2019 un artículo publicado por el portal de noticias Vice causó un revuelo mundial al denunciar la existencia de una aplicación bautizada DeepNude que permitía a los usuarios enviar fotografías de mujeres y a cambio de US $50 les devolvía una imagen de la misma mujer pero desnuda. La aplicación usaba inteligencia artificial para crear esos falsos desnudos pero realistas.

En pocas horas la denuncia tuvo efecto y a los creadores no les quedó otra opción que eliminarla. Ahora una nueva investigación conducida por la compañía Sensity AI especializada en ciberseguridad anunció que había logrado detectar un sistema similar operando en la red de mensajería Telegram. Peor aún: la tecnología está funcionando de forma más simple según informó la revista MIT Technology Review pues cualquier usuario puede enviar una fotografía a un bot (programa informático que efectúa automáticamente tareas repetitivas a través de Internet) y de forma gratuita obtiene de vuelta la imagen de la persona desnuda.

El servicio ofrece la posibilidad de pagar una pequeña cantidad de dinero, menos de dos dólares, para recibir algunos beneficios extra como recibir fotos sin marcas de agua o recibirlas a mayor velocidad.

Según la revista, hasta julio de 2020 el bot ya se había utilizado para “desnudar” al menos a 100.000 mujeres. “Por lo general, son niñas”, comentó Giorgio Patrini, director ejecutivo de la compañía de ciberseguridad a la revista. El análisis de la compañía mostró que el número de usuarios ha ido creciendo y un 70% de ellos son de Rusia.

Uno de los temores de los expertos en casos de acoso sexual es que este tipo de tecnología estaría creando toda una nueva dimensión de problemas. “Esto agrega una dimensión completamente nueva al acoso, porque las víctimas no se dan cuenta de que tales imágenes existen”, anotó la revista.

Estas tecnologías estarían haciendo más profundo el problema del “porno de venganza” en el que se usan imágenes desnudas para humillar o manipular a las personas al mezclarlo con la creación de imágenes falsas.  “Se trata de un problema muy grave —los deepfakes desafían la mayoría de las leyes de estado relacionadas con el porno vengativo, porque no representan la desnudez real de la víctima, pero, sin embargo, las leyes federales protegen a las compañías y las plataformas de las redes sociales donde proliferan”, explicaba hace menos de un año la abogada Carrie Goldberg al portal Vice. (Lea: ¿Qué es la pornovenganza?, el estado de Nueva York la convirtió en crimen).

A la par con este hallazgo, la empresa Sensity AI descubrió que el algoritmo de desvestir "está comenzando a aplicarse a videos, como imágenes de modelos en bikini caminando por una pasarela. En este momento, el algoritmo debe aplicarse fotograma a fotograma, “es muy rudimentario en este momento”, apuntó Patrini. “Pero estoy seguro de que la gente lo perfeccionará y también ofrecerá un servicio de licencias para eso”.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar