Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La semana pasada discutía con un grupo de estudiantes la pornografía generada con inteligencia artificial, en la que se pone el rostro de alguna celebridad que no ha dado su consentimiento sobre un video de sexo explícito, generalmente violento y misógino. Estos videos son conocidos también como deepfakes, y hay sitios enteros dedicados a publicar ese contenido. La discusión en clase surgió a partir de una investigación periodística realizada por Bellingcat, TjekDet (el medio de verificación de datos de Dinamarca), el periódico danés Politiken y la Canadian Broadcasting Corporation (CBC). La investigación logró vincular a David Do, un farmacéutico canadiense apodado Mr. DeepFakes, con el sitio de pornografía deepfake más grande del mundo.
La investigación identificó a Do a partir de su rastro digital durante los últimos diez años. Cruzaron datos de filtraciones de credenciales públicas a través de bases de datos de brechas de seguridad, correos electrónicos temporales, direcciones IP, nombres de usuario repetidos y una contraseña única que usaba. Las investigaciones de código abierto de Bellingcat permiten discutir el uso ético de la tecnología y los datos para el periodismo. Paradójicamente, en este caso, es gracias al uso de datos privados filtrados que se logró develar la identidad de quien lleva años vulnerando la privacidad de miles de personas.
Otro contraste que notaron los investigadores fue la vida falsa que llevaba el farmacéutico y “hombre de familia”. Mientras lograba mostrarse ante la gente como un ciudadano “de bien”, manejaba el sitio web enfocado en la falsedad. En el sitio web de la investigación, el subtítulo decía: “finge hasta que lo logres”. Algunos creen estar tratando con un tipo amable; otros, que pueden tener sexo con Taylor Swift o Sandra Bullock. En medio de esta discusión, un estudiante intervino con una pregunta: ¿qué tiene de malo todo esto si desde hace tiempo existe la fantasía sexual con celebridades y la pornografía no es ilegal en muchos países?
Oyéndolo hablar, recordé una escena de Friends, la serie de los 90, en la que Rachel le pide a su exnovio Ross, que la ayude a ponerse un vestido. Antes de quitarse la bata le exige que se voltee para que no la vea desnuda. Ross, extrañado, le dice que ya la ha visto millones de veces y que, de hecho, puede verla desnuda cada vez que quiera; lo único que tiene que hacer es cerrar los ojos. A continuación, cierra los ojos, sonríe con mirada libidinosa y dice “wahoo”. Rachel, en un gesto de vergüenza, se cierra aún más la bata que tiene puesta y le pide que, por favor, pare, que no quiere que se la imagine así ahora que ya no están juntos. Él le replica que no hay nada que ella pueda hacer al respecto, y vuelve a cerrar los ojos diciéndole que ahora se está imaginando a millones de Rachels desnudas y que “él es el rey”.
Lo que más incomodó en la discusión de clase no fue la existencia del deepfake en sí, sino la posibilidad de que alguien te pueda imaginar desnuda y violentada. Cuando la imagen intervenida podía ser la nuestra, apareció el verdadero dilema: no es solo pornografía, es un robo del yo. Pero justo ahí surgió una pregunta inquietante: ¿y si la saturación de lo falso termina por inmunizarnos? ¿Y si la desconfianza masiva hacia las imágenes nos libera del poder que ejercen? Quizá la reproducción infinita de lo falso nos permita mirar lo verdadero con mayor claridad y liberarnos, al menos en parte, del miedo a la destrucción de la reputación. Aunque el riesgo persiste: en el proceso, podrían quedar millones de vidas afectadas.
