A pornografia deepfake está arruinando a vida das mulheres. Agora a lei pode finalmente bani-lo.

Publicado originalmente por MIT Technology Review

Helen Mort não podia acreditar no que estava ouvindo. Havia fotos dela nua coladas em um site pornô, um conhecido disse a ela. Mas nunca em sua vida ela havia tirado ou compartilhado fotos íntimas. Certamente deve haver algum engano? Quando ela finalmente reuniu coragem para olhar, sentiu-se assustada e humilhada.

Mort, um poeta e radialista de Sheffield, no Reino Unido, foi vítima de uma campanha de pornografia falsa. O que mais a chocou foi que as imagens eram baseadas em fotos, datadas entre 2017 e 2019, tiradas de suas contas privadas de mídia social, incluindo um perfil do Facebook que ela havia excluído.

O perpetrador havia carregado essas imagens não íntimas – fotos de férias e gravidez e até fotos dela quando adolescente – e incentivou outros usuários a editar seu rosto em fotos pornográficas violentas. Enquanto alguns eram malfeitos no Photoshop, outros eram terrivelmente realistas. Quando ela começou a pesquisar o que havia acontecido, aprendeu um novo termo: deepfakes, referindo-se à mídia gerada e manipulada por IA.

“Isso realmente faz você se sentir impotente, como se estivesse sendo colocado em seu lugar”, diz ela. “Punida por ser uma mulher com voz pública de qualquer tipo. Essa é a melhor maneira que posso descrevê-lo. É dizer: ‘Olha: sempre podemos fazer isso com você.’”

As revelações a levariam a uma busca frustrante por um recurso. Ela chamou a polícia, mas o policial disse que não havia nada que eles pudessem fazer. Ela pensou em sair totalmente da web, mas isso é crucial para seu trabalho.

Ela também não tinha ideia de quem teria feito isso. Ela estava com medo de que fosse alguém que ela considerava próximo. Ela começou a duvidar de todos, mas o mais doloroso, ela começou a duvidar de seu ex-marido. Eles são bons amigos, mas o agressor usou seu primeiro nome como pseudônimo. “Não é ele – absolutamente não. Mas é muito triste”, diz ela. “O fato de eu estar pensando nisso era um sinal de como você começa a duvidar de toda a sua realidade.”

Embora os deepfakes tenham recebido enorme atenção por seus potenciais perigos políticos, a grande maioria deles é usada para atingir mulheres. A Sensity AI, uma empresa de pesquisa que rastreia vídeos deepfake online desde dezembro de 2018, constatou consistentemente que entre 90% e 95% deles são pornografia não consensual. Cerca de 90% disso é pornografia não consensual de mulheres. “Esta é uma questão de violência contra as mulheres”, diz Adam Dodge, fundador da EndTAB, uma organização sem fins lucrativos que educa as pessoas sobre o abuso possibilitado pela tecnologia…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: