Três maneiras de combater a pornografia deepfake

Publicado originalmente por MIT Technology Review

Na semana passada, imagens sexualmente explícitas de Taylor Swift, uma das maiores estrelas pop do mundo, tornaram-se virais online. Milhões de pessoas viram pornografia deepfake não consensual de Swift na plataforma de mídia social X, anteriormente conhecida como Twitter. Desde então, X tomou a medida drástica de bloquear todas as pesquisas por Taylor Swift para tentar controlar o problema. 

Este não é um fenômeno novo: os deepfakes já existem há anos. No entanto, a ascensão da IA ​​generativa tornou mais fácil do que nunca a criação de pornografia deepfake e o assédio sexual de pessoas usando imagens e vídeos gerados por IA. 

De todos os tipos de danos relacionados com a IA generativa, os deepfakes não consensuais afetam o maior número de pessoas, sendo as mulheres a grande maioria dos alvos, afirma Henry Ajder, especialista em IA especializado em IA generativa e meios de comunicação sintéticos.

Felizmente, há alguma esperança. Novas ferramentas e leis poderiam tornar mais difícil para os invasores transformarem as fotos das pessoas em armas e poderiam nos ajudar a responsabilizar os perpetradores. 

Aqui estão três maneiras de combater a pornografia deepfake não consensual. 

As plataformas de mídia social examinam as postagens carregadas em seus sites e removem o conteúdo que vai contra suas políticas. Mas esse processo é, na melhor das hipóteses, irregular e perde muito conteúdo prejudicial, como mostram os vídeos do Swift no X. Também é difícil distinguir entre conteúdo autêntico e conteúdo gerado por IA. 

Uma solução técnica poderia ser marcas d’água. As marcas d’água escondem um sinal invisível nas imagens que ajuda os computadores a identificar se são geradas por IA. Por exemplo, o Google desenvolveu um sistema chamado SynthID, que utiliza redes neurais para modificar pixels em imagens e adiciona uma marca d’água invisível ao olho humano. Essa marca foi projetada para ser detectada mesmo se a imagem for editada ou capturada de tela. Em teoria, essas ferramentas poderiam ajudar as empresas a melhorar sua moderação de conteúdo e torná-las mais rápidas na detecção de conteúdo falso, incluindo deepfakes não consensuais.

Prós: As marcas d’água podem ser uma ferramenta útil que torna mais fácil e rápida a identificação de conteúdo gerado por IA e a identificação de postagens tóxicas que devem ser removidas. Incluir marcas d’água em todas as imagens por padrão também tornaria mais difícil para os invasores criarem deepfakes não consensuais, diz Sasha Luccioni, pesquisadora da startup de IA Hugging Face, que estudou preconceitos em sistemas de IA.

Mas uma série de novas ferramentas defensivas permitem que as pessoas protejam as suas imagens da exploração alimentada pela IA, fazendo com que pareçam deformadas ou distorcidas nos sistemas de IA. 

Uma dessas ferramentas, chamada PhotoGuard, foi desenvolvida por pesquisadores do MIT. Funciona como um escudo protetor, alterando os pixels das fotos de maneiras invisíveis ao olho humano. Quando alguém usa um aplicativo de IA como o gerador de imagens Stable Diffusion para manipular uma imagem que foi tratada com PhotoGuard, o resultado parecerá irreal. Fawkes, uma ferramenta semelhante desenvolvida por pesquisadores da Universidade de Chicago, encobre imagens com sinais ocultos que tornam mais difícil para o software de reconhecimento facial reconhecer rostos. 

Outra nova ferramenta, chamada Nightshade, poderia ajudar as pessoas a lutar contra o uso em sistemas de IA. A ferramenta, desenvolvida por pesquisadores da Universidade de Chicago, aplica uma camada invisível de “veneno” nas imagens. A ferramenta foi desenvolvida para proteger artistas de terem suas imagens protegidas por direitos autorais copiadas por empresas de tecnologia sem o seu consentimento. No entanto, em teoria, ele poderia ser usado em qualquer imagem que seu proprietário não quisesse que fosse destruída por sistemas de IA. Quando as empresas de tecnologia obtêm material de treinamento on-line sem consentimento, essas imagens envenenadas quebrarão o modelo de IA. Imagens de gatos podem virar cachorros, e imagens de Taylor Swift também podem virar cachorros…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: