Publicado originalmente por MIT Technology Review
São as Taylor Swifts do mundo que vão nos salvar. Em janeiro, deepfakes nuas de Taylor Swift viralizaram no X, o que causou indignação pública. Deepfakes explícitos não consensuais são um dos tipos mais comuns e graves de danos causados pela IA. O boom da IA generativa dos últimos anos só piorou o problema, e vimos casos de alto perfil de crianças e políticas mulheres sendo abusadas com essas tecnologias.
Embora terríveis, os deepfakes de Swift talvez tenham feito mais do que qualquer outra coisa para aumentar a conscientização sobre os riscos e parecem ter galvanizado empresas de tecnologia e legisladores a fazerem algo.
“O parafuso foi girado”, diz Henry Ajder, um especialista em IA generativa que estuda deepfakes há quase uma década. Estamos em um ponto de inflexão em que a pressão dos legisladores e a conscientização entre os consumidores é tão grande que as empresas de tecnologia não podem mais ignorar o problema, diz ele.
Primeiro, as boas notícias. Na semana passada, o Google disse que está tomando medidas para impedir que deepfakes explícitos apareçam nos resultados de pesquisa. A gigante da tecnologia está facilitando para as vítimas solicitarem que imagens explícitas falsas não consensuais sejam removidas. Ele também filtrará todos os resultados explícitos em pesquisas semelhantes e removerá imagens duplicadas. Isso evitará que as imagens apareçam novamente no futuro. O Google também está rebaixando os resultados de pesquisa que levam a conteúdo falso explícito. Quando alguém pesquisa por deepfakes e inclui o nome de alguém na pesquisa, o Google tentará exibir conteúdo não explícito de alta qualidade, como artigos de notícias relevantes.
Essa é uma medida positiva, diz Ajder. As mudanças do Google removem uma quantidade enorme de visibilidade para conteúdo deepfake pornográfico e não consensual. “Isso significa que as pessoas terão que trabalhar muito mais para encontrá-lo se quiserem acessá-lo”, diz ele.
Em janeiro, escrevi sobre três maneiras de combater deepfakes explícitos não consensuais. Isso incluía regulamentação; marcas d’água, que nos ajudariam a detectar se algo é gerado por IA; e escudos de proteção, que dificultam que invasores usem nossas imagens.
Oito meses depois, marcas d’água e escudos de proteção continuam experimentais e não confiáveis, mas a boa notícia é que a regulamentação melhorou um pouco. Por exemplo, o Reino Unido proibiu tanto a criação quanto a distribuição de deepfakes explícitos não consensuais. Essa decisão levou um site popular que distribui esse tipo de conteúdo, o Mr DeepFakes, a bloquear o acesso a usuários do Reino Unido, diz Ajder.
Olhando para minha história sobre combater deepfakes com o benefício da retrospectiva, posso ver que eu deveria ter incluído mais coisas que as empresas podem fazer. As mudanças do Google na busca são um primeiro passo importante. Mas as lojas de aplicativos ainda estão cheias de aplicativos que permitem que os usuários criem deepfakes nus, e os facilitadores e provedores de pagamento ainda fornecem a infraestrutura para as pessoas usarem esses aplicativos.
Ajder pede que reformulemos radicalmente a maneira como pensamos sobre deepfakes não consensuais e pressionemos as empresas a fazer mudanças que dificultem a criação ou o acesso a esse tipo de conteúdo.
“Essas coisas devem ser vistas e tratadas online da mesma forma que pensamos sobre pornografia infantil — algo que é reflexivamente repugnante, horrível e ultrajante”, ele diz. “Isso requer que todas as plataformas … tomem medidas.”..
Veja o artigo completo no site MIT Technology Review