Publicado originalmente por MIT Technology Review
De acordo com uma nova pesquisa, falsidades e deepfakes gerados por IA parecem não ter tido efeito nos resultados das eleições no Reino Unido, na França e no Parlamento Europeu neste ano.
Desde o início do boom da IA generativa, tem havido um medo generalizado de que as ferramentas de IA possam aumentar a capacidade de atores mal-intencionados de espalhar conteúdo falso com o potencial de interferir nas eleições ou até mesmo influenciar os resultados. Essas preocupações foram particularmente intensificadas este ano, quando se esperava que bilhões de pessoas votassem em mais de 70 países.
Esses medos parecem ter sido injustificados, diz Sam Stockwell, o pesquisador do Instituto Alan Turing que conduziu o estudo. Ele se concentrou em três eleições em um período de quatro meses, de maio a agosto de 2024, coletando dados sobre relatórios públicos e artigos de notícias sobre uso indevido de IA. Stockwell identificou 16 casos de falsidades ou deepfakes habilitados por IA que se tornaram virais durante as eleições gerais do Reino Unido e apenas 11 casos nas eleições da UE e da França combinadas, nenhum dos quais pareceu influenciar definitivamente os resultados. O conteúdo falso de IA foi criado por atores nacionais e grupos ligados a países hostis, como a Rússia.
Essas descobertas estão de acordo com alertas recentes de especialistas de que o foco na interferência eleitoral está nos distraindo de ameaças mais profundas e duradouras à democracia .
O conteúdo gerado por IA parece ter sido ineficaz como ferramenta de desinformação na maioria das eleições europeias deste ano até agora. Isso, diz Stockwell, ocorre porque a maioria das pessoas que foram expostas à desinformação já acreditavam em sua mensagem subjacente (por exemplo, que os níveis de imigração para seu país são muito altos). A análise de Stockwell mostrou que as pessoas que estavam ativamente envolvidas com essas mensagens deepfake, compartilhando-as e amplificando-as, tinham alguma afiliação ou expressaram anteriormente opiniões que se alinhavam com o conteúdo. Portanto, o material tinha mais probabilidade de fortalecer visões preexistentes do que influenciar eleitores indecisos.
Táticas de interferência eleitoral testadas e comprovadas, como inundar seções de comentários com bots e explorar influenciadores para espalhar falsidades, continuaram muito mais eficazes. Atores ruins usaram principalmente IA generativa para reescrever artigos de notícias com seu próprio toque ou para criar mais conteúdo online para fins de desinformação.
“A IA não está realmente fornecendo muita vantagem por enquanto, já que métodos existentes e mais simples de criar informações falsas ou enganosas continuam prevalecendo”, diz Felix Simon, pesquisador do Reuters Institute for Journalism, que não estava envolvido na pesquisa.
No entanto, é difícil tirar conclusões firmes sobre o impacto da IA nas eleições neste estágio, diz Samuel Woolley, especialista em desinformação da Universidade de Pittsburgh. Isso ocorre em parte porque não temos dados suficientes.
Políticos no Reino Unido, como o ex-primeiro-ministro Rishi Sunak, foram alvos de deepfakes de IA que, por exemplo, os mostravam promovendo golpes ou admitindo corrupção financeira. Candidatas também foram alvos de conteúdo deepfake sexual não consensual, com a intenção de menosprezá-las e intimidá-las.
“Há, é claro, um risco de que, a longo prazo, quanto mais os candidatos políticos forem alvos de assédio online, ameaças de morte e difamações pornográficas deepfake, isso pode ter um efeito realmente inibidor sobre sua disposição de, digamos, participar de eleições futuras, mas também prejudicar obviamente seu bem-estar”, diz Stockwell.
Talvez mais preocupante, diz Stockwell, sua pesquisa indica que as pessoas estão cada vez mais incapazes de discernir a diferença entre conteúdo autêntico e gerado por IA no contexto eleitoral. Os políticos também estão tirando vantagem disso. Por exemplo, candidatos políticos nas eleições do Parlamento Europeu na França compartilharam conteúdo gerado por IA amplificando narrativas anti-imigração sem revelar que elas foram feitas com IA…
Veja o artigo completo no site MIT Technology Review