Por que colocar marcas d’água em conteúdo gerado por IA não garante confiança online

Publicado originalmente por MIT Technology Review

No final de Maio, o Pentágono parecia estar em chamas. 

A poucos quilômetros de distância, assessores e repórteres da Casa Branca lutaram para descobrir se uma imagem viral online do prédio explodindo era de fato real. 

Não foi. Foi gerado por IA. No entanto, os responsáveis ​​governamentais, os jornalistas e as empresas tecnológicas não conseguiram agir antes que a imagem tivesse um impacto real. Não só causou confusão como levou a uma queda nos mercados financeiros . 

Conteúdo manipulado e enganoso não é um fenômeno novo. Mas a IA permite a criação de conteúdos cada vez mais acessíveis, sofisticados e hiper-realistas que – embora possam ser utilizados para o bem, na expressão artística ou em melhorias de acessibilidade – também podem ser utilizados de forma abusiva para lançar dúvidas sobre eventos políticos ou para difamar, assediar e explorar. 

Seja para promover a integridade eleitoral, proteger provas, reduzir a desinformação ou preservar registos históricos, o público poderia beneficiar de saber quando o conteúdo foi manipulado ou gerado com IA. Se a imagem do Pentágono contivesse sinais de que foi gerada por IA, as plataformas tecnológicas poderiam ter sido capazes de agir mais rapidamente; eles poderiam ter reduzido imediatamente sua distribuição ou talvez rotulado o conteúdo para que o público pudesse identificá-lo mais facilmente como falso. A confusão e, por extensão, o movimento do mercado, poderiam ter sido evitadas.  

Não há dúvida de que precisamos de mais transparência se quisermos ser capazes de diferenciar entre o que é real e o que é sintético. No mês passado, a Casa Branca ponderou sobre como fazer isto, anunciando que sete das mais proeminentes empresas de IA se comprometeram a “desenvolver medidas técnicas robustas para garantir que os utilizadores saibam quando o conteúdo é gerado por IA, como marcas de água”. 

Métodos de divulgação como marcas d’água são um bom começo. No entanto, são complicados de colocar em prática e não são uma solução rápida. Não está claro se as marcas d’água teriam ajudado os usuários do Twitter a reconhecer a imagem falsa do Pentágono ou, mais recentemente, a identificar a voz de Donald Trump numa campanha publicitária como sintética. Outros métodos, como a divulgação da proveniência e os metadados, poderão ter mais impacto? E o mais importante, a mera divulgação de que o conteúdo foi gerado por IA ajudaria o público a diferenciar os fatos da ficção ou a mitigar os danos no mundo real?  

Para começar a responder a estas questões, precisamos esclarecer o que entendemos por marca d’água e outros tipos de métodos de divulgação. É necessário que fique claro o que são, o que podemos razoavelmente esperar que façam e quais os problemas que permanecem mesmo depois de serem introduzidos. Embora os debates sobre definições possam parecer pedantes, a utilização generalizada do termo “marca de água” está atualmente a contribuir para a confusão e a falta de coordenação em todo o setor da IA. Definir o que queremos dizer com estes diferentes métodos é um pré-requisito crucial para que o campo da IA ​​trabalhe em conjunto e chegue a acordo sobre padrões de divulgação. Caso contrário, as pessoas estarão falando com propósitos contrários.

Para complicar ainda mais a questão, a marca d’água é frequentemente usada como um termo genérico para o ato geral de fornecer divulgações de conteúdo, embora existam muitos métodos. Uma leitura mais atenta dos compromissos da Casa Branca descreve outro método de divulgação conhecido como proveniência, que se baseia em assinaturas criptográficas e não em sinais invisíveis. No entanto, isso é frequentemente descrito como marca d’água na imprensa popular. Se você acha essa confusão de termos confusa, tenha certeza de que você não é o único. Mas a clareza é importante: o setor da IA ​​não pode implementar medidas de transparência consistentes e robustas se não houver sequer acordo sobre a forma como nos referimos às diferentes técnicas.

Elaborei seis perguntas iniciais que poderiam nos ajudar a avaliar a utilidade das marcas d’água e outros métodos de divulgação para IA. Isso deve ajudar a garantir que diferentes partes discutam exatamente a mesma coisa e que possamos avaliar cada método de maneira completa e consistente. 

Ironicamente, os sinais técnicos considerados úteis para avaliar a origem do conteúdo e como ele é manipulado podem, às vezes, ser eles próprios manipulados. Embora seja difícil, marcas d’água invisíveis e visíveis podem ser removidas ou alteradas, tornando-as inúteis para nos dizer o que é ou não sintético. E, notavelmente, a facilidade com que podem ser manipulados varia de acordo com o tipo de conteúdo com o qual você está lidando…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: