Publicado originalmente por The Verge
O Twitter está expandindo seu programa de verificação de fatos de crowdsourcing para incluir imagens, logo depois que uma imagem falsa se tornou viral, alegando mostrar uma “explosão” perto do Pentágono.
As notas da comunidade, que são geradas pelo usuário e aparecem abaixo dos tweets, foram introduzidas para adicionar contexto ao conteúdo potencialmente enganoso no Twitter. Agora, os contribuidores poderão adicionar informações especificamente relacionadas a uma imagem, e esse contexto será preenchido abaixo de “imagens correspondentes recentes e futuras”, de acordo com a empresa .
No anúncio, o Twitter menciona especificamente imagens falsas geradas por IA, que foram uma combinação de confusas, assustadoras e divertidas ao se tornarem virais na plataforma. Por exemplo, uma foto falsa da explosão do Pentágono foi compartilhada por contas com uma marca de seleção azul verificada na semana passada, uma das quais fingiu ser afiliada à Bloomberg News. Em um exemplo menos assustador, a imagem gerada por IA do Papa Francisco parecendo uma besta do streetwear circulou e se tornou viral antes que muitas pessoas descobrissem que era falsa.
Os usuários do Twitter Community Notes poderão especificar se estão adicionando contexto ao próprio tweet ou à imagem apresentada nele. Até agora, o recurso se aplica apenas a imagens únicas, embora a empresa diga que está trabalhando para expandi-lo para vídeos e postagens com várias imagens. O Twitter adverte que as notas provavelmente não aparecerão abaixo de todas as imagens correspondentes, pois inicialmente “errará do lado da precisão”…
Veja o artigo completo no site The Verge