Sites cheios de texto gerado por IA estão ganhando dinheiro com anúncios programáticos

Publicado originalmente por MIT Technology Review

As pessoas estão usando chatbots de IA para preencher sites indesejados com texto gerado por IA que atrai anunciantes pagantes, de acordo com um novo relatório da organização de pesquisa de mídia NewsGuard que foi compartilhado exclusivamente com o MIT Technology Review.

Mais de 140 grandes marcas estão pagando por anúncios que acabam em sites não confiáveis ​​escritos por IA, provavelmente sem seu conhecimento. Noventa por cento dos anúncios de grandes marcas encontrados nesses sites de notícias gerados por IA foram veiculados pelo Google, embora as próprias políticas da empresa proíbam os sites de colocar anúncios veiculados pelo Google em páginas que incluem “conteúdo de spam gerado automaticamente”. A prática ameaça acelerar a chegada de uma Internet com falhas e spam que é invadida por conteúdo gerado por IA, além de desperdiçar grandes quantidades de dinheiro de anúncios.

A maioria das empresas que anunciam on-line fazem lances automáticos para veicular esses anúncios por meio de uma prática chamada “publicidade programática”. Algoritmos colocam anúncios em vários sites de acordo com cálculos complexos que otimizam o número de olhos que um anúncio pode atrair do público-alvo da empresa. Como resultado, grandes marcas acabam pagando por veiculações de anúncios em sites dos quais talvez nunca tenham ouvido falar, com pouca ou nenhuma supervisão humana.

Para tirar vantagem, fazendas de conteúdo surgiram onde humanos mal pagos produzem conteúdo de baixa qualidade para atrair receita publicitária. Esses tipos de sites já têm um nome: sites “feitos para publicidade”. Eles usam táticas como clickbait, vídeos de reprodução automática e anúncios pop-up para extrair o máximo de dinheiro possível dos anunciantes. Em uma pesquisa recente, a Association of National Advertisers descobriu que 21% das impressões de anúncios em sua amostra foram para sites feitos para publicidade. O grupo estimou que cerca de US$ 13 bilhões são desperdiçados globalmente nesses locais a cada ano.

Agora, a IA generativa oferece uma nova maneira de automatizar o processo de criação de conteúdo e criar mais sites indesejados com menos esforço, resultando no que o NewsGuard chama de “sites de notícias gerados por inteligência artificial não confiáveis”. Um site sinalizado pelo NewsGuard produziu mais de 1.200 artigos por dia.

Alguns desses novos sites são mais sofisticados e convincentes do que outros, com fotos geradas por IA e biografias de autores falsos. E o problema está crescendo rapidamente. A NewsGuard, que avalia a qualidade dos sites na Internet, diz que está descobrindo cerca de 25 novos sites gerados por IA a cada semana. Foram encontrados 217 deles em 13 idiomas desde que começou a rastrear o fenômeno em abril.

O NewsGuard tem uma maneira inteligente de identificar esses sites indesejados escritos por IA. Como muitos deles também são criados sem supervisão humana, eles costumam estar repletos de mensagens de erro típicas de sistemas generativos de IA. Por exemplo, um site chamado CountyLocalNews.com tinha mensagens como “Desculpe, não posso atender a esta solicitação, pois ela vai contra os princípios éticos e morais… Como um modelo de linguagem de IA, é minha responsabilidade fornecer informações factuais e confiáveis”.

A IA do NewsGuard procura esses trechos de texto nos sites e, em seguida, um analista humano os revisa.

A MIT Technology Review analisou a lista de quase 400 anúncios individuais de mais de 140 grandes marcas que o NewsGuard identificou nos sites gerados por IA que veiculavam anúncios programáticos, que incluíam empresas de diversos setores, incluindo finanças, varejo, automóveis, assistência médica e e. -comércio. O custo médio de um anúncio programático era de US$ 1,21 por mil impressões em janeiro de 2023 e as marcas geralmente não revisam todos os posicionamentos automáticos de seus anúncios, mesmo que custem dinheiro.

..

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: