Publicado originalmente por MIT Technology Review
Poucas semanas após o lançamento do ChatGPT, havia temores de que os alunos estivessem usando o chatbot para criar redações aceitáveis em segundos. Em resposta a esses temores, as startups começaram a fabricar produtos que prometem detectar se o texto foi escrito por um humano ou por uma máquina.
O problema é que é relativamente simples enganar essas ferramentas e evitar a detecção, de acordo com uma nova pesquisa que ainda não foi revisada por pares.
Debora Weber-Wulff, professora de mídia e computação na University of Applied Sciences, HTW Berlin, trabalhou com um grupo de pesquisadores de várias universidades para avaliar a capacidade de 14 ferramentas, incluindo Turnitin, GPT Zero e Compilatio, para detectar texto escrito pelo ChatGPT da OpenAI.
A maioria dessas ferramentas funciona procurando marcas de texto geradas por IA, incluindo repetição, e calculando a probabilidade de o texto ter sido gerado por IA. Mas a equipe descobriu que todos os testados lutavam para pegar o texto gerado pelo ChatGPT que havia sido ligeiramente reorganizado por humanos e ofuscado por uma ferramenta de paráfrase, sugerindo que tudo o que os alunos precisam fazer é adaptar ligeiramente os ensaios gerados pela IA para passar pelos detectores. .
“Essas ferramentas não funcionam”, diz Weber-Wulff. “Eles não fazem o que dizem que fazem. Eles não são detectores de IA.”
Os pesquisadores avaliaram as ferramentas escrevendo ensaios curtos de graduação sobre uma variedade de assuntos, incluindo engenharia civil, ciência da computação, economia, história, lingüística e literatura. Eles mesmos escreveram os ensaios para ter certeza de que o texto ainda não estava online, o que significaria que já poderia ter sido usado para treinar o ChatGPT.
Em seguida, cada pesquisador escreveu um texto adicional em bósnio, tcheco, alemão, letão, eslovaco, espanhol ou sueco. Esses textos foram passados pela ferramenta de tradução AI DeepL ou Google Translate para traduzi-los para o inglês.
A equipe então usou o ChatGPT para gerar dois textos adicionais cada, que eles ajustaram levemente em um esforço para esconder que foram gerados por IA. Um conjunto foi editado manualmente pelos pesquisadores, que reordenaram as frases e trocaram palavras, enquanto outro foi reescrito usando uma ferramenta de paráfrase de IA chamada Quillbot. No final, eles tinham 54 documentos para testar as ferramentas de detecção.
Eles descobriram que, embora as ferramentas fossem boas para identificar texto escrito por um ser humano (com 96% de precisão, em média), elas se saíam pior quando se tratava de identificar texto gerado por IA, especialmente quando ele havia sido editado. Embora as ferramentas tenham identificado o texto do ChatGPT com 74% de precisão, isso caiu para 42% quando o texto gerado pelo ChatGPT foi ligeiramente ajustado…
Veja o artigo completo no site MIT Technology Review