ChatGPT ‘alucina’. Alguns pesquisadores temem que não seja corrigível.

Publicado originalmente por The Washington Post

A Big Tech está levando a IA para milhões de pessoas. Mas a tecnologia ainda costuma inventar respostas falsas para perguntas simples.

SÃO FRANCISCO — Recentemente, pesquisadores perguntaram a duas versões do chatbot de inteligência artificial ChatGPT da OpenAI onde nasceu o professor do Instituto de Tecnologia de Massachusetts, Tomás Lozano-Pérez.

Um bot disse Espanha e o outro disse Cuba. Assim que o sistema disse aos bots para debater as respostas, aquele que dizia Espanha rapidamente se desculpou e concordou com o que tinha a resposta correta, Cuba.

A descoberta, em um artigo divulgado por uma equipe de pesquisadores do MIT na semana passada, é o mais recente avanço potencial para ajudar os chatbots a chegar à resposta correta. Os pesquisadores propuseram o uso de diferentes chatbots para produzir várias respostas para a mesma pergunta e, em seguida, deixá-los debater entre si até que uma resposta vencesse. Os pesquisadores descobriram que o uso desse método de “sociedade de mentes” os tornava mais factuais.

“Os modelos de linguagem são treinados para prever a próxima palavra”, disse Yilun Du, pesquisador do MIT que anteriormente foi pesquisador da OpenAI e um dos autores do artigo. “Eles não são treinados para dizer às pessoas que não sabem o que estão fazendo.” O resultado são bots que agem como se quisessem agradar as pessoas precocemente, inventando respostas em vez de admitir que simplesmente não sabem.

A abordagem criativa dos pesquisadores é apenas a mais recente tentativa de resolver uma das preocupações mais prementes no campo explosivo da IA. Apesar dos incríveis saltos nas capacidades que os chatbots “generativos” como o ChatGPT da OpenAI, o Bing da Microsoft e o Bard do Google demonstraram nos últimos seis meses, eles ainda têm uma grande falha fatal: eles inventam coisas o tempo todo…

Veja o artigo completo no site The Washington Post


Mais desse tópico: