Publicado originalmente por MIT Technology Review
A abertura deste artigo foi alterada.
No ano passado, escrevi sobre uma proposta de uma equipe de pesquisadores do Google que argumentava que grandes modelos de linguagem como o GPT-3 poderiam um dia se tornar bons mecanismos de busca. Minha reportagem chamou a atenção de Emily M Bender, que estuda linguística computacional e questões éticas no processamento de linguagem natural na Universidade de Washington. Ela achou que era uma péssima ideia e agora revidou com um contra-argumento.
Em 14 de março, Bender e seu colega da Universidade de Washington, Chirag Shah, que trabalha com tecnologias de busca, publicaram um artigo que critica o que eles veem como uma pressa em adotar modelos de linguagem para tarefas para as quais não foram projetados. Em particular, eles temem que o uso de modelos de linguagem para pesquisa possa levar a mais desinformação e a um debate mais polarizado.
Não é mais apenas aquela pequena equipe de pesquisadores do Google. A visão está moldando a maneira como a empresa pensa sobre a pesquisa. No Google I/O do ano passado, uma vitrine anual de novos widgets e tecnologia em andamento, o CEO Sundar Pichai revelou o “mais recente avanço no entendimento da linguagem natural” do Google: um chatbot chamado LaMDA, projetado para conversar sobre qualquer assunto.
Ele então deu uma demonstração na qual o LaMDA respondeu a perguntas sobre Plutão em linguagem natural. A troca mostrou uma maneira conveniente de obter informações – uma alternativa à pesquisa. Em vez de listar os resultados após as consultas serem digitadas em uma caixa de pesquisa, o LaMDA participou de uma conversa na qual representava o planeta anão.
—(Pichai) Diga-me o que eu veria se eu visitasse
—(LaMDA) Você conseguiria ver um desfiladeiro enorme, alguns icebergs congelados, gêiseres e algumas crateras
—(Pichai) Parece lindo
..
Veja o artigo completo no site MIT Technology Review