Publicado originalmente por MIT Technology Review
Ilya Sutskever, de cabeça baixa, está imerso em pensamentos. Seus braços estão bem abertos e seus dedos espalmados sobre a mesa como um pianista prestes a tocar suas primeiras notas. Sentamo-nos em silêncio.
Vim conhecer Sutskever, cofundador e cientista-chefe da OpenAI, no prédio de escritórios sem identificação de sua empresa, em uma rua comum no Mission District de São Francisco, para ouvir o que vem por aí para a tecnologia mundial que ele ajudou a trazer.. Também quero saber o que vem por aí – em particular, por que a construção da próxima geração dos principais modelos generativos de sua empresa não é mais o foco de seu trabalho.
Em vez de construir o próximo GPT ou criador de imagens DALL-E, Sutskever me disse que sua nova prioridade é descobrir como impedir que uma superinteligência artificial (uma hipotética tecnologia futura que ele vê chegando com a visão de um verdadeiro crente) se torne desonesta.
Sutskever também me conta muitas outras coisas. Ele acha que o ChatGPT pode estar consciente (se você apertar os olhos). Ele acha que o mundo precisa acordar para o verdadeiro poder da tecnologia que sua empresa e outras estão correndo para criar. E ele acha que alguns humanos um dia optarão por se fundir com as máquinas.
Muito do que Sutskever diz é selvagem. Mas não tão selvagem como teria parecido há apenas um ou dois anos. Como ele mesmo me disse, o ChatGPT já reescreveu as expectativas de muitas pessoas sobre o que está por vir, transformando “nunca acontecerá” em “acontecerá mais rápido do que você pensa”.
“É importante falar sobre o rumo que tudo isso está tomando”, diz ele, antes de prever o desenvolvimento da inteligência artificial geral (com o que ele se refere a máquinas tão inteligentes quanto os humanos), como se fosse uma aposta tão certa quanto outro iPhone: “Em algum momento realmente teremos AGI. Talvez a OpenAI o construa. Talvez alguma outra empresa o construa.”
Desde o lançamento de seu sucesso repentino, ChatGPT, em novembro passado, o burburinho em torno do OpenAI tem sido surpreendente, mesmo em uma indústria conhecida pelo hype. Ninguém se cansa dessa startup nerd de US$ 80 bilhões. Os líderes mundiais procuram (e conseguem) audiências privadas. Seus nomes desajeitados de produtos aparecem em conversas casuais.
O CEO da OpenAI, Sam Altman, passou boa parte do verão em uma turnê de divulgação de semanas, cumprimentando políticos e falando em auditórios lotados em todo o mundo. Mas Sutskever é muito menos uma figura pública e não dá muitas entrevistas.
Em um mundo sem OpenAI, Sutskever ainda teria uma entrada nos anais da história da IA. Israelo-canadense, nasceu na Rússia Soviética, mas foi criado em Jerusalém desde os cinco anos de idade (ainda fala russo e hebraico, além de inglês). Ele então se mudou para o Canadá para estudar na Universidade de Toronto com Geoffrey Hinton, o pioneiro da IA que revelou publicamente seus temores sobre a tecnologia que ajudou a inventar no início deste ano. (Sutskever não quis comentar os pronunciamentos de Hinton, mas seu novo foco na superinteligência desonesta sugere que eles estão na mesma página.)
Mais tarde, Hinton dividiria o Prêmio Turing com Yann LeCun e Yoshua Bengio por seu trabalho em redes neurais. Mas quando Sutskever se juntou a ele no início dos anos 2000, a maioria dos pesquisadores de IA acreditava que as redes neurais eram um beco sem saída. Hinton foi uma exceção. Ele já estava treinando pequenos modelos que poderiam produzir pequenas sequências de texto, um caractere por vez, diz Sutskever: “Foi ali mesmo o início da IA generativa. Foi muito legal – simplesmente não foi muito bom.”
Sutskever era fascinado pelos cérebros: como eles aprendiam e como esse processo poderia ser recriado, ou pelo menos imitado, em máquinas. Assim como Hinton, ele viu o potencial das redes neurais e da técnica de tentativa e erro que Hinton usou para treiná-las, chamada aprendizagem profunda. “Estava cada vez melhor e melhor”, diz Sutskever…
Veja o artigo completo no site MIT Technology Review