Publicado originalmente por MIT Technology Review
Na semana passada, um memorando vazado supostamente escrito por Luke Sernau, um engenheiro sênior do Google, disse em voz alta o que muitos no Vale do Silício devem ter sussurrado por semanas: um código aberto gratuito para todos está ameaçando o domínio da Big Tech sobre IA.
Novos modelos de linguagem grande de código aberto – alternativas ao Bard do Google ou ao ChatGPT da OpenAI que pesquisadores e desenvolvedores de aplicativos podem estudar, desenvolver e modificar – estão caindo como doces de uma piñata. Essas são versões menores e mais baratas dos melhores modelos de IA criados por grandes empresas que (quase) se igualam a eles em desempenho – e são compartilhados gratuitamente.
Empresas como o Google – que revelou em sua vitrine anual de produtos esta semana que está lançando IA generativa em tudo o que tem, do Gmail a Fotos e Mapas – estavam muito ocupadas olhando por cima dos ombros para ver a verdadeira concorrência chegando, escreve Sernau: “Enquanto estivemos brigando, uma terceira facção está silenciosamente comendo nosso almoço.”
De muitas maneiras, isso é uma coisa boa. O maior acesso a esses modelos ajudou a impulsionar a inovação – também pode ajudar a detectar suas falhas. A IA não prosperará se apenas algumas empresas mega-ricas conseguirem controlar essa tecnologia ou decidir como ela é usada.
Mas esse boom de código aberto é precário. A maioria dos lançamentos de código aberto ainda se baseia em modelos gigantes lançados por grandes empresas com bolsos cheios. Se a OpenAI e a Meta decidirem fechar as portas, uma cidade em expansão pode se tornar um remanso.
Por exemplo, muitos desses modelos são construídos sobre o LLaMA, um grande modelo de linguagem de código aberto lançado pela Meta AI. Outros usam um enorme conjunto de dados públicos chamado Pile, que foi elaborado pela organização sem fins lucrativos de código aberto EleutherAI. Mas o EleutherAI existe apenas porque a abertura do OpenAI significa que um grupo de codificadores foi capaz de fazer engenharia reversa de como o GPT-3 foi feito e, em seguida, criar o seu próprio em seu tempo livre.
“A Meta AI fez um ótimo trabalho treinando e lançando modelos para a comunidade de pesquisa”, diz Stella Biderman, que divide seu tempo entre a EleutherAI, onde é diretora executiva e chefe de pesquisa, e a empresa de consultoria Booz Allen Hamilton. Sernau também destaca o papel crucial da Meta AI em seu memorando do Google. (O Google confirmou ao MIT Technology Review que o memorando foi escrito por um de seus funcionários, mas observa que não é um documento de estratégia oficial.)
Tudo isso pode mudar. A OpenAI já está revertendo sua política aberta anterior por causa de temores de concorrência. E a Meta pode começar a querer reduzir o risco de que iniciantes façam coisas desagradáveis com seu código-fonte aberto. “Sinceramente, sinto que é a coisa certa a fazer agora”, diz Joelle Pineau, diretora-gerente da Meta AI, sobre abrir o código para pessoas de fora. “Essa é a mesma estratégia que vamos adotar para os próximos cinco anos? Não sei, porque a IA está se movendo muito rapidamente.”
Se a tendência de fechar o acesso continuar, não apenas a multidão de código aberto ficará à deriva – mas a próxima geração de inovações de IA estará inteiramente de volta nas mãos dos maiores e mais ricos laboratórios de IA do mundo.
O futuro de como a IA é feita e usada está em uma encruzilhada.
..
Veja o artigo completo no site MIT Technology Review