Publicado originalmente por Ars Technica
Dobos: “Por que escrever regras para software manualmente quando a IA pode pensar em cada pixel para você?”
Na terça-feira, pesquisadores do Google e da Universidade de Tel Aviv revelaram o GameNGen, um novo modelo de IA que pode simular interativamente o clássico jogo de tiro em primeira pessoa Doom de 1993 em tempo real usando técnicas de geração de imagem de IA emprestadas do Stable Diffusion. É um sistema de rede neural que pode funcionar como um mecanismo de jogo limitado, potencialmente abrindo novas possibilidades para síntese de videogame em tempo real no futuro.
Por exemplo, em vez de desenhar quadros de vídeo gráficos usando técnicas tradicionais, jogos futuros poderiam usar um mecanismo de IA para “imaginar” ou alucinar gráficos em tempo real como uma tarefa de previsão.
” O potencial aqui é absurdo”, escreveu o desenvolvedor de aplicativos Nick Dobos em reação à notícia. “Por que escrever regras complexas para software manualmente quando a IA pode simplesmente pensar em cada pixel para você?”
O GameNGen pode gerar novos quadros de gameplay de Doom a mais de 20 quadros por segundo usando uma única unidade de processamento tensor (TPU), um tipo de processador especializado semelhante a uma GPU que é otimizado para tarefas de aprendizado de máquina.
Em testes, os pesquisadores dizem que dez avaliadores humanos às vezes não conseguiam distinguir entre clipes curtos (1,6 segundos e 3,2 segundos) de cenas reais do jogo Doom e resultados gerados pelo GameNGen, identificando as cenas reais do jogo em 58% ou 60% das vezes.
A síntese de videogame em tempo real usando o que pode ser chamado de ” renderização neural ” não é uma ideia completamente nova. O CEO da Nvidia, Jensen Huang, previu durante uma entrevista em março, talvez um tanto ousadamente, que a maioria dos gráficos de videogame poderia ser gerada por IA em tempo real dentro de cinco a 10 anos…
Veja o artigo completo no site Ars Technica