Publicado originalmente por The Verge
A Meta lançou um novo código AI de código aberto chamado AudioCraft, que permite aos usuários criar músicas e sons inteiramente por meio de IA generativa.
Consiste em três modelos de IA, todos abordando diferentes áreas de geração de som. MusicGen usa entradas de texto para gerar música. Este modelo foi treinado em “20.000 horas de música de propriedade da Meta ou licenciada especificamente para esta finalidade”. AudioGen cria áudio a partir de instruções escritas, simulando cães latindo ou passos, e foi treinado em efeitos sonoros públicos. Uma versão aprimorada do decodificador EnCodec da Meta permite que os usuários criem sons com menos artefatos — que é o que acontece quando você manipula muito o áudio .
A empresa permitiu que a mídia ouvisse algumas amostras de áudio feitas com o AudioCraft. O ruído gerado de assobios, sirenes e zumbidos parecia bastante natural. Enquanto as cordas da guitarra nas músicas pareciam reais, elas ainda pareciam, bem, artificiais.
Meta é apenas o mais recente a combinar música e IA. O Google criou o MusicLM, um grande modelo de linguagem que gerava minutos de sons com base em prompts de texto e só é acessível a pesquisadores. Então, uma música “gerada por IA” com uma semelhança de voz de Drake e The Weeknd se tornou viral antes de ser retirada. Mais recentemente, alguns músicos, como Grimes, encorajaram as pessoas a usar suas vozes em canções feitas por IA…
Veja o artigo completo no site The Verge