Publicado originalmente por MIT Technology Review
A OpenAI acaba de lançar o GPT-4o, um novo tipo de modelo de IA com o qual você pode se comunicar em tempo real por meio de conversas de voz ao vivo, transmissões de vídeo do seu telefone e texto. O modelo será lançado nas próximas semanas e será gratuito para todos os usuários por meio do aplicativo GPT e da interface web, segundo a empresa. Os usuários que assinam os níveis pagos do OpenAI, que começam em US$ 20 por mês, poderão fazer mais solicitações.
Mira Murati, CTO da OpenAI, liderou a demonstração ao vivo do novo lançamento um dia antes do Google revelar seus próprios avanços de IA em sua principal conferência I/O na terça-feira, 14 de maio.
O GPT-4 ofereceu recursos semelhantes, oferecendo aos usuários diversas maneiras de interagir com as ofertas de IA da OpenAI. Mas isolou-os em modelos separados, levando a tempos de resposta mais longos e custos de computação presumivelmente mais elevados. O GPT-4o agora fundiu essas capacidades em um único modelo, que Murati chamou de “omnimodelo”. Isso significa respostas mais rápidas e transições mais suaves entre tarefas, disse ela.
O resultado, sugere a demonstração da empresa, é um assistente de conversação muito parecido com Siri ou Alexa, mas capaz de responder a solicitações muito mais complexas.
“Estamos olhando para o futuro da interação entre nós e as máquinas”, disse Murati sobre a demonstração. “Acreditamos que o GPT-4o está realmente mudando esse paradigma para o futuro da colaboração, onde esta interação se torna muito mais natural.”
Barret Zoph e Mark Chen, ambos pesquisadores da OpenAI, analisaram uma série de aplicações para o novo modelo. O mais impressionante foi a facilidade com conversas ao vivo. Você poderia interromper o modelo durante suas respostas e ele pararia, ouviria e ajustaria o curso.
OpenAI também mostrou a capacidade de alterar o tom do modelo. Chen pediu à modelo que lesse uma história para dormir “sobre robôs e amor”, rapidamente exigindo uma voz mais dramática. O modelo tornou-se progressivamente mais teatral até que Murati exigiu que ele girasse rapidamente para uma voz de robô convincente (na qual se destacava). Embora previsivelmente houvesse algumas pequenas pausas durante a conversa enquanto o modelo raciocinava sobre o que dizer a seguir, ela se destacou como uma conversa de IA de ritmo notavelmente natural.
O modelo também pode raciocinar sobre problemas visuais em tempo real. Usando seu telefone, Zoph se filmou escrevendo uma equação de álgebra (3 x + 1 = 4) em uma folha de papel, acompanhada pelo GPT-4o. Ele o instruiu a não fornecer respostas, mas, em vez disso, a orientá-lo como um professor faria.
“O primeiro passo é obter todos os termos com x de um lado”, disse o modelo em tom amigável. “Então, o que você acha que deveríamos fazer com esse mais um?”
Assim como as gerações anteriores do GPT, o GPT-4o armazenará registros das interações dos usuários com ele, o que significa que o modelo “tem uma sensação de continuidade em todas as suas conversas”, segundo Murati. Outros novos destaques incluem tradução ao vivo, a capacidade de pesquisar suas conversas com o modelo e o poder de pesquisar informações em tempo real…
Veja o artigo completo no site MIT Technology Review