O mais legal sobre óculos inteligentes não é a RA. É a IA.

Publicado originalmente por MIT Technology Review

Caso você tenha perdido o memorando, estamos avançando  em direção à próxima grande categoria de dispositivos de consumo: óculos inteligentes. Em sua conferência de desenvolvedores na semana passada, a Meta (nascida Facebook) apresentou um novo conjunto de óculos de realidade aumentada (RA) positivamente alucinante, apelidado de Orion. A Snap revelou  seus novos Snap Spectacles na semana passada. Em junho, no Google IO, a empresa provocou um par. Há rumores de que a Apple também  está trabalhando em seu próprio modelo. Ufa.

Tanto a Meta quanto a Snap agora colocaram seus óculos nas mãos de (ou talvez nos rostos de) repórteres. E ambas provaram que, após anos de promessa, as especificações de RA são finalmente A Thing. Mas o que é realmente interessante sobre tudo isso para mim não é RA. É IA.

Veja os novos óculos da Meta. Eles ainda são apenas um protótipo, pois o custo para construí-los — supostamente US$ 10.000 — é muito alto. Mas a empresa os exibiu de qualquer maneira esta semana, impressionando basicamente todos que puderam experimentá-los. As funções holográficas parecem muito legais. Os controles de gestos também parecem funcionar muito bem. E, possivelmente o melhor de tudo, eles se parecem mais ou menos com óculos normais, embora robustos. (Aviso de que posso ter uma definição diferente de óculos de aparência normal da maioria das pessoas.) Se você quiser saber mais sobre seus recursos, Alex Heath tem um ótimo artigo prático no  The Verge .

Mas o que é tão intrigante para mim sobre tudo isso é a maneira como os óculos inteligentes permitem que você interaja perfeitamente com a IA enquanto você segue seu dia. Acho que isso será muito mais útil do que visualizar objetos digitais em espaços físicos. Simplificando: não se trata dos efeitos visuais. Trata-se dos cérebros.

Hoje, se você quiser fazer uma pergunta ao ChatGPT ou ao Gemini do Google ou o que quer que seja, você basicamente  tem que usar seu telefone ou laptop para fazer isso. Claro, você pode usar sua voz, mas ele ainda precisa desse dispositivo como uma âncora. Isso é especialmente verdadeiro se você tiver uma pergunta sobre algo que vê — você vai precisar da câmera do smartphone para isso. A Meta já saiu na frente aqui ao deixar as pessoas interagirem com sua IA por meio de seus óculos inteligentes Ray-Ban Meta. É libertador ser libertado da amarra da tela. Francamente, olhar para uma tela é meio chato.

É por isso que quando experimentei os novos Spectacles do Snap algumas semanas atrás, fiquei menos impressionado com a capacidade de simular um campo de golfe na sala de estar do que com a maneira como eu podia olhar para o horizonte, perguntar ao agente de IA do Snap sobre o navio alto que vi à distância e fazer com que ele não apenas o identificasse, mas me desse uma breve descrição dele. Da mesma forma, no The Verge  Heath observa que a parte mais impressionante da demonstração do Orion do Meta foi quando ele olhou para um conjunto de ingredientes e os óculos lhe disseram o que eram e como fazer um smoothie com eles.

O recurso matador do Orion ou de outros óculos não serão os jogos de AR Ping-Pong — rebater uma bola invisível com a palma da mão é simplesmente ridículo. Mas a capacidade de usar IA multimodal para entender melhor, interagir e simplesmente aproveitar mais o mundo ao seu redor sem ser sugado para uma tela? Isso é incrível.

Assistentes que ajudam você a realizar coisas no mundo, sem precisar receber instruções complicadas ou fazer você interagir com uma tela, vão inaugurar uma nova onda de computação. Enquanto a demonstração do Projeto Astra do Google, um agente de IA ainda não lançado que foi exibido neste verão, era incrível em um telefone, foi só quando o Astra foi executado em um par de óculos inteligentes que as coisas realmente dispararam .

Anos atrás, um spox da Magic Leap, uma das primeiras empresas trabalhando em headsets de RA, tentou me convencer de que deixar objetos virtuais, como um buquê digital de flores, espalhados em espaços físicos para outros encontrarem seria legal. Ok… claro. E sim, Pokémon Go era extremamente popular. Mas foi preciso IA generativa, não truques de RA, para realmente fazer os óculos inteligentes fazerem sentido.

A IA multimodal que consegue entender fala, vídeo, imagens e texto, combinada com óculos que permitem ver o que você vê e ouvir o que você ouve, redefinirá a maneira como interagimos com o mundo tanto quanto o smartphone fez…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: