Novo Assistente de IA do Google Quer Fazer Chamadas de Vídeo pelo seu Celular e seus Óculos

Assistentes de inteligência artificial estão adquirindo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora, o Google está anunciando um assistente rival com capacidades semelhantes.

Na conferência para desenvolvedores I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de inteligência artificial especialista do Google, que pode ver através do telefone do usuário e de outros objetos como óculos inteligentes. O assistente “se baseia” no Gemini, o chatbot existente do Google, diz a empresa, e algumas de suas capacidades chegarão ao aplicativo e à experiência web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que tem como objetivo criar “um agente de inteligência artificial universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro onde você pode ter um assistente especialista ao seu lado, através do seu telefone, ou em novos formatos emocionantes como óculos”, disse Hassabis a uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de inteligência artificial através do telefone enquanto caminha por um escritório. Através da câmera do telefone, eles mostram ao assistente de inteligência artificial um recipiente de lápis de cera como se estivessem falando através do FaceTime e pedem para ele fazer uma “aliteração criativa”.

“Os lápis de cera criam colorações alegres”, disse. “Certamente criam criações coloridas.” A pessoa continua interagindo com o robô de IA em sua caminhada, depois percebe que esqueceu os óculos e pede ajuda para encontrá-los. “Estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA pode olhar através deles também – e identifica uma ilustração representando o gato de Schrodinger em um quadro branco.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelhavam aos headsets mais volumosos típicos.

“Um agente como este precisa entender e responder ao nosso mundo complexo e dinâmico da mesma forma que fazemos”, disse Hassabis na conferência. “Ele teria que absorver e lembrar o que vê para poder entender o contexto e agir. E teria que ser proativo, educável e pessoal. Assim você pode falar com ele naturalmente sem atraso ou demora.”

É isso que o Projeto Astra está tentando fazer, disse ele, e está fazendo “grandes progressos”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração para os participantes da conferência Google I/O, provavelmente levará um tempo até que a tecnologia chegue às mãos dos consumidores comuns.