Nova Assistente de IA do Google quer fazer videochamadas através do seu celular – e dos seus óculos.

Assistentes de IA estão adquirindo mais sentidos. Na segunda-feira, a OpenAI mostrou um novo modelo ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora, a Google está anunciando um assistente rival com capacidades semelhantes.

Na conferência de desenvolvedores I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de IA da Google que pode enxergar através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “amplia” o Gemini, chatbot existente da Google, diz a empresa, e algumas de suas capacidades chegarão ao aplicativo Gemini e à experiência na web ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que tem como objetivo criar “um agente de IA universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro onde você pode ter um assistente especializado ao seu lado, pelo telefone, ou em novos formatos empolgantes como óculos”, disse Hassabis a uma multidão de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através do telefone enquanto caminha por um escritório. Através da câmera, eles mostram ao assistente de IA um recipiente de lápis de cor como se estivessem falando pelo FaceTime e pedem para ele criar uma “aliteração criativa”.

“Eles certamente fazem criações coloridas.” A pessoa continua interagindo com o bot de IA em sua caminhada, depois percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA também pode olhar através deles e identifica uma ilustração representando o gato de Schrodinger em um quadro branco.

Não está claro se esses óculos são um novo produto que a Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelhavam aos headsets volumosos típicos.

“Um agente assim precisa entender e responder ao nosso mundo complexo e dinâmico da mesma forma que nós fazemos”, disse Hassabis na conferência. “Ele precisaria absorver e lembrar o que vê para poder entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Assim, você pode falar com ele naturalmente, sem atrasos ou interferências.”

É isso que o Projeto Astra pretende fazer, disse ele, e está avançando bastante.

Embora o protótipo do assistente de IA da Google esteja disponível para demonstração aos participantes de sua conferência Google I/O, provavelmente vai demorar um pouco antes que a tecnologia chegue às mãos dos consumidores comuns.