O Novo Assistente de IA do Google Quer Fazer Videochamadas Através do Seu Telefone e Óculos

Assistentes de inteligência artificial estão adquirindo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo ChatGPT que promete ver, ouvir e falar por meio de smartphones, entre outras novas habilidades. Agora o Google está anunciando um assistente rival com capacidades semelhantes.

Na conferência para desenvolvedores da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de inteligência artificial especialista do Google que pode ver através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “se baseia” no Gemini, chatbot existente do Google, diz a empresa, e algumas de suas capacidades devem estar disponíveis no aplicativo Gemini e na experiência web ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de AI universal” para a vida diária dos usuários. “É fácil imaginar um futuro em que você tenha um assistente especialista ao seu lado, através do seu telefone, ou novos formatos emocionantes como óculos”, disse Hassabis a uma plateia de alguns mil desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA por meio do telefone enquanto caminha por um escritório. Através da câmera do telefone, eles mostram ao assistente de IA um contêiner com lápis de cor, como se estivessem falando por FaceTime, e pedem para criar uma “aliteração criativa”.

“Coloridos lápis criam alegria. Eles certamente criam criações coloridas”, disse o assistente. A pessoa continua interagindo com o bot de IA durante a caminhada, então percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA também pode olhar através deles – e identifica uma ilustração representando o gato de Schrödinger em um quadro branco.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se parecem com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelham aos headsets mais típicos e volumosos.

“Um agente assim precisa entender e responder ao nosso mundo complexo e dinâmico como fazemos,” disse Hassabis na conferência. “Ele precisaria absorver e lembrar do que vê para entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Para que você possa falar com ele naturalmente, sem atrasos ou interrupções”.

É isso que o Projeto Astra está visando fazer, segundo ele, e está fazendo “grandes progressos”.

Embora o protótipo do assistente de IA do Google esteja disponível para demonstrações para os participantes de sua conferência Google I/O, provavelmente levará um tempo até que a tecnologia chegue às mãos dos consumidores do dia a dia.