O Novo Assistente de AI do Google Quer Fazer Videochamadas pelo Seu Telefone – e pelos Seus Óculos

Assistentes de IA estão expandindo os sentidos. Na segunda-feira, a OpenAI mostrou um novo modelo ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras habilidades. Agora o Google está anunciando um assistente concorrente com capacidades semelhantes.

Na conferência para desenvolvedores I/O da empresa, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de IA especialista do Google, que pode ver através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “constrói sobre” o Gemini, chatbot existente do Google, diz a empresa, e algumas de suas capacidades serão adicionadas ao aplicativo Gemini e à experiência na web ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de IA universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro onde você possa ter um assistente especialista ao seu lado, através do seu telefone, ou novas formas empolgantes como óculos”, disse Hassabis para uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através do telefone enquanto caminha por um escritório. Através da câmera, eles mostram ao assistente de IA um contêiner de lápis de cor como se estivessem conversando através do FaceTime e pedem para fazer uma “aliteração criativa”.

“Os lápis de cor criam design alegremente”, disse o assistente de IA. “Eles realmente criam criações coloridas.” A pessoa continua interagindo com o bot de IA em sua caminhada, então percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca os óculos, o assistente de IA também pode enxergar através deles e identifica uma ilustração representando o gato de Schrödinger em uma lousa.

Não está claro se os óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelhavam a headsets mais volumosos.

“Um agente como esse precisa entender e responder ao nosso mundo complexo e dinâmico assim como nós fazemos”, disse Hassabis na conferência. “Ele precisaria captar e lembrar do que vê para entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Para que você possa falar com ele naturalmente sem atraso.”

É isso que o Projeto Astra está tentando alcançar, disse ele, e está fazendo “grandes progressos”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração aos participantes de sua conferência Google I/O, provavelmente vai demorar um pouco até que a tecnologia chegue às mãos dos consumidores cotidianos.