Novo assistente de IA do Google quer fazer videochamadas pelo seu celular – e seus óculos

Assistentes de IA estão adquirindo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo do ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora, o Google está anunciando um assistente concorrente com capacidades semelhantes.

Na conferência de desenvolvedores I/O da empresa, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de IA especializado do Google que pode ver através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “se baseia” no Gemini, chatbot existente do Google, diz a empresa, e algumas de suas capacidades estarão disponíveis no aplicativo e experiência web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que tem como objetivo criar “um agente de IA universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro em que você possa ter um assistente especializado ao seu lado, através do seu telefone, ou em novos e emocionantes formatos como óculos”, disse Hassabis para uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através de seu telefone enquanto caminha por um escritório. Através da câmera, eles mostram ao assistente de IA um recipiente de lápis de cor, como se estivessem falando através do FaceTime, e pedem para ele fazer uma “aliteração criativa.”

“Esfregão colorido cria alegria” foi a resposta. “Eles certamente criam criações coloridas.” A pessoa continua interagindo com o robô de IA em sua caminhada, até perceber que esqueceu seus óculos e pedir ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o robô.

Quando o usuário coloca esses óculos, o assistente de IA também pode enxergar através deles, identificando uma ilustração representando o gato de Schrödinger em um quadro branco.

Ainda não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem com os headsets volumosos típicos.

“Um agente como esse precisa entender e responder ao nosso mundo complexo e dinâmico da mesma forma que nós fazemos”, disse Hassabis na conferência. “Ele precisaria absorver e memorizar o que vê para compreender o contexto e agir. E ele teria que ser proativo, ensinável e pessoal. Para que você possa falar com ele naturalmente, sem atrasos ou atrasos.”

É isso que o Projeto Astra está tentando fazer, disse ele, e está fazendo “grandes progressos.”

Embora o protótipo do assistente de IA do Google esteja disponível para demonstração para os participantes de sua conferência Google I/O, provavelmente vai demorar um pouco até que a tecnologia chegue às mãos dos consumidores comuns.