Novo Assistente de IA do Google quer fazer videochamadas pelo seu celular — e seus óculos

Os assistentes de inteligência artificial estão adquirindo mais sentidos. Na segunda-feira, a OpenAI mostrou um novo modelo ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora o Google está anunciando um assistente rival com capacidades semelhantes.

Na conferência de desenvolvedores do I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de inteligência artificial especialista do Google que pode ver através do telefone do usuário e de outros objetos como óculos inteligentes. O assistente “se baseia” no Gemini, o chatbot existente do Google, diz a empresa, e algumas de suas capacidades chegarão ao aplicativo e experiência web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de inteligência artificial universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro em que você pode ter um assistente especialista ao seu lado, através do seu telefone ou novos formatos empolgantes como óculos”, disse Hassabis a uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa falando com um agente de inteligência artificial através do telefone enquanto anda por um escritório. Através da câmera, eles mostram ao assistente de IA um recipiente de giz de cera como se estivessem falando através do FaceTime e pedem para fazer uma “aliteração criativa”.

“Os gizes de cera coloridos criam alegremente”, disse. “Com certeza, eles criam criações coloridas.” A pessoa continua interagindo com o bot de IA em sua caminhada, depois percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA pode olhar através deles também – e identifica uma ilustração representando o gato de Schrödinger em um quadro branco.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se parecem com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelham a headsets típicos mais volumosos.

“Um agente como esse precisa entender e responder ao nosso mundo complexo e dinâmico como nós fazemos”, disse Hassabis na conferência. “Ele teria que captar e lembrar o que vê para entender o contexto e agir. E teria que ser proativo, educável e pessoal. Então você pode conversar com ele naturalmente, sem atraso.”

É isso que o Projeto Astra está tentando fazer, disse ele, e está dando “grandes passos”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração aos participantes da sua conferência I/O, provavelmente levará um tempo antes que a tecnologia chegue às mãos dos consumidores comuns.