Novo Assistente de IA do Google Quer Conversar por Vídeo Através do Seu Telefone e dos Seus Óculos

Assistentes de inteligência artificial estão adquirindo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo ChatGPT que promete ver, ouvir e falar por smartphones, entre outras novas habilidades. Agora o Google está anunciando um assistente concorrente com capacidades semelhantes.

Na conferência de desenvolvedores I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de inteligência artificial especializado do Google que pode enxergar através do telefone do usuário e de outros objetos como óculos inteligentes. O assistente “se baseia” no Gemini, chatbot existente do Google, diz a empresa, e algumas de suas capacidades estarão disponíveis no aplicativo e experiência na web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de IA universal” para o cotidiano dos usuários. “É fácil imaginar um futuro onde você pode ter um assistente especializado ao seu lado, através do seu telefone, ou em novas formas empolgantes como óculos”, disse Hassabis para uma multidão de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA pelo telefone enquanto caminha por um escritório. Através da câmera, ela mostra ao assistente de IA um recipiente de lápis de cor como se estivesse falando por FaceTime e pede para fazer uma “aliteração criativa”.

“Os lápis de cor criam colorações alegres”, disse. “Com certeza, eles produzem criações coloridas”. A pessoa continua interagindo com o robô de IA em seu passeio, depois percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha”, responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA pode enxergar através deles também – e identifica uma ilustração que representa o gato de Schrödinger em um quadro branco.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelhavam aos headsets volumosos típicos.

“Um agente como este tem que entender e responder ao nosso mundo complexo e dinâmico assim como nós fazemos”, disse Hassabis na conferência. “Ele precisaria captar e lembrar o que vê para entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Assim você pode conversar com ele naturalmente sem falhas ou atrasos.”

É isso que o Projeto Astra visa fazer, disse ele, e está fazendo “grandes progressos”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração aos participantes de sua conferência Google I/O, provavelmente levará algum tempo até que a tecnologia chegue às mãos dos consumidores do dia a dia.