Inteligência Artificial nova do Google Quer Fazer Chamadas de Vídeo Pelo Seu Celular — e Seus Óculos

Assistentes de IA estão adquirindo mais sentidos. Na segunda-feira, a OpenAI mostrou um novo modelo ChatGPT que promete ver, ouvir e falar por smartphones, entre outras novas habilidades. Agora, o Google está anunciando um assistente rival com capacidades semelhantes.

Na conferência de desenvolvedores da empresa I/O na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de IA especialista do Google que pode ver através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “abrange” o Gemini, chatbot existente do Google, e algumas de suas capacidades chegarão ao aplicativo Gemini e à experiência web ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que tem como objetivo criar “um agente de IA universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro onde você pode ter um assistente especialista ao seu lado, através do seu telefone, ou de novas formas emocionantes como os óculos,” disse Hassabis para uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através de seu telefone enquanto caminha por um escritório. Através da câmera, mostram ao assistente de IA um recipiente de lápis de cera como se estivessem conversando através do FaceTime e pedem para fazer uma “aliteração criativa”.

“Eles certamente criam criações coloridas alegremente,” disse. A pessoa continua interagindo com o robô de IA em sua caminhada, então percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha,” responde o robô.

Quando o usuário coloca esses óculos, o assistente de IA pode olhar através deles também – e identifica uma ilustração representando o gato de Schrödinger em uma lousa.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se parecem com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelham a headsets típicos e volumosos.

“Uma agente como esta teria que entender e responder ao nosso mundo complexo e dinâmico como nós fazemos,” disse Hassabis na conferência. “Ela teria que ver e lembrar o que vê para entender o contexto e agir. E teria que ser proativa, ensinável e pessoal. Para que você possa falar com ele naturalmente sem atraso ou demora.”

É isso que o Projeto Astra está tentando fazer, ele disse, e está fazendo “grandes avanços”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração para os participantes de sua conferência Google I/O, provavelmente demorará um pouco para que a tecnologia chegue às mãos dos consumidores do dia a dia.