Novo Assistente de IA do Google Quer Fazer Chamadas de Vídeo pelo seu Celular — e seus Óculos

Assistentes de inteligência artificial estão desenvolvendo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora, o Google está anunciando um assistente concorrente com capacidades semelhantes.

Na conferência de desenvolvedores I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente AI especialista do Google que pode enxergar através do telefone do usuário e de outros objetos como óculos inteligentes. O assistente “se baseia em” o Gemini, chatbot existente do Google, segundo a empresa, e algumas de suas capacidades estarão disponíveis no aplicativo e na experiência na web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de IA universal” para o cotidiano dos usuários. “É fácil imaginar um futuro em que você pode ter um assistente especialista ao seu lado, através do seu telefone, ou em novos e empolgantes formatos como óculos”, disse Hassabis a uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através do telefone enquanto caminha por um escritório. Através da câmera, eles mostram ao assistente de IA um recipiente de giz de cera como se estivessem falando por FaceTime e pedem para ele criar uma “aliteração criativa”.

“Elogiosos lápis de cor claros,” respondeu. “Eles certamente criam criações coloridas.” A pessoa continua interagindo com o assistente de IA em sua caminhada, então percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa perto de uma maçã vermelha,” responde o bot.

Quando o usuário coloca os óculos, o assistente de IA pode enxergar através deles também – e identifica uma ilustração representando o gato de Schrödinger em um quadro branco.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se pareciam com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelhavam a headsets mais volumosos.

“Um agente assim tem que entender e responder ao nosso mundo complexo e dinâmico assim como nós fazemos”, disse Hassabis na conferência. “Ele teria que captar e lembrar do que vê para poder entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Para que você possa conversar com ele naturalmente sem atrasos”.

É isso que o Projeto Astra pretende fazer, ele disse, e está fazendo “grandes progressos”.

Embora o protótipo do assistente de IA do Google esteja disponível para demonstração aos participantes de sua conferência Google I/O, provavelmente levará um tempo até que a tecnologia chegue às mãos dos consumidores comuns.