O NOVO ASSISTENTE DE IA DO GOOGLE QUER FAZER CHAMADAS DE VÍDEO PELO SEU TELEFONE — E SEUS ÓCULOS

Assistentes de inteligência artificial estão adquirindo mais sentidos. Na segunda-feira, a OpenAI apresentou um novo modelo de ChatGPT que promete ver, ouvir e falar através de smartphones, entre outras novas habilidades. Agora o Google está anunciando um assistente concorrente com capacidades semelhantes.

Durante a conferência para desenvolvedores I/O da empresa na terça-feira, o CEO da DeepMind, Demis Hassabis, apresentou um protótipo do novo assistente de IA especialista do Google que pode ver através do telefone do usuário e de outros objetos, como óculos inteligentes. O assistente “se baseia” no Gemini, chatbot existente do Google, diz a empresa, e algumas de suas capacidades chegarão ao aplicativo e à experiência na web do Gemini ainda este ano.

O desenvolvimento faz parte do Projeto Astra do Google DeepMind, que visa criar “um agente de IA universal” para a vida cotidiana dos usuários. “É fácil imaginar um futuro em que você pode ter um assistente especialista ao seu lado, através do seu telefone, ou novos formatos emocionantes como os óculos,” disse Hassabis a uma plateia de alguns milhares de desenvolvedores em Mountain View, Califórnia.

Um vídeo de demonstração mostra uma pessoa conversando com um agente de IA através do telefone enquanto caminha por um escritório. Através da câmera, mostram ao assistente de IA um recipiente de lápis de cor, como se estivessem conversando através do FaceTime, e pedem para fazer uma “aliteração criativa”.

“Educativas eufóricas emoções” foi a resposta. “Elas certamente criam criações coloridas.” A pessoa continua interagindo com o bot de IA em seu passeio, então percebe que esqueceu seus óculos e pede ajuda para encontrá-los. “Eles estão na mesa, perto de uma maçã vermelha,” responde o bot.

Quando o usuário coloca esses óculos, o assistente de IA também consegue olhar através deles e identifica uma ilustração representando o Gato de Schrödinger em uma lousa.

Não está claro se esses óculos são um novo produto que o Google planeja lançar. Os óculos de realidade aumentada exibidos na demonstração não se parecem com o Google Glass, os óculos inteligentes existentes da empresa, nem se assemelham aos headsets mais volumosos típicos.

“Um agente assim precisa entender e responder ao nosso mundo complexo e dinâmico, assim como fazemos,” disse Hassabis na conferência. “Ele teria que captar e lembrar o que vê para entender o contexto e agir. E teria que ser proativo, ensinável e pessoal. Para que você possa conversar com ele naturalmente, sem atrasos.”

É isso que o Projeto Astra está visando fazer, disse ele, e está fazendo “grandes avanços”.

Enquanto o protótipo do assistente de IA do Google está disponível para demonstração para os participantes da conferência Google I/O, provavelmente vai demorar um pouco até que a tecnologia chegue às mãos dos consumidores do dia a dia.