Google I/O: Práticas com o projeto Astra, o Assistente de IA do Futuro

Como de costume, a Google I/O 2024 é um turbilhão absoluto de notícias e anúncios. Este ano, em vez de se concentrar em hardware, Android ou Chrome, a Google passou a maior parte desta conferência de desenvolvedores convencendo-nos de que seus recursos de IA valem a pena priorizar. Um desses projetos é o Project Astra, um assistente de IA multimodal com o qual você pode conversar parcialmente e que simultaneamente pode usar a câmera para identificar objetos e pessoas.

Eu digo “parcialmente” porque ficou evidente após a demonstração que essa parte do Gemini está em sua infância. Passei alguns minutos breves com o Project Astra no Pixel 8 Pro para ver como funciona em tempo real. Não tive tempo suficiente para testá-lo em sua totalidade ou tentar enganá-lo, mas tive uma ideia de como o futuro pode ser para um usuário do Android.

O objetivo do Project Astra é ser como um assistente que também o guia no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor, identificando objetos, rostos, sentimentos e tecidos. Ele até pode ajudar a lembrar onde você colocou algo.

Havia quatro demonstrações diferentes para escolher do Project Astra. Elas incluíam o modo Storyteller, que pede ao Gemini para criar uma história com base em várias entradas, e Pictionary, essencialmente um jogo de adivinhação com o computador. Havia também um modo de aliteração, onde a IA mostrou sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form que permitia conversar livremente.

A demonstração que tive foi uma versão do Free-Form no Pixel 8 Pro. Outra jornalista do meu grupo solicitou isso explicitamente, então a maior parte de nossa demonstração se concentrou em usar o dispositivo e esse modo semelhante a um assistente juntos.

Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós dissemos explicitamente que a pessoa era um homem. Em seguida, identificou corretamente que ele estava segurando o celular. Em uma pergunta de acompanhamento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta geral de que “ele parece estar usando roupas casuais”. Em seguida, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando óculos de sol (estava) e fazendo uma pose casual.

Eu peguei o Pixel 8 Pro por um minuto rápido. Consegui que o Gemini identificasse corretamente um vaso de flores falsas. Eram tulipas. O Gemini notou que também eram coloridas. A partir daí, não tinha certeza do que mais pedir a ele, e então meu tempo acabou. Saí com mais perguntas do que tinha antes de entrar.

Com a IA da Google, parece ser um salto de fé. Consigo ver como identificar uma pessoa e suas ações pode ser uma ferramenta de acessibilidade para ajudar alguém cego ou com baixa visão a navegar pelo mundo ao seu redor. Mas isso não era o foco dessa demonstração. Era para mostrar as capacidades do Projeto Astra e como iremos interagir com ele.

Minha maior pergunta é: algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, essa IA pode lembrar onde você colocou suas coisas e captar nuances – pelo menos foi isso que a demonstração transmitiu. Não consegui uma resposta dos poucos funcionários do Google com quem conversei. Mas tenho uma forte sensação de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais dependente de falar com ele.