Como de costume, o Google I/O 2024 é um turbilhão absoluto de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, o Google passou a maior parte da conferência de desenvolvedores deste ano nos convencendo de que seus recursos de IA valem a pena priorizar. Um desses projetos é o Projeto Astra, uma assistente de IA multimodal com a qual é possível conversar parcialmente e que pode usar a câmera para identificar objetos e pessoas simultaneamente.
Digo “parcialmente” porque ficou evidente após a demonstração que esta parte do Gemini está em fase inicial. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em toda a extensão ou tentar enganá-lo, mas tive uma ideia de como será o futuro para um usuário do Android.
O objetivo do Projeto Astra é ser como um assistente que também guia você no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor identificando objetos, rostos, emoções e tecidos. Ele até mesmo pode te ajudar a lembrar onde você colocou algo.
Havia quatro demonstrações diferentes para escolher no Projeto Astra. Elas incluíam o modo Contador de Histórias, que pede ao Gemini para criar uma história com base em várias entradas, e Pictionary, essencialmente um jogo de adivinhação- o-desenho com o computador. Também havia um modo de aliteração, onde a IA mostrava sua habilidade em encontrar palavras com a mesma letra inicial, e o modo de Conversa permitia o diálogo.
A demonstração que eu recebi foi uma versão do modo Conversa no Pixel 8 Pro. Um outro jornalista do meu grupo havia solicitado explicitamente isso, então a maior parte da nossa demonstração foi focada em usar o dispositivo e esse modo assistente juntos.
Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós explicitamente dissemos que a pessoa era um homem. Depois, identificou corretamente que ele estava segurando o telefone. Em uma pergunta de seguimento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “parece estar usando roupas casuais”. Então, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando um par de óculos de sol (e estava) e fazendo pose casual.
Eu peguei o Pixel 8 Pro por um minuto rápido. Consegui fazer o Gemini identificar corretamente um vaso de flores falsas. Eram tulipas. O Gemini notou que elas eram também coloridas. A partir daí, não tinha certeza do que mais pedir e então meu tempo acabou. Saí com mais perguntas do que quando entrei.
Com a IA do Google, parece ser um salto de fé. Consigo ver como identificar uma pessoa e suas ações pode ser uma ferramenta de acessibilidade para ajudar alguém que é cego ou tem baixa visão ao navegar pelo mundo ao seu redor. Mas não era sobre isso que era a demonstração. Era para mostrar as capacidades do Projeto Astra e como vamos interagir com ele.
Minha maior dúvida é: algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, esta IA pode lembrar onde você colocou suas coisas e capturar nuances – pelo menos foi o que a demonstração transmitiu. Não consegui uma resposta das poucas pessoas do Google a quem perguntei. Mas tenho uma forte intuição de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais dependente de falar com ele.