Como de costume, o Google I/O 2024 é um frenesi de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, o Google passou a maior parte da conferência dos desenvolvedores deste ano nos convencendo de que seus recursos de IA valem a pena priorizar. Um desses projetos é o Projeto Astra, um assistente de IA multimodal com o qual você pode conversar parcialmente e que pode usar a câmera para identificar objetos e pessoas simultaneamente.
Digo “parcialmente” porque é evidente após a demonstração que esta parte do Gemini está em seus estágios iniciais. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em sua totalidade ou tentar enganá-lo, mas tive uma ideia de como o futuro pode ser como usuário do Android.
O objetivo do Projeto Astra é ser um assistente que também serve como guia no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor identificando objetos, rostos, emoções e tecidos. Ele até pode ajudá-lo a lembrar onde você colocou algo.
Havia quatro demonstrações diferentes para escolher no Projeto Astra. Elas incluíam o modo “Contador de Histórias”, que pede ao Gemini que crie uma história com base em várias entradas, e o “Pictionary”, essencialmente um jogo de adivinhar o desenho com o computador. Também havia um modo de aliteração, onde a IA mostrava sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form permitia que você conversasse de forma livre.
A demonstração que fiz foi uma versão do Free-Form no Pixel 8 Pro. Outro jornalista do meu grupo tinha solicitado especificamente, então a maior parte da nossa demonstração focou no uso do dispositivo e deste modo assistente juntos.
Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini puderam identificar que o sujeito era uma pessoa – nós dissemos explicitamente que a pessoa identificada era um homem. Então, identificou corretamente que ele estava com seu celular. Em uma pergunta de acompanhamento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “ele parece estar vestindo roupas casuais”. Em seguida, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando óculos de sol (estava) e fazendo uma pose casual.
Peguei o Pixel 8 Pro por um minuto rápido. Consegui que o Gemini identificasse corretamente um vaso de flores falsas. Eram tulipas. O Gemini notou que também eram coloridas. A partir daí, não tive certeza do que mais provocar, e então meu tempo acabou. Saí com mais perguntas do que tinha quando entrei.
Com a IA do Google, parece ser um salto de fé. Consigo ver como identificar uma pessoa e suas ações poderia ser uma ferramenta de acessibilidade para ajudar alguém que é cego ou tem visão baixa a navegar pelo mundo ao seu redor. Mas isso não foi o foco desta demonstração. Era para mostrar as capacidades do Projeto Astra e como iremos interagir com ele.
Minha maior pergunta é: Algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, esta IA pode lembrar onde você colocou suas coisas e pegar nuances – pelo menos, foi isso que a demonstração transmitiu. Não consegui uma resposta das poucas pessoas do Google com quem falei. Mas tenho uma forte suspeita de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais dependente de falar com ele.