Como de costume, o Google I/O 2024 é um turbilhão absoluto de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, o Google passou a maior parte da conferência dos desenvolvedores deste ano nos convencendo de que seus recursos de IA valem a pena ser priorizados. Um desses projetos é o Projeto Astra, um assistente de IA multimodal com o qual você pode conversar parcialmente e que pode usar a câmera para identificar objetos e pessoas simultaneamente.
Eu digo “parcialmente” porque ficou evidente após a demonstração que essa parte do Gemini está em seus estágios iniciais. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em sua totalidade ou tentar enganá-lo, mas tive uma noção de como o futuro pode parecer para um usuário de Android.
O ponto do Projeto Astra é ser um assistente que também o guia no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor, identificando objetos, rostos, emoções e têxteis. Ele até pode ajudá-lo a lembrar onde você colocou algo.
Havia quatro demonstrações diferentes para escolher no Projeto Astra. Elas incluíam o modo Contador de Histórias, que pede ao Gemini para inventar uma história com base em várias entradas, e Pictionary, essencialmente um jogo de adivinhação com o computador. Também havia um modo de aliteração, onde a IA mostrava sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form permitia conversar de forma livre.
A demonstração que eu recebi foi uma versão do Free-Form no Pixel 8 Pro. Outro jornalista do meu grupo havia solicitado diretamente, então a maior parte da nossa demonstração foi focada em usar o dispositivo e esse modo semelhante a assistente juntos.
Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – explicitamente dissemos a ele que a pessoa identificada era um homem. Em seguida, identificou corretamente que ele estava segurando seu telefone. Em uma pergunta de seguimento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “parece estar vestindo roupas casuais”. Depois, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando um par de óculos de sol (ele realmente estava) e fazendo uma pose casual.
Peguei o Pixel 8 Pro por um minuto rápido. Consegui fazer com que o Gemini identificasse corretamente um vaso de flores falsas. Eram tulipas. O Gemini notou também que eram coloridas. A partir daí, não tive certeza do que mais solicitar e então meu tempo acabou. Saí com mais perguntas do que tinha quando entrei.
Com a IA do Google, parece ser um salto de fé. Posso ver como identificar uma pessoa e suas ações poderia ser uma ferramenta de acessibilidade para ajudar alguém cego ou com baixa visão a navegar pelo mundo ao seu redor. Mas isso não foi o objetivo desta demonstração. Foi para mostrar as capacidades do Projeto Astra e como iremos interagir com ele.
Minha maior pergunta é: algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, essa IA pode se lembrar de onde você colocou suas coisas e captar nuances – pelo menos, foi isso que a demonstração transmitiu. Não consegui uma resposta das poucas pessoas do Google que perguntei. Mas tenho uma forte intuição de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais dependente de falar com ele.