Google I/O: Experimentando o Projeto Astra, o Assistente de IA do Futuro

Como de costume, o Google I/O 2024 é um verdadeiro turbilhão de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, o Google passou a maior parte da conferência deste ano convencendo-nos de que seus recursos de IA valem a pena priorizar. Um desses projetos é o Projeto Astra, um assistente de IA multimodal com o qual você pode conversar parcialmente e que pode usar a câmera simultaneamente para identificar objetos e pessoas.

Eu digo “parcialmente” porque é evidente após a demonstração que essa parte do Gemini está em seus estágios iniciais. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em sua extensão total ou tentar enganá-lo, mas tive uma ideia de como pode ser o futuro para um usuário de Android.

O objetivo do Projeto Astra é ser como um assistente que também o guia no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor, identificando objetos, rostos, estados de espírito e têxteis. Ele até pode ajudá-lo a lembrar onde você colocou algo.

Havia quatro demonstrações diferentes para escolher para o Projeto Astra. Elas incluíam o modo Contador de Histórias, que pede ao Gemini para criar uma história com base em várias entradas, e o Pictionary, essencialmente um jogo de adivinhação de desenhos com o computador. Havia também um modo de aliteração, onde a IA mostrou sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form permitiu conversar de volta e forth.

A demonstração que recebi foi uma versão de Free-Form no Pixel 8 Pro. Outro jornalista do meu grupo havia solicitado isso diretamente, então a maior parte de nossa demonstração focou no uso do dispositivo e nesse modo semelhante a assistente juntos.

Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós explicitamente informamos que a pessoa se identificava como um homem. Em seguida, identificou corretamente que ele estava segurando o telefone. Em uma pergunta de follow-up, nosso grupo perguntou sobre suas roupas. Deu uma resposta generalizada de que “ele parece estar usando roupas casuais”. Depois, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando um óculos de sol (ele estava) e fazendo uma pose casual.

Peguei o Pixel 8 Pro por um minuto rápido. Consegui fazer o Gemini identificar corretamente um vaso de flores falsas. Eram tulipas. O Gemini observou que também eram coloridas. A partir daí, não tive certeza do que mais propor, e então meu tempo acabou. Saí com mais perguntas do que entrei.

Com a IA do Google, parece ser um salto de fé. Posso ver como identificar uma pessoa e suas ações pode ser uma ferramenta de acessibilidade para ajudar alguém cego ou com baixa visão a navegar pelo mundo ao seu redor. Mas isso não foi o foco dessa demonstração. Era para mostrar as capacidades do Projeto Astra e como vamos interagir com ele.

Minha maior pergunta é: algo como o Projeto Astra substituirá o Google Assistente em dispositivos Android? Afinal, essa IA pode lembrar onde você colocou suas coisas e pegar nuances – pelo menos, foi isso que a demonstração transmitiu. Não consegui uma resposta das poucas pessoas do Google com quem conversei. Mas tenho uma forte intuição de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais depender de falar com ele.