Google I/O: Experimente o Projeto Astra, o Assistente de Inteligência Artificial do Futuro

Como de costume, o Google I/O 2024 é um verdadeiro turbilhão de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, o Google passou a maior parte da conferência de desenvolvedores deste ano nos convencendo de que seus recursos de IA valem a pena priorizar. Um desses projetos é o Projeto Astra, um assistente de IA multimodal com o qual é possível interagir e que pode usar a câmera para identificar objetos e pessoas simultaneamente.

Digo “parcialmente” porque é evidente após a demonstração que esta parte do Gemini está em seus estágios iniciais. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em sua totalidade ou tentar enganá-lo, mas tive uma ideia de como o futuro poderá ser para um usuário de Android.

O objetivo do Projeto Astra é ser como um assistente que também guia você no mundo real. Ele pode responder a perguntas sobre o ambiente ao seu redor, identificando objetos, rostos, emoções e tecidos. Ele até pode ajudar a lembrar onde você colocou algo.

Havia quatro demonstrações diferentes para escolher para o Projeto Astra. Elas incluíam o modo Storyteller, que pede ao Gemini que invente uma história com base em várias entradas, e o Pictionary, essencialmente um jogo de adivinhação de desenhos com o computador. Também havia um modo de aliteração, onde a IA mostrava sua capacidade de encontrar palavras com a mesma letra inicial, e o Free-Form que permitia um bate-papo.

Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós informamos explicitamente que a pessoa identificada era um homem. Em seguida, identificou corretamente que ele estava com seu telefone. Em uma pergunta de acompanhamento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “ele parece estar vestindo roupas casuais”. Então, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando um óculos de sol (ele estava) e fazendo uma pose casual.

Tomei o Pixel 8 Pro por um minuto rápido. Consegui fazer o Gemini identificar corretamente um vaso de flores falsas. Eram tulipas. O Gemini percebeu que elas também eram coloridas. A partir daí, não tive certeza do que mais pedir, e então meu tempo acabou. Saí com mais perguntas do que as que tinha ao entrar.

Com a IA do Google, parece ser um salto de fé. Posso ver como identificar uma pessoa e suas ações pode ser uma ferramenta de acessibilidade para ajudar alguém que é cego ou tem baixa visão a navegar pelo mundo ao seu redor. Mas isso não era o foco desta demonstração. Era para mostrar as capacidades do Projeto Astra e como interagiremos com ele.

Minha maior dúvida é: algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, esta IA pode lembrar onde você colocou suas coisas e captar nuances – pelo menos, é o que a demonstração transmitiu. Não consegui obter uma resposta das poucas pessoas do Google a quem perguntei. Mas tenho uma forte intuição de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais sobre falar com ele.