Como é habitual, o Google I/O 2024 é um turbilhão absoluto de notícias e anúncios. Este ano, em vez de se concentrar em hardware, Android ou Chrome, o Google passou a maior parte da conferência dos desenvolvedores deste ano nos convencendo de que suas características de IA valem a pena priorizar. Um desses projetos é o Project Astra, um assistente de IA multimodal com o qual você pode conversar e que pode usar a câmera para identificar objetos e pessoas ao mesmo tempo.
Eu digo “semi” porque é evidente após a demonstração que esta parte do Gemini está em seus estágios iniciais. Passei alguns minutos breves com o Project Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo completamente ou tentar enganá-lo, mas pude ter uma ideia de como será o futuro para um usuário de Android.
O ponto do Project Astra é ser como um assistente que também guia você no mundo real. Ele pode responder perguntas sobre o ambiente ao seu redor identificando objetos, rostos, estados de espírito e tecidos. Ele até pode ajudar você a lembrar onde colocou algo.
Havia quatro demonstrações diferentes para escolher para o Project Astra. Elas incluíam o modo Storyteller, que pede para o Gemini inventar uma história com base em várias entradas, e o Pictionary, essencialmente um jogo de adivinhar o desenho com o computador. Também havia um modo de aliteração, onde a IA mostrava sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form permitia que você conversasse livremente.
Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós dissemos explicitamente que a pessoa identificada era um homem. Em seguida, identificou corretamente que ele estava com o telefone dele. Em uma pergunta de acompanhamento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “ele parece estar vestindo roupas casuais.” Em seguida, perguntamos o que ele estava fazendo, ao que o Project Astra respondeu que parecia que ele estava colocando um par de óculos de sol (estava) e fazendo uma pose casual.
Eu peguei o Pixel 8 Pro por um minuto rápido. Consegui fazer o Gemini identificar corretamente um vaso de flores falsas. Eram tulipas. O Gemini percebeu que elas também eram coloridas. A partir daí, eu não tinha certeza do que mais provocar, e então meu tempo acabou. Saí com mais perguntas do que quando entrei.
Com a IA do Google, parece um salto de fé. Consigo ver como identificar uma pessoa e suas ações poderia ser uma ferramenta de acessibilidade para ajudar alguém cego ou com visão reduzida a navegar pelo mundo ao seu redor. Mas isso não foi o foco desta demonstração. Foi para mostrar as capacidades do Project Astra e como interagiremos com ele.
Minha maior pergunta é: Será que algo como o Project Astra substituirá o Google Assistant em dispositivos Android? Afinal, esta IA pode lembrar onde você colocou suas coisas e captar nuances – pelo menos, foi o que a demonstração transmitiu. Não obtive uma resposta das poucas pessoas do Google que perguntei. Mas tenho uma forte suspeita de que o futuro do Android será menos sobre toques para interagir com o telefone e mais dependente de falar com ele.