Google I/O: Experimentando o Projeto Astra, a Assistente de IA do Futuro

Como de costume, a Google I/O 2024 é um verdadeiro turbilhão de notícias e anúncios. Este ano, em vez de focar em hardware, Android ou Chrome, a Google passou a maior parte da conferência deste ano convencendo-nos de que seus recursos de inteligência artificial valem a pena priorizar. Um desses projetos é o Projeto Astra, um assistente de inteligência artificial multimodal com o qual você pode conversar parcialmente, enquanto simultaneamente usa a câmera para identificar objetos e pessoas.

Eu digo “parcialmente” porque é evidente após a demonstração que esta parte do Gemini está em sua infância. Passei alguns minutos breves com o Projeto Astra no Pixel 8 Pro para ver como ele funciona em tempo real. Não tive tempo suficiente para testá-lo em sua totalidade ou tentar enganá-lo, mas tive uma ideia de como o futuro pode ser como usuário de Android.

O objetivo do Projeto Astra é ser como um assistente que também o guia no mundo real. Ele pode responder a perguntas sobre o ambiente ao seu redor, identificando objetos, rostos, emoções e tecidos. Ele pode até ajudá-lo a lembrar onde você colocou algo pela última vez.

Havia quatro demonstrações diferentes para escolher no Projeto Astra. Elas incluíam o modo Contador de Histórias, no qual o Gemini é solicitado a criar uma história com base em várias entradas, e Pictionary, essencialmente um jogo de adivinhar o desenho com o computador. Havia também um modo de aliteração, onde a IA mostrava sua habilidade em encontrar palavras com a mesma letra inicial, e o Free-Form permitia uma conversa de ida e volta.

A demonstração que recebi foi uma versão do Free-Form no Pixel 8 Pro. Outro jornalista do meu grupo havia solicitado por completo, então a maior parte da nossa demonstração se concentrou em usar o dispositivo e este modo semelhante a um assistente juntos.

Com a câmera apontada para outro jornalista, o Pixel 8 Pro e o Gemini conseguiram identificar que o sujeito era uma pessoa – nós lhe dissemos explicitamente que a pessoa era um homem. Em seguida, ele identificou corretamente que ele estava com seu telefone. Em uma pergunta de acompanhamento, nosso grupo perguntou sobre suas roupas. Ele deu uma resposta generalizada de que “ele parece estar vestindo roupas casuais.” Então, perguntamos o que ele estava fazendo, ao que o Projeto Astra respondeu que parecia que ele estava colocando um par de óculos de sol (ele estava) e fazendo uma pose casual.

Eu peguei o Pixel 8 Pro por um minuto rápido. Consegui que o Gemini identificasse corretamente um vaso de flores falsas. Eram tulipas. O Gemini notou que elas também eram coloridas. A partir daí, não tive certeza do que mais pedir e então meu tempo acabou. Saí com mais perguntas do que tinha quando entrei.

Com a inteligência artificial do Google, parece ser um salto de fé. Posso ver como identificar uma pessoa e suas ações poderia ser uma ferramenta de acessibilidade para ajudar alguém cego ou com visão baixa a navegar pelo mundo ao seu redor. Mas não era isso que esta demonstração se tratava. Era para mostrar as capacidades do Projeto Astra e como vamos interagir com ele.

Minha maior pergunta é: algo como o Projeto Astra substituirá o Google Assistant em dispositivos Android? Afinal, esta IA pode lembrar onde você colocou suas coisas e captar nuances – pelo menos, foi isso que a demonstração transmitiu. Não consegui uma resposta das poucas pessoas do Google que perguntei. Mas tenho uma forte intuição de que o futuro do Android será menos sobre tocar para interagir com o telefone e mais dependente de conversar com ele.