O Google está lançando capacidades de vídeo há muito esperadas para o chatbot de IA da empresa, o Gemini Live, ainda este mês.
Além de apenas texto e imagem, usuários selecionados poderão usar a câmera de seus dispositivos Android ou compartilhar a tela com o Gemini Live para fazer perguntas sobre o que aparece na transmissão ao vivo. Nas demonstrações de vídeo compartilhadas pela empresa, o novo e avançado Gemini Live é mostrado dando conselhos de estilo via compartilhamento de tela durante compras online e conselhos de design de interiores enquanto a câmera se move ao redor do ambiente.
As novas funcionalidades estarão disponíveis apenas para assinantes avançados do Gemini com o plano Premium de IA do Google One, de $20 por mês.
O Google estreou as atualizações na segunda-feira no Mobile World Congress 2025 em Barcelona, Espanha, mas a gigante da tecnologia já vem provocando as novas funcionalidades há quase um ano.
O Google começou a dar pistas sobre capacidades avançadas de vídeo na conferência Google I/O em maio de 2024, onde a empresa demonstrou o Project Astra, um protótipo de pesquisa de um assistente de IA multimodal que poderia processar entrada de vídeo para fornecer respostas sobre o ambiente ao seu redor, lembrando até onde você colocou algo pela última vez.
Na conferência de maio de 2024, executivos do Google compartilharam uma visão para este assistente de IA universal que também incluía a capacidade de ver através de óculos inteligentes, embora o anúncio de segunda-feira não tenha detalhado nenhum lançamento adicional de produto.
A revelação das últimas capacidades vem logo após a introdução em dezembro do Gemini 2.0, o modelo de agente de IA mais capaz do Google, e um novo recurso do Gemini chamado Deep Research, que pode compilar relatórios de pesquisa em nome dos usuários.