Dentes Estranhos Denunciam a Falsidade no Gerador de Vídeos AI mais Recente da Microsoft

Pesquisadores da Microsoft divulgaram um artigo nesta semana sobre VASA-1, uma nova ferramenta de inteligência artificial que pode gerar um vídeo convincente de alguém falando, usando apenas uma imagem estática. A Microsoft não tem planos imediatos de lançar a nova ferramenta para o público, mas é bastante impressionante. Bem, é impressionante se você não olhar muito de perto para os dentes. Basta dar uma olhada nesses dentes.

O modelo VASA-1 funciona pegando qualquer foto estática de um rosto humano – ou, nos exemplos publicados pela Microsoft, de um rosto gerado por IA de alguém que na verdade não existe – e, após receber um arquivo de áudio, pode produzir um vídeo sincronizado que inclui nuances faciais e movimentos naturais.

Novamente, é tudo muito impressionante, como você pode ver em um dos vídeos fornecidos pela Microsoft abaixo. Mas a área em que o VASA-1 parece ter dificuldade é na renderização dos dentes. Se você focar nos dentes, pode notar uma qualidade um pouco cartunesca, parecendo levemente animados de uma forma que não se encaixa com a qualidade hiper-realista de tudo mais.

Os dentes bizarros do vídeo se tornam ainda mais aparentes quando você diminui a velocidade de toda a cena, como fez o Gizmodo no GIF abaixo. (Quase pode te fazer sentir mal por criticar a aparência de alguém até você lembrar que a pessoa abaixo literalmente não existe.)

Outro vídeo de exemplo fornecido pela Microsoft, que aparece abaixo, mostra qualidades semelhantes de desenhos animados nos dentes – mesmo que outras características pareçam muito realistas, especialmente quando você lembra que o único material de origem é uma imagem estática e um arquivo de áudio.

Uma das coisas mais interessantes observadas pelos pesquisadores é que seu modelo pode produzir vídeos de alta qualidade relativamente rápido, algo com o qual outros geradores de IA como o Sora da OpenAI têm supostamente lutado. Na verdade, o artigo observa uma latência de apenas 0,17 segundos em um PC desktop com uma única GPU NVIDIA RTX 4090.

E essa velocidade é algo que pode fornecer vídeos instantâneos para uma variedade de aplicações, como serviços de tradução em tempo real.

“Nosso método não só oferece alta qualidade de vídeo com dinâmicas faciais e de cabeça realistas, mas também suporta a geração online de vídeos 512×512 a até 40 FPS com uma latência de início negligenciável. Isso pavimenta o caminho para interações em tempo real com avatares realistas que imitam comportamentos conversacionais humanos”, diz o novo artigo.

Os pesquisadores estão claramente cientes dos perigos nesse tipo de tecnologia, o que talvez explique por que a Microsoft ainda não anunciou planos para lançá-la ao público tão cedo. No entanto, os pesquisadores também identificaram casos de uso que acreditam ser úteis para a humanidade.

“Os benefícios – como melhorar a equidade educacional, melhorar a acessibilidade para indivíduos com desafios de comunicação, oferecer companhia ou apoio terapêutico para quem precisa, entre muitos outros – destacam a importância de nossa pesquisa e outras explorações relacionadas. Estamos dedicados a desenvolver a IA de forma responsável, com o objetivo de avançar o bem-estar humano”, diz o artigo.

“Dado esse contexto, não temos planos de lançar um teste online, API, produto, detalhes de implementação adicionais ou quaisquer ofertas relacionadas até termos certeza de que a tecnologia será usada de maneira responsável e de acordo com as regulamentações adequadas.”

Isso provavelmente é uma boa ideia, dada a quantidade de fraudes que são possíveis com esse tipo de tecnologia. Afinal, a eleição presidencial de 2024 nos EUA está a apenas sete meses de distância. E a ameaça do fascismo global não está desaparecendo tão cedo. A humanidade realmente se sente impotente contra falsificações geradas por IA no momento. E grandes empresas como a Microsoft provavelmente deveriam fazer tudo o que estiver ao seu alcance para limitar o potencial de danos antes que praticamente tudo na internet se torne uma falsificação.