O mundo está sendo dilacerado pelas deepfakes geradas por IA, e as últimas tentativas pouco eficazes de detê-las não estão fazendo nada. Reguladores federais proibiram chamadas robóticas deepfake na quinta-feira, como aquelas que estavam se passando pelo presidente Biden na eleição primária de New Hampshire. Enquanto isso, OpenAI e Google lançaram marcas d’água nesta semana para rotular imagens como geradas por IA. No entanto, essas medidas não têm a eficácia necessária para deter as deepfakes de IA.
“Elas vieram para ficar”, disse Vijay Balasubramaniyan, CEO da Pindrop, que identificou ElevenLabs como o serviço usado para criar a falsa chamada robótica de Biden. “Tecnologias de detecção de deepfake precisam ser adotadas na fonte, no ponto de transmissão e no destino. Isso simplesmente precisa acontecer em todos os lugares.”
Os esforços de prevenção contra deepfakes são apenas superficiais. A proibição de chamadas robóticas deepfake pela Comissão Federal de Comunicações (FCC) é um passo na direção certa, segundo Balasubramaniyan, mas há pouca clareza sobre como isso será aplicado. Atualmente, estamos identificando deepfakes após o dano ser causado e raramente punindo os responsáveis. Isso é muito lento e não está realmente resolvendo o problema.
A OpenAI introduziu marcas d’água nas imagens de Dall-E nesta semana, tanto visualmente quanto incorporadas nos metadados de uma foto. No entanto, a empresa simultaneamente reconheceu que isso pode ser facilmente evitado tirando um print screen. Isso pareceu menos uma solução e mais como a empresa dizendo: “Bem, pelo menos tentamos!”
Enquanto isso, deepfakes do chefe de um trabalhador financeiro em Hong Kong o enganaram em $25 milhões. Foi um caso chocante que mostrou como a tecnologia deepfake está borrando as fronteiras da realidade.
O problema das deepfakes só vai piorar. Essas soluções simplesmente não são suficientes. O problema é que a tecnologia de detecção de deepfake é nova e não está se espalhando tão rapidamente quanto a IA generativa. Plataformas como Meta, X e até mesmo sua empresa de telefonia precisam adotar a detecção de deepfake. Essas empresas estão fazendo manchetes sobre todos os seus novos recursos de IA, mas e quanto aos recursos de detecção de IA?
Se você está assistindo a um vídeo deepfake no Facebook, eles deveriam te avisar sobre isso. Se você está recebendo uma chamada telefônica deepfake, seu provedor de serviço deveria ter um software para detectá-la. Essas empresas não podem apenas jogar a toalha, mas certamente estão tentando.
A tecnologia de detecção de deepfake também precisa melhorar muito e se tornar muito mais generalizada. Atualmente, a detecção de deepfake não é 100% precisa para nada, de acordo com o CEO da Copyleaks, Alon Yamin. Sua empresa tem uma das melhores ferramentas para detectar texto gerado por IA, mas detectar fala e vídeo gerados por IA é um desafio completamente diferente. A detecção de deepfake está ficando para trás em relação à IA generativa e precisa se expandir rapidamente.
As deepfakes são realmente a nova desinformação, mas são muito mais convincentes. Há alguma esperança de que a tecnologia e os reguladores estejam conseguindo acompanhar para resolver esse problema, mas os especialistas concordam que as deepfakes só vão piorar antes de melhorar.