OpenAI Claramente Nervosa Sobre sua Nova Ferramenta de Clonagem de Voz Sendo Usada para Golpes

A OpenAI anunciou uma nova ferramenta de clonagem de áudio baseada em inteligência artificial chamada Voice Engine na sexta-feira. Enquanto a empresa está obviamente orgulhosa do potencial dessa tecnologia – divulgando como ela poderia ser usada para fornecer assistência na leitura para crianças e dar voz àqueles que a perderam – OpenAI está claramente muito nervosa com a possibilidade de que isso possa ser usado de forma abusiva. E com razão.

“OpenAI está comprometida em desenvolver uma inteligência artificial segura e amplamente benéfica,” afirmou a empresa em um comunicado na sexta-feira, deixando claras suas preocupações já na primeira frase.

Voice Engine basicamente utiliza a mesma tecnologia que está por trás de sua API de texto para fala e do ChatGPT Voice, mas essa aplicação da tecnologia é toda sobre clonagem de voz ao invés de ler algo em voz alta com o tom e a entonação de um estranho. A OpenAI destaca que sua tecnologia é excepcional, pois precisa apenas de uma amostra de 15 segundos para “criar vozes emotivas e realistas”.

“Hoje estamos compartilhando insights preliminares e resultados de uma prévia em pequena escala de um modelo chamado Voice Engine, que utiliza entrada de texto e uma única amostra de áudio de 15 segundos para gerar fala natural que se assemelha de perto à voz original,” escreveu a empresa.

Não está claro que tipo de dados de treinamento foram usados para construir o Voice Engine, um ponto crítico para as empresas de IA que têm sido acusadas de violar leis de direitos autorais ao treinar seus modelos em obras protegidas. Empresas como a OpenAI argumentam que seus métodos de treinamento se enquadram no conceito de “uso justo” sob a lei de direitos autorais dos EUA, mas vários detentores de direitos têm processado, reclamando que não foram compensados por seu trabalho.

O site da OpenAI tem exemplos de clipes de áudio que passaram pelo Voice Engine e são bastante impressionantes. A habilidade de alterar o idioma que alguém está falando também é bem legal. Mas você ainda não pode experimentar por si mesmo.

Já existem diversas ferramentas de clonagem de voz disponíveis, como ElevenLabs, e tradutores como Respeecher. Mas a OpenAI se tornou um gigante desde que lançou o ChatGPT publicamente no final de 2022. E assim que tornar o Voice Engine um produto disponível para o público (ainda não há data de lançamento), pode abrir as comportas para todo tipo de abusos que nem imaginamos.

O comunicado da OpenAI na sexta-feira ressaltou: “Estamos adotando uma abordagem cautelosa e informada para um lançamento mais amplo devido ao potencial de uso indevido de voz sintética,” enfatizando as preocupações que toda grande empresa enfrenta atualmente com esse tipo de tecnologia de IA.

Um exemplo particularmente preocupante de alguém usando clonagem de voz com IA para fins nefastos aconteceu no início deste ano usando a voz do Presidente Joe Biden. Steve Kramer, que trabalhava para o candidato democrata Dean Phillips, clonou a voz de Biden para criar uma mensagem que dizia para as pessoas não se preocuparem em votar nas primárias de New Hampshire. Kramer usou a ferramenta de voz de IA do ElevenLabs e fez a chamada robô em “menos de 30 minutos,” enviando a mensagem para cerca de 5000 pessoas, segundo o Washington Post.

“Esperamos iniciar um diálogo sobre o uso responsável de vozes sintéticas e como a sociedade pode se adaptar a essas novas capacidades,” disse o comunicado da OpenAI. “Com base nessas conversas e nos resultados desses testes em pequena escala, tomaremos uma decisão mais informada sobre se e como implantar essa tecnologia em escala.”

Isso, é claro, é a faca de dois gumes de toda nova tecnologia. Artistas do golpe sempre encontrarão uma maneira de explorar ferramentas emergentes para enganar as pessoas e tirar seu dinheiro suado. Mas você não precisa usar vozes geradas por IA falsas para enganar as pessoas. Como relatamos mais cedo esta semana, o scam de criptomoedas mais recente usa atores reais contratados no Fiverr para ler um script que ajuda a vender seu esquema como autêntico.