Adobe está testando uma nova ferramenta de IA que pode criar música a partir de prompts de texto.

A era da música de robô ruim está sobre nós. A Adobe está trabalhando em uma nova ferramenta de IA que permitirá a qualquer pessoa ser um produtor de música, sem a necessidade de instrumento ou experiência em edição.

A empresa apresentou o “Projeto Music GenAI Control” – um nome muito longo – esta semana. A ferramenta permite aos usuários criar e editar música digitando simples prompts de texto em um modelo de IA generativa. Esses prompts podem incluir descrições como “rock poderoso”, “dança alegre” ou “jazz triste”, explicou a Adobe.

O Projeto Music GenAI Control irá então criar uma melodia inicial com base no prompt do usuário, que também pode ser editada usando texto. A Adobe disse que os usuários podem, por exemplo, editar a intensidade da música gerada, estender o comprimento do trecho musical ou criar um loop repetível, entre outras coisas.

O público-alvo para essa nova ferramenta inclui podcasters, locutores e “qualquer pessoa que precise de áudio com o humor, tom e comprimento certos”, disse Nicholas Bryan, cientista sênior de pesquisa da Adobe e um dos criadores da tecnologia.

“Uma das coisas emocionantes sobre essas novas ferramentas é que elas não são apenas sobre a geração de áudio – elas estão levando isso ao nível do Photoshop, dando aos criativos o mesmo tipo de controle profundo para moldar, ajustar e editar seu áudio”, afirmou Bryan em um blog da Adobe. “É um tipo de controle de nível de pixel para música.”

A Adobe divulgou um vídeo que mostrava como o Projeto Music GenAI Control funcionava, e foi assustador o quão fácil era para a ferramenta criar música. Ela também parecia funcionar muito rápido. Embora a música gerada não vá ganhar nenhum Grammy, é algo que eu definitivamente posso imaginar ouvindo no fundo de vídeos do YouTube, TikToks ou transmissões do Twitch.

Isso não é exatamente uma coisa boa. A IA reverberou por profissões como escrita e atuação, forçando os trabalhadores a se posicionar e impedir que seus meios de subsistência sejam roubados. Comentários no vídeo do YouTube da empresa ecoaram essas preocupações e criticaram a empresa por criar “música escrita por robôs, para robôs” e “cringe corporativo bom”.

“Obrigado, Adobe, por tentar encontrar ainda mais maneiras para as corporações roubar creativos de seus empregos. Além disso, de quais artistas você roubou o material que usou para treinar sua IA?”, escreveu um usuário.

Questionada pelo Gizmodo, a Adobe não divulgou detalhes sobre a música usada para treinar seu modelo de IA para o Projeto Music GenAI Control. No entanto, ela ressaltou que, com o Firefly, sua família de geradores de imagens de IA, ela só treinou seus modelos em domínio de licenças abertas e domínio público onde os direitos autorais haviam expirado.

“O Projeto Music GenAI Control é uma olhada muito inicial na tecnologia desenvolvida pela Adobe Research e, embora ainda não estejamos divulgando os detalhes do modelo, o que podemos compartilhar é: a Adobe sempre adotou uma abordagem proativa para garantir que estamos inovando de maneira responsável”, disse Anais Gragueb, porta-voz da Adobe, ao Gizmodo por e-mail.

A música é arte e inerentemente humana. Como tal, devemos ter cuidado quando se trata de novas ferramentas como a da Adobe – ou corremos o risco de um futuro onde a música soa tão vazia quanto as máquinas que a geram.