Adobe está testando uma nova ferramenta de IA que pode criar música a partir de prompts de texto

A era da música robótica ruim está sobre nós. A Adobe está trabalhando em uma nova ferramenta de IA que permitirá que qualquer pessoa seja um produtor musical – sem a necessidade de instrumento ou experiência em edição.

A empresa apresentou o “Projeto Music GenAI Control” – um nome muito longo – esta semana. A ferramenta permite que os usuários criem e editem música simplesmente digitando prompts de texto em um modelo de IA generativo. Esses prompts podem incluir descrições como “rock poderoso”, “dança feliz” ou “jazz triste”, explicou a Adobe.

O Projeto Music GenAI Control criará então uma melodia inicial com base no prompt do usuário, que também pode ser editada usando texto. A Adobe afirmou que os usuários podem, por exemplo, editar a intensidade da música gerada, estender o comprimento do trecho musical ou criar um loop repetível, entre outros.

O público-alvo para essa nova ferramenta inclui podcasters, radiodifusores e “qualquer pessoa que precise de áudio com o humor, tom e comprimento certos”, disse Nicholas Bryan, um cientista sênior de pesquisa da Adobe e um dos criadores da tecnologia.

“Uma das coisas empolgantes sobre essas novas ferramentas é que elas não são apenas sobre a geração de áudio – elas estão levando isso para o nível do Photoshop ao dar aos criativos o mesmo tipo de controle profundo para moldar, aprimorar e editar seu áudio”, afirmou Bryan em um blog da Adobe. “É um tipo de controle de nível de pixel para música.”

A Adobe carregou um vídeo que mostrou como o Projeto Music GenAI Control funcionava, e foi assustador como era fácil para a ferramenta criar música. Também parecia funcionar muito rápido. Embora a música gerada não vá ganhar nenhum Grammy, é algo que posso definitivamente imaginar ouvindo no fundo de vídeos do YouTube, TikToks ou transmissões do Twitch.

Isso não é exatamente algo bom. A IA reverberou através de profissões como escrita e atuação, forçando trabalhadores a se posicionarem e impedirem que seus meios de subsistência sejam roubados. Comentários no vídeo da empresa no YouTube ecoaram essas preocupações e criticaram a empresa por criar “música escrita por robôs, para robôs” e “vergonha corporativa boa”.

“Obrigado, Adobe, por tentar encontrar ainda mais maneiras para as corporações prejudicarem os criativos. Além disso, de que artistas vocês roubaram o material que usaram para treinar sua IA?”, escreveu um usuário.

Quando questionada pelo Gizmodo para comentar, a Adobe não divulgou detalhes sobre a música usada para treinar seu modelo de IA para o Projeto Music GenAI Control. No entanto, ela ressaltou que com Firefly, sua família de geradores de imagem IA, havia treinado seus modelos apenas em domínios de propriedade intelectual aberta e domínio público, onde os direitos autorais haviam expirado.

“Projeto Music GenAI Control é um olhar muito inicial sobre a tecnologia desenvolvida pela Adobe Research e enquanto ainda não estamos divulgando os detalhes do modelo, o que podemos compartilhar é: a Adobe sempre teve uma abordagem proativa para garantir que estamos inovando de forma responsável”, disse Anais Gragueb, uma porta-voz da Adobe, em um e-mail ao Gizmodo.

A música é arte e inerentemente humana. Como tal, devemos ter cuidado quando se trata de novas ferramentas como as da Adobe – ou então arriscamos um futuro onde a música soa tão vazia quanto as máquinas que a geram.