Adobe Está Testando Uma Nova Ferramenta de IA Que Pode Criar Música a Partir de Estímulos de Texto

A era da música de robô ruim está sobre nós. A Adobe está trabalhando em uma nova ferramenta de IA que permitirá a qualquer um ser produtor de música, sem a necessidade de instrumento ou experiência em edição.

A empresa revelou o “Projeto Music GenAI Control” esta semana. A ferramenta permite que os usuários criem e editem música simplesmente digitando prompts de texto em um modelo de IA generativo. Esses prompts podem incluir descrições como “rock poderoso”, “dança feliz” ou “jazz triste”, explicou a Adobe.

O Projeto Music GenAI Control criará então uma melodia inicial com base no prompt do usuário, que também poderá ser editada usando texto. A Adobe afirmou que os usuários podem, por exemplo, editar a intensidade da música gerada, estender o comprimento do clipe de música ou criar um loop repetível, entre outros.

O público-alvo para esta nova ferramenta inclui podcasters, locutores e “qualquer pessoa que precise de áudio com o humor, tom e duração certos”, disse Nicholas Bryan, um cientista sênior de pesquisa da Adobe e um dos criadores da tecnologia.

“Uma das coisas empolgantes sobre essas novas ferramentas é que não se tratam apenas de gerar áudio – elas estão levando isso ao nível do Photoshop, oferecendo aos criativos o mesmo tipo de controle profundo para moldar, ajustar e editar seu áudio”, disse Bryan em um blog da Adobe. “É um tipo de controle de nível de pixel para música”.

A Adobe carregou um vídeo que mostrava como o Projeto Music GenAI Control funcionava e foi assustador o quão fácil foi para a ferramenta criar música. Também parecia funcionar muito rápido. Embora a música gerada não vá ganhar nenhum Grammy, é algo que posso definitivamente imaginar ouvindo no fundo de vídeos do YouTube, TikToks ou transmissões no Twitch.

Isso não é exatamente uma coisa boa. A IA tem reverberado em profissões como escrita e atuação, forçando os trabalhadores a se posicionar e evitar que seus meios de subsistência sejam roubados. Comentários no vídeo da empresa no YouTube ecoaram essas preocupações e criticaram a empresa por criar “música escrita por robôs, para robôs” e “corporativo cringe”.

“Obrigado Adobe por tentar encontrar ainda mais maneiras para que as corporações prejudiquem os criativos nos empregos. Além disso, de que artistas você roubou o material que usou para treinar sua IA?”, escreveu um usuário.

Ao ser questionada para comentar, a Adobe não divulgou detalhes sobre a música usada para treinar seu modelo de IA para o Projeto Music GenAI Control. No entanto, destacou que com o Firefly, sua família de geradores de imagem de IA, havia treinado seus modelos apenas com licenças abertas e domínio público onde o direito autoral havia expirado.

“Project Music GenAI Control é uma olhada muito inicial na tecnologia desenvolvida pelo Adobe Research e embora ainda não estejamos divulgando os detalhes do modelo, o que podemos compartilhar é: a Adobe sempre adotou uma abordagem proativa para garantir que estejamos inovando de forma responsável”, disse Anais Gragueb, porta-voz da Adobe, em um e-mail ao Gizmodo.

A música é arte e inerentemente humana. Como tal, devemos ser cuidadosos quando se trata de novas ferramentas como a da Adobe, senão corremos o risco de um futuro onde a música soa tão vazia quanto as máquinas que a geram.