Um grupo de pesquisadores de uma das mais importantes universidades do Reino Unido desenvolveu um método que pode ajudar a identificar com maior facilidade se modelos de IA (Inteligência Artificial) estão sendo treinados com trabalhos protegidos por direitos autorais.
O método consiste em uma espécie de “armadilha”, que permite a identificação de trechos de trabalhos acadêmicos e ensaios utilizados no treinamento de ferramentas de inteligência artificial. Esta ferramenta já está disponível para interessados no GitHub e consiste em implementar trechos ocultos de texto em documentos disponibilizados em plataformas online. Caso alguma empresa utilize esse material durante o desenvolvimento de grandes modelos de linguagem, os trechos escondidos funcionam como provas do uso indevido do conteúdo, permitindo que os detentores dos direitos tomem as medidas necessárias.
Embora o conceito de armadilha de direitos autorais não seja novidade, esta é a primeira vez que uma solução desse tipo é desenvolvida para lidar com a inteligência artificial. Os pesquisadores envolvidos no projeto afirmam que a ferramenta pode ser útil para identificar a utilização indevida, mas reconhecem que ainda há imperfeições, sendo possível que pessoas experientes consigam detectar e remover as armadilhas dos documentos originais.
Nos últimos meses, grandes empresas de tecnologia têm enfrentado processos jurídicos por supostamente utilizar materiais protegidos no treinamento de modelos de IA. O jornal norte-americano The New York Times processou a OpenAI e a Microsoft, acusando-as de utilizarem conteúdos jornalísticos sem autorização e sem compensação financeira.