As ‘alucinações’ do ChatGPT colocam a OpenAI sob escrutínio na Europa.

OpenAI está sob escrutínio da União Europeia novamente – desta vez sobre as alucinações de ChatGPT sobre as pessoas. Um grupo sem fins lucrativos de direitos de privacidade chamado noyb apresentou uma queixa na segunda-feira à Autoridade Austríaca de Proteção de Dados (APD) contra a empresa de inteligência artificial em nome de um indivíduo sobre sua incapacidade de corrigir as informações geradas por ChatGPT sobre as pessoas.

Embora as alucinações, ou a tendência de modelos de linguagem grandes (LLMs) como ChatGPT de inventar informações falsas ou sem sentido, sejam comuns, a reclamação do noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regula como os dados pessoais das pessoas do bloco são coletados e armazenados.

Segundo o noyb, apesar dos requisitos do GDPR, “OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT”, acrescentando que a empresa também “não consegue dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individuais”, e que está “bem ciente desse problema, mas não parece se importar”.

De acordo com o GDPR, os indivíduos na UE têm o direito de corrigir informações incorretas sobre eles, tornando assim a OpenAI não conforme com a regra devido à sua incapacidade de corrigir os dados, disse o noyb em sua reclamação.

Embora as alucinações “possam ser toleráveis” para tarefas de casa, o noyb disse que é “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso do noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre seu aniversário, mas “recebeu repetidamente informações incorretas”, de acordo com o noyb. A OpenAI então teria “recusado seu pedido de retificação ou exclusão dos dados, argumentando que não era possível corrigir os dados”. Em vez disso, a OpenAI teria dito ao reclamante que poderia filtrar ou bloquear os dados em determinadas solicitações, como o nome do reclamante.

O grupo está pedindo à APD que investigue como a OpenAI processa dados e como a empresa garante dados pessoais precisos no treinamento de seus LLMs. O noyb também está pedindo à APD que ordene à OpenAI que cumpra o pedido do reclamante de acessar os dados – um direito sob o GDPR que exige que as empresas mostrem aos indivíduos quais dados têm sobre eles e quais são as fontes desses dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogada de proteção de dados do noyb, em um comunicado. “É claramente possível manter registros de dados de treinamento que foram usados pelo menos para ter uma ideia sobre as fontes de informação. Parece que, a cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei”.

Não cumprir as regras do GDPR pode levar a multas de até 20 milhões de euros ou 4% do faturamento global anual – o que for maior – e até mais danos se os indivíduos optarem por buscá-los. A OpenAI já está enfrentando casos semelhantes de proteção de dados em estados-membros da UE na Itália e na Polônia.