As “Alucinações” do ChatGPT colocam a OpenAI sob escrutínio na Europa

A OpenAI está sob escrutínio da União Europeia novamente – desta vez por causa de alucinações do ChatGPT sobre pessoas.

Um grupo sem fins lucrativos de direitos de privacidade chamado noyb apresentou uma reclamação na segunda-feira à Autoridade de Proteção de Dados da Áustria (DPA) contra a empresa de inteligência artificial em nome de um indivíduo, devido à sua incapacidade de corrigir informações geradas pelo ChatGPT sobre pessoas.

Embora as alucinações, ou a tendência de grandes modelos de linguagem (LLMs) como o ChatGPT de inventar informações falsas ou sem sentido, sejam comuns, a reclamação da noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regulamenta como os dados pessoais das pessoas no bloco são coletados e armazenados.

Segundo a noyb, a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT, e não consegue dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individuais, e que está ciente do problema, mas parece não se importar.

De acordo com o GDPR, os indivíduos na UE têm o direito de ter informações incorretas sobre eles corrigidas, tornando a OpenAI não conformista com a regra devido à sua incapacidade de corrigir os dados, disse a noyb em sua reclamação.

Enquanto as alucinações “podem ser toleráveis” para trabalhos escolares, a noyb disse que é “inaceitável” quando se trata de gerar informações sobre as pessoas. O reclamante no caso da noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre seu aniversário, mas “repetidamente recebeu informações incorretas”, de acordo com a noyb. A OpenAI então supostamente “recusou seu pedido de retificação ou exclusão dos dados, argumentando que não era possível corrigir os dados”. Em vez disso, a OpenAI supostamente disse ao reclamante que poderia filtrar ou bloquear os dados em determinadas solicitações, como o nome do reclamante.

O grupo está pedindo à DPA que investigue como a OpenAI processa os dados, e como a empresa garante dados pessoais precisos no treinamento de seus LLMs. A noyb também está pedindo à DPA que ordene à OpenAI que cumpra o pedido do reclamante para acessar os dados – um direito nos termos do GDPR que exige que as empresas mostrem aos indivíduos quais dados têm sobre eles e quais são as fontes desses dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir solicitações de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogada de proteção de dados da noyb, em comunicado. “É claramente possível manter registros dos dados de treinamento que foram usados para pelo menos ter uma ideia sobre as fontes de informação. Parece que com cada ‘inovação’, outro grupo de empresas acha que seus produtos não precisam cumprir a lei.”

O não cumprimento das regras do GDPR pode resultar em penalidades de até 20 milhões de euros ou 4% do faturamento anual global – o que for maior – e até mais danos se os indivíduos optarem por buscar tais penalidades. A OpenAI já enfrenta casos similares de proteção de dados em estados membros da UE, como Itália e Polônia.