ChatGPT’s ‘Alucinações’ Colocam OpenAI sob Escrutínio na Europa

A OpenAI está sob escrutínio na União Europeia novamente – desta vez por conta das alucinações do ChatGPT sobre as pessoas.

Um grupo sem fins lucrativos de direitos de privacidade chamado noyb entrou com uma queixa na segunda-feira junto à Autoridade de Proteção de Dados da Áustria (DPA) contra a empresa de inteligência artificial em nome de um indivíduo, devido à sua incapacidade de corrigir informações geradas pelo ChatGPT sobre as pessoas.

Embora alucinações, ou a tendência dos grandes modelos de linguagem (GMLs) como o ChatGPT de inventar informações falsas ou sem sentido, sejam comuns, a queixa da noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regulamenta como os dados pessoais das pessoas no bloco são coletados e armazenados.

Apesar dos requisitos do GDPR, “a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT”, disse a noyb em um comunicado, acrescentando que a empresa também “não pode dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individuais”, e que ela “está bem ciente desse problema, mas parece não se importar”.

De acordo com o GDPR, os indivíduos na UE têm o direito de ter informações incorretas sobre eles corrigidas, tornando assim a OpenAI não conforme com a regra devido à sua incapacidade de corrigir os dados, afirmou a noyb em sua queixa.

Enquanto as alucinações “podem ser toleráveis” para trabalhos de casa, a noyb disse que é “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso da noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre seu aniversário, mas recebeu “repetidamente informações incorretas”, de acordo com a noyb. A OpenAI então supostamente “recusou seu pedido para retificar ou apagar os dados, argumentando que não era possível corrigir os dados. Em vez disso, a OpenAI alegadamente disse ao reclamante que poderia filtrar ou bloquear os dados em determinados prompts, como o nome do reclamante.

O grupo está pedindo à DPA que investigue como a OpenAI processa dados e como a empresa garante dados pessoais precisos ao treinar seus GMLs. A noyb também está pedindo à DPA para ordenar à OpenAI que cumpra o pedido do reclamante de acessar os dados – um direito sob o GDPR que exige que as empresas mostrem aos indivíduos quais dados têm sobre eles e quais são as fontes desses dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“Obrigação de cumprir os pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogada de proteção de dados da noyb, em comunicado. “É claramente possível manter registros dos dados de treinamento usados e ter pelo menos uma ideia sobre as fontes de informação. Parece que com cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei”.

O não cumprimento das regras do GDPR pode levar a penalidades de até 20 milhões de euros ou 4% do faturamento anual global – o valor que for maior – e até mais danos se os indivíduos optarem por buscá-los. A OpenAI já enfrenta casos semelhantes de proteção de dados em estados membros da UE, como Itália e Polônia.