OpenAI Poderia Estar em Problemas por Alucinações do ChatGPT Sobre Pessoas

A OpenAI está sob escrutínio da União Europeia novamente – desta vez sobre as alucinações de ChatGPT em relação às pessoas. Um grupo sem fins lucrativos de direitos de privacidade chamado noyb apresentou uma reclamação na segunda-feira à Autoridade de Proteção de Dados da Áustria (DPA) contra a empresa de inteligência artificial em nome de um indivíduo, devido à sua incapacidade de corrigir informações geradas pelo ChatGPT sobre pessoas.

Embora as alucinações, ou a tendência de grandes modelos de linguagem (LLMs) como o ChatGPT de inventar informações falsas ou sem sentido, sejam comuns, a reclamação da noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regula como os dados pessoais das pessoas no bloco são coletados e armazenados.

Apesar dos requisitos do GDPR, “a OpenAI admite abertamente que é incapaz de corrigir informações incorretas no ChatGPT”, disse a noyb em comunicado, acrescentando que a empresa também “não pode dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individuais”, e que está “bem ciente desse problema, mas não parece se importar”.

Segundo o GDPR, os indivíduos na UE têm o direito de ter informações incorretas sobre eles corrigidas, tornando assim a OpenAI não compatível com a regra devido à sua incapacidade de corrigir os dados, afirmou a noyb em sua reclamação.

Enquanto as alucinações “podem ser toleráveis” para trabalhos de casa, a noyb disse ser “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso da noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre seu aniversário, mas “foi repetidamente fornecido com informações incorretas”, segundo a noyb. A OpenAI então supostamente “recusou seu pedido de retificação ou exclusão dos dados, argumentando que não era possível corrigir os dados”. Em vez disso, a OpenAI supostamente disse ao reclamante que poderia filtrar ou bloquear os dados em certas solicitações, como o nome do reclamante.

O grupo está solicitando à DPA que investigue como a OpenAI processa os dados e como a empresa garante dados pessoais precisos no treinamento de seus LLMs. A noyb também está pedindo à DPA que ordene à OpenAI que cumpra o pedido do reclamante para acessar os dados – um direito sob o GDPR que exige que as empresas mostrem aos indivíduos quais dados têm sobre eles e quais são as fontes desses dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir os pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogado de proteção de dados da noyb, em comunicado. “Claramente é possível manter registros dos dados de treinamento que foram usados para ter pelo menos uma ideia sobre as fontes de informação. Parece que a cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei.”

O não cumprimento das regras do GDPR pode levar a penalidades de até 20 milhões de euros ou 4% do faturamento anual global – o que for mais alto – e ainda mais danos se os indivíduos optarem por buscá-los. A OpenAI já enfrenta casos semelhantes de proteção de dados em estados membros da UE, como Itália e Polônia.