OpenAI Pode Estar em Problemas por Alucinações do ChatGPT Sobre Pessoas

A OpenAI está sob escrutínio da União Europeia novamente – desta vez sobre as alucinações do ChatGPT sobre pessoas. Um grupo sem fins lucrativos de direitos de privacidade chamado noyb entrou com uma reclamação na segunda-feira junto à Autoridade de Proteção de Dados austríaca (DPA) contra a empresa de inteligência artificial em nome de um indivíduo por sua incapacidade de corrigir informações geradas pelo ChatGPT sobre as pessoas.

Embora as alucinações, ou a tendência de grandes modelos de linguagem (LLMs) como o ChatGPT de inventar informações falsas ou sem sentido, sejam comuns, a reclamação da noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regula como os dados pessoais das pessoas do bloco são coletados e armazenados.

Apesar dos requisitos do GDPR, a noyb afirmou em comunicado que “a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT”, acrescentando que a empresa também “não consegue dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre as pessoas individuais” e que “é bem consciente desse problema, mas não parece se importar”.

De acordo com o GDPR, as pessoas na UE têm o direito de ter informações incorretas sobre elas corrigidas, tornando a OpenAI não conforme com a regra devido à sua incapacidade de corrigir os dados, disse a noyb em sua reclamação.

Enquanto as alucinações “podem ser toleráveis” para trabalhos escolares, a noyb disse que é “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso da noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre seu aniversário, mas foi “repetidamente fornecido com informações incorretas”, segundo a noyb. A OpenAI teria então “recusado seu pedido de corrigir ou apagar os dados, argumentando que não era possível corrigir os dados.” Em vez disso, a OpenAI teria dito ao reclamante que poderia filtrar ou bloquear os dados em determinados prompts, como o nome do reclamante.

O grupo está pedindo à DPA que investigue como a OpenAI processa os dados e como a empresa garante dados pessoais precisos na formação de seus LLMs. A noyb também está solicitando à DPA que ordene à OpenAI que cumpra o pedido do reclamante para acessar os dados – um direito nos termos do GDPR que exige que as empresas mostrem aos indivíduos quais dados possuem sobre eles e quais são as fontes dos dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir os pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogada de proteção de dados da noyb, em comunicado. “É claramente possível manter registros de dados de treinamento que foram usados pelo menos para ter uma ideia sobre as fontes de informações. Parece que, com cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei”.

O não cumprimento das regras do GDPR pode levar a penalidades de até 20 milhões de euros ou 4% da receita anual global – o valor que for maior – e ainda mais danos se os indivíduos escolherem procurá-los. A OpenAI já enfrenta processos semelhantes de proteção de dados em estados membros da UE na Itália e na Polônia.