OpenAI Pode Estar em Apuros devido às Alucinações de ChatGPT Sobre Pessoas.

A OpenAI está sob escrutínio novamente na União Europeia – desta vez sobre as alucinações do ChatGPT a respeito de pessoas.

Um grupo sem fins lucrativos de direitos de privacidade chamado noyb apresentou uma queixa na segunda-feira à Autoridade de Proteção de Dados da Áustria (DPA) contra a empresa de inteligência artificial em nome de um indivíduo por sua incapacidade de corrigir informações geradas pelo ChatGPT sobre pessoas.

Embora as alucinações, ou a tendência de modelos de linguagem grandes (LLM) como o ChatGPT inventarem informações falsas ou sem sentido, sejam comuns, a queixa do noyb se concentra no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. O GDPR regula como os dados pessoais das pessoas do bloco são coletados e armazenados.

Apesar dos requisitos do GDPR, “a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT”, disse o noyb em comunicado, acrescentando que a empresa também “não consegue dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individuais” e que está “bem ciente desse problema, mas parece não se importar”.

Segundo o GDPR, os indivíduos na UE têm direito a que informações incorretas sobre eles sejam corrigidas, tornando assim a OpenAI não compatível com a regra devido à sua incapacidade de corrigir os dados, disse o noyb em sua queixa.

Enquanto as alucinações “podem ser toleráveis” para trabalhos escolares, o noyb disse que é “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso do noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre sua data de aniversário, mas “repetidamente recebeu informações incorretas”, segundo o noyb. A OpenAI então teria “recusado seu pedido de retificação ou exclusão dos dados, argumentando que não era possível corrigir os dados”. Em vez disso, a OpenAI teria dito ao reclamante que poderia filtrar ou bloquear os dados em determinados comandos, como o nome dos reclamantes.

O grupo está pedindo à DPA que investigue como a OpenAI processa os dados e como a empresa garante dados pessoais precisos ao treinar seus LLMs. O noyb também está pedindo à DPA para ordenar à OpenAI que cumpra o pedido do reclamante de acessar os dados – um direito sob o GDPR que exige que as empresas mostrem aos indivíduos quais dados têm sobre eles e quais são as fontes desses dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir com os pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogada de proteção de dados do noyb, em comunicado. “É claramente possível manter registros dos dados de treinamento usados para ter pelo menos uma ideia sobre as fontes de informações. Parece que com cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei”.

O não cumprimento das regras do GDPR pode levar a penalidades de até 20 milhões de euros ou 4% do faturamento anual global – o que for maior – e até mais danos se os indivíduos optarem por procurá-los. A OpenAI já enfrenta casos semelhantes de proteção de dados em Estados membros da UE na Itália e na Polônia.