As “Alucinações” da ChatGPT colocam a OpenAI sob escrutínio na Europa

A OpenAI está sob escrutínio da União Europeia novamente – desta vez por causa das alucinações do ChatGPT sobre as pessoas.

Um grupo sem fins lucrativos de direitos de privacidade chamado noyb apresentou uma queixa na segunda-feira à Autoridade de Proteção de Dados da Áustria (DPA) contra a empresa de inteligência artificial em nome de um indivíduo, devido à sua incapacidade de corrigir as informações geradas pelo ChatGPT sobre as pessoas.

Embora as alucinações, ou a tendência dos grandes modelos de linguagem (LLMs) como o ChatGPT, de inventar informações falsas ou sem sentido sejam comuns, a queixa do noyb foca no Regulamento Geral de Proteção de Dados (GDPR) da UE. O GDPR regula como os dados pessoais das pessoas no bloco são coletados e armazenados.

De acordo com o noyb, a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT e não consegue dizer de onde vêm os dados ou que dados o ChatGPT armazena sobre pessoas individualmente, e que está “bem ciente desse problema, mas não parece se importar.”

Sob o GDPR, os indivíduos na UE têm o direito de que informações incorretas sobre eles sejam corrigidas, tornando a OpenAI não conforme com a regra devido à sua incapacidade de corrigir os dados, afirmou o noyb em sua queixa.

Embora as alucinações “possam ser toleráveis” para trabalhos de casa, o noyb disse que é “inaceitável” quando se trata de gerar informações sobre pessoas. O reclamante no caso do noyb contra a OpenAI é um indivíduo público que perguntou ao ChatGPT sobre sua data de nascimento, mas “foi repetidamente fornecido com informações incorretas”, de acordo com o noyb. A OpenAI então teria “recusado seu pedido para retificar ou apagar os dados, argumentando que não era possível corrigir os dados.” Em vez disso, a OpenAI teria dito ao reclamante que poderia filtrar ou bloquear os dados em determinadas solicitações, como o nome do reclamante.

O grupo está pedindo à DPA que investigue como a OpenAI processa dados e como a empresa garante a precisão dos dados pessoais no treinamento de seus LLMs. O noyb também está pedindo à DPA que ordene à OpenAI que cumpra o pedido do reclamante de acessar os dados – um direito sob o GDPR que exige que as empresas mostrem aos indivíduos quais dados eles têm sobre eles e quais são as fontes dos dados.

A OpenAI não respondeu imediatamente a um pedido de comentário.

“A obrigação de cumprir com os pedidos de acesso se aplica a todas as empresas”, disse Maartje de Graaf, advogado de proteção de dados no noyb, em comunicado. “É claramente possível manter registros dos dados de treinamento que foram usados pelo menos para ter uma ideia sobre as fontes de informação. Parece que com cada ‘inovação’, outro grupo de empresas pensa que seus produtos não precisam cumprir a lei.”

O não cumprimento das regras do GDPR pode levar a penalidades de até 20 milhões de euros ou 4% do faturamento anual global – o valor que for mais alto – e ainda mais danos se os indivíduos optarem por buscá-los. A OpenAI já está enfrentando casos semelhantes de proteção de dados em estados membros da UE, como Itália e Polônia.