OpenAI Pode Estar em Problemas por Alucinações de ChatGPT Sobre Pessoas

A OpenAI está sob escrutínio da União Europeia novamente, desta vez por causa das alucinações do ChatGPT sobre pessoas. Um grupo sem fins lucrativos de direitos de privacidade chamado noyb entrou com uma reclamação na segunda-feira junto à Autoridade de Proteção de Dados da Áustria contra a empresa de inteligência artificial em nome de um indivíduo, devido à sua incapacidade de corrigir informações geradas pelo ChatGPT sobre pessoas. Apesar de alucinações serem comuns em modelos de linguagem, a reclamação do noyb foca no Regulamento Geral de Proteção de Dados (GDPR) da UE, que regulamenta a coleta e armazenamento de dados pessoais das pessoas no bloco. De acordo com o noyb, a OpenAI admite abertamente que não consegue corrigir informações incorretas no ChatGPT, não sabendo de onde os dados vêm ou que informações o ChatGPT armazena sobre as pessoas. No entanto, a empresa parece estar ciente do problema, mas não parece se importar. Sob o GDPR, as pessoas na UE têm o direito de ter informações incorretas sobre elas corrigidas, tornando assim a OpenAI desrespeitosa às regras devido à sua incapacidade de corrigir os dados, de acordo com o noyb. O grupo pede que a DPA investigue como a OpenAI processa dados e como a empresa garante dados pessoais precisos ao treinar seus modelos de linguagem. O noyb também solicita que a DPA ordene que a OpenAI cumpra a solicitação do reclamante de acesso aos dados – um direito conforme o GDPR que exige que as empresas mostrem às pessoas quais dados têm sobre elas e quais são as fontes desses dados. Caso não cumpra as regras do GDPR, a OpenAI pode sofrer multas de até 20 milhões de euros ou 4% do faturamento anual global – o que for maior – e até mesmo pagar mais danos se os indivíduos optarem por exigir. A OpenAI já enfrenta casos semelhantes de proteção de dados em outros Estados membros da UE, como a Itália e a Polônia.