Parceria de ChatGPT da Apple poderá expor a empresa a riscos legais

A nova parceria anunciada pela Apple com a fabricante de chatbots de IA OpenAI colocará o modelo mais recente do ChatGPT nos próximos iPhones, iPads e Macs. Enquanto a OpenAI continua enfrentando ações legais de veículos de notícias e autores, o novo acordo com a Apple levanta a questão: a Apple poderia ser considerada responsável se os tribunais decidirem que a OpenAI violou direitos autorais?

A OpenAI foi processada por autores e organizações de notícias, incluindo The Intercept e The New York Times, ao longo do último ano, em múltiplos processos acusando a criadora do ChatGPT de violações de direitos autorais. A preocupação é que a OpenAI esteja usando conteúdo original de escritores sem compensação para treinar seus modelos de IA, com esses escritores alegando que a startup de IA os roubou.

Neil Elan, advogado sênior da Stubbs Alderton & Markiles LLP, afirma que a Apple provavelmente não seria responsabilizada em tais casos. “Eu não acho que teria um impacto direto na Apple”, disse. No entanto, segundo Elan, se os tribunais decidirem a favor dos autores, eles podem emitir injunções impedindo a OpenAI de continuar a coletar dados de forma não autorizada. Por um lado, isso poderia prejudicar a reputação do ChatGPT e afetar negativamente a Apple por associação. Por outro lado, tal resultado poderia ser bom para os usuários da Apple que buscam proteger seus dados ao usar o ChatGPT por meio da Siri.

A privacidade dos dados é um risco legal maior para a Apple em relação à sua parceria com a OpenAI do que a violação de direitos autorais, disse Elan. Isso porque “não há garantia de que será bem-sucedido e protegerá todos os usuários da maneira que a Apple representa”.

A Apple colocou a privacidade em destaque em seus anúncios de IA na segunda-feira durante sua Worldwide Developers Conference. Ao contrário de outros softwares de IA, a Apple disse que suas ferramentas de IA serão (na maioria dos casos) alimentadas por hardware que está em seu dispositivo Apple. Em casos em que softwares de IA mais complexos exigem mais potência computacional, a Apple usará um novo modelo chamado “private cloud compute”. O modelo significa que os dados dos usuários do iPhone da Apple são enviados de forma mais segura para servidores executados em hardware da Apple.

No entanto, Elan disse que “a política de computação em nuvem privada pode não ser forte o suficiente em determinadas áreas” para proteger totalmente a Apple de preocupações legais sobre a privacidade dos clientes. E a Apple não tem tanto controle sobre a privacidade dos usuários quando a Siri terceiriza consultas para o ChatGPT. Ainda assim, os usuários poderão optar por usar ou não o ChatGPT-4o, e a OpenAI fez grandes concessões: a startup não armazenará os pedidos dos clientes da Apple de endereços IP.

A Apple está fazendo muito mais pela privacidade dos usuários do que muitas outras empresas de IA até o momento. “Se os [novos padrões de privacidade da Apple] forem aceitos e se mostrarem eficazes na prática, isso poderia estabelecer um padrão ao qual outros operadores de IA então precisariam se adequar”, disse Elan. Ele afirmou que isso “levaria muitos outros provedores e operadores de IA a aumentar seus processos e proteções de segurança e adotar medidas semelhantes”.