Apple e Google Retiraram Várias Apps de IA que Anunciavam Deepfakes de Nudes

A Apple e o Google removeram aplicativos que prometiam deepfakes de nudes da App Store e Google Play, de acordo com um relatório da 404 Media.

A 404 Media encontrou anteriormente esta semana anúncios no Instagram de aplicativos que usam IA para gerar deepfakes de nudes. Um desses anúncios usava uma foto de Kim Kardashian com o slogan “Despisse qualquer garota de graça. Experimente.” Esse serviço, e outros parecidos, parecem permitir aos usuários enviar fotos reais de mulheres e gerar imagens falsas delas nuas. O relatório da 404 Media veio apenas algumas semanas depois que o Meta agiu para dificultar o envio e recebimento de nudes através do Instagram Messenger, numa tentativa de proteger os usuários adolescentes de predadores.

Nudes deepfake têm sido um grande problema na era inicial da AI generativa. Nudes gerados por AI de Taylor Swift inundaram a X em janeiro, com uma dessas fotos recebendo dezenas de milhões de visualizações e 24.000 repostagens. Deepfakes de nudes de adolescentes em escolas em Nova Jersey, Washington e Califórnia provocaram investigações no final de 2023. Até agora, cerca de duas dezenas de estados americanos introduziram legislações para reprimir conteúdo gerado por AI sexualmente explícito. E no mês passado, dois adolescentes do sexo masculino em Miami, Flórida foram presos por usar aplicativos chamados “despir” para fazer nudes de seus colegas, e foram acusados de felonias de terceiro grau.

Não existe nenhuma lei federal sobre nudes feitos por AI, mas senadores americanos introduziram legislação em janeiro que permitiria às vítimas processarem seus perpetradores.

“Embora as imagens possam ser falsas, o dano às vítimas pela distribuição de deepfakes sexualmente explícitos é muito real,” disseram os senadores americanos Richard Durbin e Lindsey Graham em seu anúncio do projeto de lei apelidado de Ato DEFIANCE. “As vítimas perderam seus empregos, e podem sofrer depressão ou ansiedade contínua.”