Apple e Google retiraram diversos aplicativos de IA que anunciavam deepfakes de nus.

Apple e Google removeram aplicativos que prometiam deepfakes nus da App Store e do Google Play. De acordo com um relatório da 404 Media, eles encontraram anúncios no Instagram de aplicativos que usam inteligência artificial para gerar nus falsos. Um dos anúncios usou uma foto de Kim Kardashian com o slogan “Despisse qualquer garota de graça. Experimente.” Esses serviços parecem permitir aos usuários fazer upload de fotos reais de mulheres e gerar imagens falsas delas nuas. Os deepfakes de nus têm sido um grande problema na era inicial da IA generativa. Em janeiro, os nus gerados por IA de Taylor Swift inundaram a Internet, com uma foto desse tipo obtendo dezenas de milhões de visualizações e 24.000 repostagens. Os deepfakes de nus de adolescentes em escolas em Nova Jersey, Washington e Califórnia provocaram investigações no final de 2023. Até agora, cerca de duas dezenas de estados nos EUA introduziram legislação para reprimir o conteúdo explícito gerado por IA. No mês passado, dois adolescentes em Miami, Flórida foram presos por usar aplicativos de “despir” para fazer nus de seus colegas e foram acusados de crimes de terceiro grau. Não há uma lei federal sobre nus feitos por IA, mas senadores dos EUA apresentaram uma legislação em janeiro que permitiria às vítimas processar seus perpetradores. “Embora as imagens sejam falsas, o dano às vítimas da distribuição de deepfakes sexualmente explícitos é muito real”, disseram os senadores Richard Durbin e Lindsey Graham em seu anúncio do projeto de lei apelidado de DEFIANCE Act. “As vítimas perderam seus empregos e podem sofrer depressão ou ansiedade contínuas.”