Apple e Google retiraram vários Aplicativos de IA que anunciavam deepfake nudes

Apple e Google removeram aplicativos que prometiam nudez deepfake da App Store e do Google Play, de acordo com um relatório da 404 Media. A 404 Media descobriu que o Instagram estava hospedando anúncios de aplicativos que usam inteligência artificial para gerar nudez deepfake. Um desses anúncios usava uma foto de Kim Kardashian com o slogan “Despisse qualquer garota de graça. Experimente.” Esses serviços parecem permitir aos usuários enviar fotos reais de mulheres e gerar imagens falsas delas nuas. Os deepfakes de nudez têm sido um grande problema na era inicial da inteligência artificial generativa. Deepfakes de nudez de Taylor Swift inundaram a internet em janeiro. Deepfakes de adolescentes em escolas de Nova Jersey, Washington e Califórnia provocaram investigações no final de 2023. Cerca de duas dezenas de estados dos EUA introduziram legislação para combater conteúdo gerado por inteligência artificial sexualmente explícito. Dois adolescentes em Miami, Flórida, foram presos por usar aplicativos de “despir” para fazer nudes de seus colegas de classe e foram acusados de crimes de terceiro grau. Não há uma lei federal sobre nudes feitos por IA, mas senadores dos EUA introduziram legislação em janeiro que permitiria que as vítimas processassem seus perpetradores. “Embora as imagens possam ser falsas, o dano às vítimas pela distribuição de deepfakes sexualmente explícitos é muito real”, disseram os senadores Richard Durbin e Lindsey Graham em seu anúncio do DEFIANCE Act. “As vítimas perderam seus empregos e podem sofrer depressão ou ansiedade contínuas.”