Apple e Google retiraram vários aplicativos de IA que anunciavam deepfakes de nudez.

A Apple e o Google removeram aplicativos que prometiam deepfakes de nudez da App Store e do Google Play, de acordo com um relatório da 404 Media. A 404 Media encontrou esta semana que o Instagram estava hospedando anúncios de aplicativos que usam inteligência artificial para gerar deepfakes de nudez. Um desses anúncios usava uma foto de Kim Kardashian com o slogan “Despisse qualquer garota de graça. Experimente.” Esse serviço, e outros semelhantes, parecem permitir aos usuários fazer upload de fotos reais de mulheres e gerar imagens falsas delas nuas. Os deepfakes de nudez têm sido um grande problema na era inicial da inteligência artificial generativa. Em janeiro, deepfakes de Taylor Swift inundaram a internet, com uma foto em particular recebendo dezenas de milhões de visualizações e 24.000 repostagens. Deepfakes de adolescentes em escolas de Nova Jersey, Washington e Califórnia provocaram investigações no final de 2023. Até agora, cerca de duas dezenas de estados dos EUA introduziram legislação para combater conteúdo gerado por AI sexualmente explícito. E no mês passado, dois adolescentes de Miami, Flórida, foram presos por usar aplicativos de “despir” para fazer nudes de seus colegas e foram acusados de felonias de terceiro grau. Não há uma lei federal que aborda deepfakes feitos por AI, mas senadores dos EUA introduziram legislação em janeiro que permitiria às vítimas processar seus perpetradores. “Embora as imagens possam ser falsas, o dano às vítimas da distribuição de deepfakes sexualmente explícitos é muito real”, disseram os senadores Richard Durbin e Lindsey Graham em seu anúncio do projeto de lei apelidado de DEFIANCE Act. “As vítimas perderam seus empregos e podem sofrer depressão ou ansiedade contínuas.”