Para proteger menores contra abusos e exploração sexual, o Instagram lançou um novo recurso de segurança para as mensagens diretas relacionadas a nudes. Com a proteção de nudez, qualquer imagem explícita será exibida com um borrão em conversas com pessoas menores de 18 anos.
De acordo com a Meta, o recurso não só desfoca os nudes, mas também desencoraja o envio. Ele será ativado automaticamente em perfis de menores de idade, de acordo com a data de nascimento informada no momento da criação da conta. Os usuários adultos também receberão uma notificação incentivando o uso dessa proteção.
O novo recurso de borrão de nudes passará por testes nas próximas semanas, conforme informações do Wall Street Journal. O lançamento oficial está previsto para acontecer em alguns meses, sem uma data exata definida.
A Meta explicou ao jornal que a função utiliza aprendizado de máquina nos dispositivos móveis para identificar nudez em imagens enviadas nas mensagens diretas. A empresa só terá acesso à foto se houver uma denúncia formal no Instagram.
Os usuários que ativarem a função e receberem fotos explícitas verão uma mensagem recomendando que não se sintam obrigados a responder. A notificação também oferecerá opções para bloquear e denunciar a pessoa que enviou a imagem.
A Meta destacou que o recurso visa não apenas proteger as pessoas de ver nudez indesejada nas mensagens diretas, mas também protegê-las de golpistas que possam enviar nudes para tentar enganá-las a enviar suas próprias fotos em troca. Quem compartilhar nudes nas mensagens diretas também receberá um alerta sobre os perigos de enviar fotos íntimas.