Instagram irá identificar e remover imagens íntimas enviadas por mensagem direta para menores de idade.

A fim de proteger menores de idade contra abusos e golpes de exploração sexual, o Instagram anunciou, nesta quinta-feira (11), um novo recurso de segurança para as DMs em relação a nudes. Por meio da proteção de nudez, qualquer imagem com conteúdo explícito irá aparecer com um borrão em chats com pessoas abaixo dos 18 anos.

Segundo a Meta, o recurso não só desfoca nudes, como também desencoraja o envio. A função vai funcionar por padrão em perfis de menores de idade, de acordo com a data de nascimento informada na hora de criar a conta. Os usuários adultos também vão receber uma notificação incentivando o uso da proteção.

O novo recurso que borra nudes vai entrar em fase de testes nas próximas semanas, segundo informações do Wall Street Journal. Já o lançamento deve acontecer daqui a alguns meses, sem uma previsão exata.

Ao jornal, a Meta explicou que a função utiliza aprendizado de máquina no celular para identificar nudez nas imagens enviados por DMs. A empresa só terá acesso à foto, caso ela aconteça uma denúncia formal no Instagram.

Instagram vai notificar usuários que recebem e mandam nudes

Os usuários que ativarem a função e receberem fotos explícitas verão uma mensagem dizendo para não se sentirem pressionados a responder. A notificação também vai oferecer opções de bloquear e denunciar a pessoa que enviou a imagem.

“Este recurso foi projetado não apenas para proteger as pessoas de ver nudez indesejada em suas DMs, mas também para protegê-las de golpistas que podem enviar nudes para enganar as pessoas a enviar suas próprias imagens em troca”, explicou a Meta no anúncio da ferramenta.

Quem compartilhar nudes pela DM também verá uma mensagem alertando sobre os perigos de enviar fotos íntimas.