Instagram vai identificar e apagar imagens sensíveis em mensagens diretas de menores de idade

Novo recurso de segurança para DMs no Instagram

A fim de proteger menores de idade contra abusos e golpes de exploração sexual, o Instagram anunciou um novo recurso de segurança. Agora, qualquer imagem com conteúdo explícito irá aparecer com um borrão em chats com pessoas abaixo dos 18 anos.

Funcionamento do recurso

Segundo a Meta, o recurso não só desfoca nudes, como também desencoraja o envio. A função será ativada por padrão em perfis de menores de idade, de acordo com a data de nascimento informada na hora de criar a conta. Os usuários adultos também receberão uma notificação incentivando o uso da proteção.

Testes e lançamento

O novo recurso que borra nudes estará em fase de testes nas próximas semanas, de acordo com informações do Wall Street Journal. O lançamento oficial deve ocorrer daqui a alguns meses, sem uma data precisa definida.

Identificação e notificações

A função utiliza o aprendizado de máquina no celular para identificar nudez nas imagens enviadas por DMs. A Meta só terá acesso à foto se houver uma denúncia formal no Instagram.

Instagram vai notificar usuários que recebem e enviam nudes

Os usuários que ativarem a função e receberem fotos explícitas verão uma mensagem que os orienta a não se sentirem pressionados a responder. A notificação também oferecerá opções para bloquear e denunciar a pessoa que enviou a imagem.

“Este recurso foi projetado não apenas para proteger as pessoas de ver nudez indesejada em suas DMs, mas também para protegê-las de golpistas que podem enviar nudes para enganar as pessoas a enviar suas próprias imagens em troca”, explicou a Meta no anúncio da ferramenta.

Quem compartilhar nudes pela DM também receberá uma mensagem alertando sobre os perigos de enviar fotos íntimas.