Instagram vai identificar e borrar fotos íntimas em mensagens diretas de menores de idade

Com o objetivo de proteger menores de idade contra abusos e golpes de exploração sexual, o Instagram lançou um novo recurso de segurança para as mensagens diretas relacionadas a nudez. A partir da proteção de nudez, qualquer imagem com conteúdo explícito será exibida com um borrão em conversas com pessoas menores de 18 anos.

De acordo com a Meta, essa função não apenas desfoca nudes, mas também desencoraja o envio. O recurso será ativado automaticamente em perfis de menores de idade, com base na data de nascimento informada durante a criação da conta. Os usuários adultos também receberão uma notificação incentivando o uso dessa proteção.

O novo recurso de borramento de nudes passará por uma fase de testes nas próximas semanas, conforme informações do Wall Street Journal. O lançamento oficial está previsto para ocorrer dentro de alguns meses, sem uma data exata.

A Meta explicou ao jornal que a função utiliza aprendizado de máquina no celular para identificar nudez em imagens enviadas por mensagens diretas. A empresa só terá acesso à foto em caso de denúncia formal no Instagram.

Os usuários que ativarem a função e receberem fotos explícitas verão uma mensagem alertando para não se sentirem obrigados a responder. Além disso, a notificação oferecerá opções para bloquear e denunciar a pessoa que enviou a imagem.

Este recurso foi desenvolvido não só para proteger as pessoas de ver nudez indesejada em suas mensagens diretas, mas também para protegê-las de golpistas que podem enviar nudes com o intuito de enganar as pessoas a compartilharem suas próprias imagens em troca. Aqueles que compartilharem nudes receberão uma mensagem alertando sobre os perigos de enviar fotos íntimas através das mensagens diretas.