Instagram vai identificar e borrar fotos sensíveis nas mensagens privadas de menores de idade

Com o objetivo de proteger menores de idade contra abusos e golpes de exploração sexual, o Instagram lançou um novo recurso de segurança para as mensagens diretas relacionadas a imagens explícitas. A proteção de nudez faz com que qualquer imagem com conteúdo explícito seja exibida de forma borrada em chats com pessoas menores de 18 anos.

De acordo com a Meta, a função não apenas desfoca as imagens explícitas, mas também desencoraja o envio. O recurso estará ativado por padrão em perfis de menores de idade, conforme a data de nascimento informada no momento da criação da conta. Os usuários adultos também serão notificados e incentivados a utilizar essa proteção.

O novo recurso de borramento de nudes passará por uma fase de testes nas próximas semanas, conforme informações do Wall Street Journal. O lançamento oficial deve ocorrer em alguns meses, sem uma data exata definida.

A Meta explicou ao jornal que a função utiliza inteligência artificial nos celulares para identificar nudez em imagens enviadas por mensagens diretas. A empresa só terá acesso à foto em caso de denúncia formal no Instagram.

Os usuários que ativarem o recurso e receberem fotos explícitas serão notificados para não se sentirem pressionados a responder. A notificação também oferecerá opções para bloquear e denunciar a pessoa que enviou a imagem.

A Meta destacou que o objetivo do recurso é proteger as pessoas não apenas de ver nudez indesejada nas mensagens diretas, mas também de golpistas que possam enviar nudes para enganar as pessoas a compartilhar suas próprias imagens em troca. Quem compartilhar nudes por mensagens diretas também receberá uma mensagem alertando sobre os perigos de enviar fotos íntimas.