Instagram vai identificar e borrar imagens sensíveis em mensagens diretas de menores de idade

Com o objetivo de proteger os menores de idade contra abusos e golpes de exploração sexual, o Instagram lançou um novo recurso de segurança para as mensagens diretas relacionadas a imagens explícitas. Através da proteção de nudez, qualquer foto com conteúdo explícito será exibida com um borrão nas conversas com indivíduos com menos de 18 anos.

De acordo com a Meta, essa ferramenta não apenas desfoca as imagens explícitas, mas também desencoraja o envio das mesmas. O recurso será ativado automaticamente em perfis de menores de idade, com base na data de nascimento fornecida no momento da criação da conta. Usuários adultos também receberão uma notificação incentivando o uso dessa proteção.

O novo recurso de desfoque de nudes passará por um período de testes nas próximas semanas, conforme informações do Wall Street Journal. O lançamento oficial está previsto para ocorrer dentro de alguns meses, sem uma data exata.

Segundo a Meta, a função utiliza inteligência artificial no celular para identificar nudez nas imagens enviadas por mensagens diretas. A empresa só terá acesso à foto em caso de denúncia formal no Instagram.

Os usuários que ativarem o recurso e receberem fotos explícitas serão notificados para não se sentirem pressionados a responder. A notificação também oferecerá opções para bloquear e denunciar a pessoa que enviou a imagem.

A Meta explicou que esse recurso foi desenvolvido não apenas para proteger as pessoas de conteúdo indesejado em suas mensagens diretas, mas também para prevenir possíveis golpes nos quais indivíduos enviam nudes para enganar os outros a compartilharem fotos pessoais em troca. Aqueles que compartilharem nudes por mensagens diretas também receberão um aviso sobre os perigos de enviar fotos íntimas.