O Instagram irá identificar e apagar imagens impróprias em mensagens diretas de menores de idade.

O Instagram anunciou um novo recurso de segurança para proteger menores de idade contra abusos e exploração sexual. Agora, qualquer imagem explícita enviada em chats com pessoas abaixo dos 18 anos será borrada, desencorajando o envio de nudes.

Esse recurso será ativado por padrão em perfis de menores de idade, e os usuários adultos receberão uma notificação incentivando o uso da proteção. A Meta informou que o sistema de borramento de imagens entrará em fase de testes em breve e será lançado oficialmente daqui a alguns meses.

De acordo com o Wall Street Journal, a função utiliza aprendizado de máquina no celular para identificar nudez nas imagens, mas a empresa só terá acesso à foto em caso de denúncia formal no Instagram.

Os usuários que ativarem a função e receberem fotos explícitas serão notificados para não se sentirem pressionados a responder, oferecendo opções de bloquear e denunciar a pessoa que enviou a imagem. A Meta destacou que o objetivo é proteger contra golpes e enganos.