Um Deepfake RACISTA De Inteligência Artificial Incriminou Um Diretor De Escola

A polícia do condado de Baltimore prendeu o ex-diretor de atletismo da Pikesville High School na quinta-feira, alegando que ele usou um clone de voz de inteligência artificial para se passar pelo diretor da escola, levando o público a acreditar que o diretor Eric Eiswert havia feito comentários racistas e antissemitas. Dazhon Darien foi parado em um aeroporto de Baltimore na manhã de quinta-feira, tentando embarcar em um voo para Houston com uma arma, de acordo com o The Baltimore Banner. Investigadores determinaram que Darien falsificou a voz de Eiswert usando uma ferramenta de clonagem de IA. A gravação de voz de IA, que foi amplamente divulgada nas redes sociais, fez comentários depreciativos sobre estudantes negros e a comunidade judaica. Com base em uma extensa investigação, os detetives agora têm evidências conclusivas de que a gravação não era autêntica. Segundo a polícia do condado de Baltimore, o ex-diretor de atletismo fez a gravação de IA para retaliar contra o diretor da escola. Um mês antes da gravação viralizar, o The Banner informa que Eiswert iniciou uma investigação contra Darien por potencial desvio de fundos da escola. Darien autorizou um pagamento de $1.916 ao treinador de basquete JV da escola, que também era seu companheiro de quarto, contornando os procedimentos adequados. Darien enviou sua renúncia no início de abril. A polícia diz que Darien foi o primeiro de três professores a receber o áudio da principal na noite anterior à viralização. Outro professor que recebeu a gravação a enviou para alunos, veículos de imprensa e a NAACP. A criação de deepfakes de áudio gerados por IA é um problema cada vez maior enfrentado pelo mundo da tecnologia. A Comissão Federal de Comunicações deu passos em fevereiro para proibir chamadas falsas de deepfake após um deepfake de Joe Biden induzir eleitores de New Hampshire ao erro. Neste caso, especialistas em IA conseguiram identificar que o áudio alegado do diretor de Baltimore era falso. No entanto, isso ocorreu dois meses após a viralização do áudio, e o dano pode já ter sido causado. Os deepfakes de IA realmente precisam ser detidos desde cedo para minimizar os danos, mas isso é mais fácil dizer do que fazer.