Se você está se perguntando quando as forças armadas começarão a implantar inteligência artificial no campo de batalha, a resposta é: aparentemente, isso já está acontecendo. O Pentágono tem usado algoritmos de visão computacional para ajudar a identificar alvos para ataques aéreos, de acordo com um relatório da Bloomberg News. Recentemente, esses algoritmos foram utilizados para realizar mais de 85 ataques aéreos como parte de uma missão no Oriente Médio.
Os bombardeios em questão, que ocorreram em várias partes do Iraque e da Síria em 2 de fevereiro, “destruíram ou danificaram foguetes, mísseis, depósitos de drones e centros de operações de milícias, entre outros alvos”, relata a Bloomberg. Eles fizeram parte de uma resposta organizada pela administração Biden ao ataque com drones de janeiro na Jordânia que matou três membros do serviço dos EUA. O governo culpou operativos apoiados pelo Irã pelo ataque.
A utilização de inteligência artificial para a aquisição de “alvos” parece ser parte de uma tendência crescente — e, argumentavelmente, perturbadora. No final do ano passado, foi relatado que Israel estava utilizando um sistema de IA para encontrar alvos em Gaza. O programa de Israel, chamado de “O Evangelho”, é projetado para compilar vastas quantidades de dados e, em seguida, recomendar um alvo a um analista humano. Esse “alvo” pode ser uma arma, um veículo ou um humano vivo. O programa pode sugerir até 200 alvos em um período de apenas 10 a 12 dias, disseram autoridades israelenses. Os israelenses também afirmam que o direcionamento é apenas a primeira parte de um processo de revisão mais amplo, que pode envolver analistas humanos.
Se usar software para identificar alvos de bombardeio parece ser um processo propenso a erros horríveis, vale ressaltar que, historicamente, os EUA não foram particularmente bons em descobrir onde bombardear, de qualquer maneira. Se você se lembrar, administrações anteriores costumavam confundir festas de casamento com esconderijos de terroristas. Melhor deixar um programa de software tomar esse tipo de decisão, certo? Há menos culpabilidade humana dessa forma. Se a pessoa errada for morta ou se você bombardear uma fábrica de medicamentos em vez de um depósito de munições, você sempre pode simplesmente culpar isso por uma falha de software.