Microsoft está Proibindo a Polícia de Usar sua IA para Reconhecimento Facial.

A Microsoft está proibindo o uso de seu serviço de inteligência artificial para reconhecimento facial “por ou para” departamentos de polícia nos Estados Unidos.

Em seu código de conduta atualizado para o Azure OpenAI Service, a empresa também disse que as integrações com o serviço não devem ser usadas para tecnologia de reconhecimento facial em tempo real utilizada por “qualquer órgão policial globalmente”, incluindo câmeras móveis e câmeras montadas no painel, “para tentar identificar indivíduos em ambientes não controlados, ‘na natureza’, ou ‘para tentar identificar indivíduos presentes em um banco de dados de suspeitos ou ex-detentos”.

O Serviço Azure OpenAI dá aos clientes empresariais acesso aos grandes modelos de linguagem (LLMs) da OpenAI. O serviço é totalmente gerenciado pela Microsoft e limitado a clientes que já têm uma parceria com a empresa, estão utilizando para casos de menor risco e estão focados em mitigação.

Na semana passada, a Axon, uma empresa que fabrica tecnologia e armas, incluindo para a aplicação da lei, lançou um software alimentado por AI permitindo que a polícia automatize relatórios. O produto, chamado Draft One, é um “novo produto de software revolucionário que redige narrativas de relatório policial de alta qualidade em segundos.” A Axon disse que o Draft One é alimentado pelo LLM mais poderoso da OpenAI, o GPT-4, e pode escrever relatórios a partir da transcrição automática de áudio de câmeras corporais da polícia vendidas pela empresa.

No entanto, críticos da ferramenta disseram que ela poderia ser problemática considerando que a AI tem problemas com “alucinação” – ou inventar informações falsas ou sem sentido – e pode ser usada para absolver a polícia de responsabilidades legais se um relatório contiver informações imprecisas.

Dave Maass, diretor de investigações de tecnologias de vigilância na Electronic Frontier Foundation, disse à Forbes que o Draft One é “um tipo de pesadelo.” Ele acrescentou que a polícia não é treinada para usar ferramentas alimentadas por AI e, portanto, pode não entender o alcance da tecnologia.

Não está claro se o código de conduta atualizado da Microsoft está relacionado ao lançamento do produto da Axon.