Microsoft Está Proibindo a Polícia de Usar sua IA para Reconhecimento Facial

A Microsoft está proibindo o uso do seu serviço de inteligência artificial para reconhecimento facial “por ou para” departamentos de polícia nos Estados Unidos. Em seu código de conduta atualizado para o serviço Azure OpenAI, a empresa também afirmou que integrações com o serviço não devem ser usadas para tecnologia de reconhecimento facial em tempo real utilizada por “qualquer órgão policial globalmente”, incluindo câmeras móveis e câmeras montadas em painéis, “para tentar identificar indivíduos em ambientes não controlados” ou “para tentar identificar indivíduos presentes em um banco de dados de suspeitos ou ex-presidiários.” O Serviço Azure OpenAI oferece acesso aos clientes empresariais aos grandes modelos de linguagem (LLMs) da OpenAI. O serviço é totalmente gerenciado pela Microsoft e limitado aos clientes que já têm parceria com a empresa, o utilizam para casos de menor risco e que estão focados em mitigação. Na semana passada, a Axon, uma empresa que fabrica tecnologia e armas, incluindo para aplicação da lei, lançou um programa de software alimentado por IA que permite aos policiais automatizarem relatórios. Contudo, críticos da ferramenta disseram que ela poderia ser problemática considerando que a IA tem problemas de “alucinação” – ou seja, criar informações falsas ou sem sentido – e pode ser usada para absolver a polícia de responsabilidades legais se um relatório contiver informações imprecisas. Dave Maass, diretor de investigações de tecnologias de vigilância na Electronic Frontier Foundation, disse à Forbes que o Draft One é “um tipo de pesadelo”. Ele acrescentou que os policiais não são treinados para usar ferramentas alimentadas por IA e, portanto, podem não entender o alcance da tecnologia. Não está claro se o código de conduta atualizado da Microsoft está relacionado ao lançamento do produto da Axon.