Microsoft Está Proibindo Polícia de Usar Sua IA para Reconhecimento Facial

A Microsoft está proibindo o uso de seu serviço de inteligência artificial para reconhecimento facial “por ou para” departamentos de polícia nos Estados Unidos.

Em seu código de conduta atualizado para seu Serviço Azure OpenAI, a empresa também disse que as integrações com o serviço não devem ser usadas para tecnologia de reconhecimento facial em tempo real utilizada por “qualquer aplicação da lei globalmente”, incluindo em câmeras móveis e câmeras montadas em painéis, “para tentar identificar indivíduos em ambientes não controlados, ‘na natureza'”, ou “para tentar identificar pessoas presentes em um banco de dados de suspeitos ou ex-presidiários”.

O Serviço Azure OpenAI dá aos clientes corporativos acesso aos modelos de linguagem grandes (LLMs) da OpenAI. O serviço é totalmente gerenciado pela Microsoft e limitado aos clientes que já têm uma parceria com a empresa, estão usando-o para casos de menor risco e estão focados em mitigar os riscos.

Na semana passada, a Axon, uma empresa que fabrica tecnologia e armas, inclusive para aplicação da lei, lançou um programa de software baseado em IA que permite à polícia automatizar relatórios. O produto, chamado Draft One, é um “novo produto de software revolucionário que redige narrativas de relatórios policiais de alta qualidade em segundos.” A Axon disse que o Draft One é alimentado pelo LLM mais potente da OpenAI, GPT-4, e pode escrever relatórios a partir da transcrição automática de áudio das câmeras corporais de polícia vendidas pela empresa.

No entanto, críticos da ferramenta disseram que ela poderia ser problemática considerando que a IA tem problemas com “alucinação” – ou seja, inventar informações falsas ou sem sentido – e pode ser usada para absolver a polícia de responsabilidades legais se um relatório incluir informações imprecisas.

Dave Maass, diretor de investigações de tecnologias de vigilância na Electronic Frontier Foundation, disse à Forbes que o Draft One é “um pesadelo”. Ele acrescentou que a polícia não é treinada para usar ferramentas alimentadas por IA e, portanto, pode não entender o escopo da tecnologia.

Não está claro se o código de conduta atualizado da Microsoft está relacionado ao lançamento do produto da Axon.