Microsoft Proíbe Polícia de Utilizar sua IA para Reconhecimento Facial

A Microsoft está proibindo o uso de seu serviço de inteligência artificial para reconhecimento facial “por ou para” departamentos de polícia nos Estados Unidos.

No seu código de conduta atualizado para o seu Serviço Azure OpenAI, a empresa também afirmou que as integrações com o serviço não devem ser usadas para a tecnologia de reconhecimento facial em tempo real usada por “qualquer aplicação da lei globalmente”, incluindo câmeras móveis e câmeras montadas no painel, “para tentar identificar indivíduos em ambientes não controlados, ‘selvagens'”, ou “para tentar identificar indivíduos presentes em um banco de dados de suspeitos ou ex-presos.”

O serviço Azure OpenAI dá aos clientes empresariais acesso aos grandes modelos de linguagem (LLMs) da OpenAI. O serviço é totalmente gerenciado pela Microsoft e limitado aos clientes que já têm parceria com a empresa, estão usando-o para casos de menor risco e estão focados em mitigar danos.

Na semana passada, a Axon, uma empresa que fabrica tecnologia e armas, incluindo para a aplicação da lei, lançou um software alimentado por IA que permite à polícia automatizar relatórios. O produto, chamado Draft One, é um “novo software revolucionário que elabora narrativas de relatórios policiais de alta qualidade em segundos”. A Axon disse que o Draft One é alimentado pelo LLM mais poderoso da OpenAI, o GPT-4, e pode escrever relatórios a partir da transcrição automática de áudio de câmeras corporais da polícia vendidas pela empresa.

No entanto, críticos da ferramenta afirmaram que poderia ser problemático considerando que a AI tem problemas com “alucinações” – ou seja, inventar informações falsas ou sem sentido – e pode ser usada para absolver a polícia de responsabilidades legais se um relatório incluir informações imprecisas.

Dave Maass, diretor de investigações de tecnologias de vigilância da Electronic Frontier Foundation, disse à Forbes que o Draft One é “um pouco um pesadelo”. Ele acrescentou que a polícia não está treinada para usar ferramentas alimentadas por AI e, portanto, pode não entender o alcance da tecnologia.

Não está claro se o código de conduta atualizado da Microsoft está relacionado ao lançamento do produto da Axon.