Microsoft Diz Ter Lançado 30 Ferramentas de IA Responsável no Último Ano

A Microsoft compartilhou suas práticas responsáveis de inteligência artificial do último ano em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsável que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O relatório de Transparência de IA Responsável da empresa foca em seus esforços para construir, apoiar e expandir produtos de IA de forma responsável, e faz parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A Microsoft também afirmou que ampliou sua equipe de IA responsável de 350 para mais de 400 pessoas – um aumento de 16,6% – no segundo semestre do ano passado.

“Como uma empresa na vanguarda da pesquisa e tecnologia em IA, estamos comprometidos em compartilhar nossas práticas com o público à medida que elas evoluem”, disseram Brad Smith, vice-presidente e presidente da Microsoft, e Natasha Crampton, chefe de IA responsável, em um comunicado. “Este relatório nos permite compartilhar nossas práticas em amadurecimento, refletir sobre o que aprendemos, estabelecer nossos objetivos, nos responsabilizar e conquistar a confiança do público.”

A Microsoft afirmou que suas ferramentas de IA responsável servem para “mapear e medir riscos de IA”, e então gerenciá-los com mitigações, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta de teste aberto chamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite a profissionais de segurança e engenheiros de aprendizado de máquina identificar riscos em seus produtos de IA generativa.

Em novembro, a empresa lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes pudessem avaliar seus modelos quanto a métricas básicas de qualidade, incluindo groundedness – ou quão bem a resposta gerada de um modelo se alinha com seu material de origem. Em março, essas ferramentas foram expandidas para abordar riscos de segurança, incluindo conteúdo prejudicial, violento, sexual e autoprejudicial, assim como métodos de jailbreaking, como injeções de prompt, que é quando um modelo de linguagem grande (LLM) é alimentado com instruções que podem fazer com que vaze informações sensíveis ou espalhe desinformação.

Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com inúmeros incidentes com seus modelos de IA no último ano. Em março, o chatbot de IA Copilot da Microsoft disse a um usuário que “talvez você não tenha nada pelo que viver”, depois que o usuário, um cientista de dados no Meta, perguntou ao Copilot se ele deveria “acabar com tudo”. A Microsoft afirmou que o cientista de dados tentou manipular o chatbot para gerar respostas inapropriadas, o que o cientista negou.

Em outubro passado, o gerador de imagens do Bing da Microsoft permitia aos usuários gerar fotos de personagens populares, incluindo Kirby e Spongebob, voando aviões para as Torres Gêmeas. Após o Bing AI chatbot (antecessor do Copilot) ter sido lançado em fevereiro do ano passado, um usuário conseguiu fazer com que o chatbot dissesse “Heil Hitler”.

“Não há linha de chegada para a IA responsável. E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas descobertas cedo e frequentemente e participar de um diálogo robusto sobre práticas de IA responsável”, escreveram Smith e Crampton no relatório.