Microsoft afirma ter lançado 30 ferramentas de IA responsável no último ano

A Microsoft compartilhou suas práticas de inteligência artificial responsável do último ano em um relatório inaugural, incluindo o lançamento de 30 ferramentas de inteligência artificial responsável que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O Relatório de Transparência de IA Responsável da empresa foca em seus esforços para construir, apoiar e expandir produtos de IA de forma responsável, e faz parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A Microsoft também afirmou que expandiu sua equipe de IA responsável de 350 para mais de 400 pessoas – um aumento de 16,6% – no segundo semestre do ano passado.

“Como empresa na vanguarda da pesquisa e tecnologia de IA, estamos comprometidos em compartilhar nossas práticas com o público à medida que evoluem”, disseram Brad Smith, vice-presidente e presidente da Microsoft, e Natasha Crampton, líder de IA responsável, em um comunicado. “Este relatório nos permite compartilhar nossas práticas amadurecidas, refletir sobre o que aprendemos, traçar nossos objetivos, nos responsabilizar e conquistar a confiança do público.”

A Microsoft afirmou que suas ferramentas de IA responsável têm como objetivo “mapear e medir os riscos de IA”, em seguida, gerenciá-los com mitigação, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta de teste aberto chamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite que profissionais de segurança e engenheiros de aprendizado de máquina identifiquem riscos em seus produtos de IA generativa.

Em novembro, a empresa lançou um conjunto de ferramentas de avaliação para IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes pudessem avaliar seus modelos para métricas básicas de qualidade, incluindo a “groundedness” – ou quão bem a resposta gerada por um modelo se alinha com seu material de origem. Em março, essas ferramentas foram expandidas para abordar riscos de segurança, incluindo conteúdo odioso, violento, sexual e autolesivo, bem como métodos de jailbreaking, como injeções de prompt, que é quando um grande modelo de linguagem é alimentado com instruções que podem fazer vazar informações sensíveis ou espalhar desinformação.

Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com vários incidentes com seus modelos de IA no último ano. Em março, o chatbot de IA Copilot da Microsoft disse a um usuário que “talvez você não tenha nada pelo que viver,” após o usuário, um cientista de dados da Meta, perguntar ao Copilot se ele deveria “simplesmente acabar com tudo.” A Microsoft afirmou que o cientista de dados havia tentado manipular o chatbot para gerar respostas impróprias, o que o cientista de dados negou.

Em outubro passado, o gerador de imagens do Bing da Microsoft permitia que os usuários gerassem fotos de personagens populares, incluindo Kirby e Spongebob, voando aviões contra as Torres Gêmeas. Após o lançamento do chatbot Bing AI (antecessor do Copilot) em fevereiro do ano passado, um usuário conseguiu fazer o chatbot dizer “Heil Hitler.”

“Não há linha de chegada para a IA responsável. E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas descobertas cedo e com frequência, e em participar de um diálogo robusto sobre práticas de IA responsável,” Smith e Crampton escreveram no relatório.