Microsoft diz ter lançado 30 ferramentas de IA responsável no último ano.

A Microsoft compartilhou suas práticas responsáveis ​​com inteligência artificial do último ano em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsáveis com mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O foco do Relatório de Transparência de IA Responsável da empresa está em seus esforços para construir, apoiar e desenvolver produtos de IA de forma responsável, e é parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A empresa também disse que expandiu sua equipe de IA responsável de 350 para mais de 400 pessoas — um aumento de 16,6% — no segundo semestre do último ano.

“Como uma empresa na vanguarda da pesquisa e tecnologia de IA, estamos comprometidos em compartilhar nossas práticas com o público à medida que evoluem”, disse Brad Smith, vice-presidente e presidente da Microsoft, e Natasha Crampton, chefe de IA responsável, em um comunicado. “Este relatório nos permite compartilhar nossas práticas em evolução, refletir sobre o que aprendemos, traçar nossos objetivos, nos responsabilizarmos e conquistar a confiança do público.”

A Microsoft afirmou que suas ferramentas de IA responsável são destinadas a “mapear e medir os riscos da IA”, em seguida gerenciá-los com medidas mitigadoras, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta de red teaming de acesso aberto chamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite a profissionais de segurança e engenheiros de aprendizado de máquina identificar riscos em seus produtos de IA generativa.

Em novembro, a empresa lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes pudessem avaliar seus modelos com métricas básicas de qualidade, incluindo a groundedness — ou o quão bem a resposta gerada do modelo se alinha com o material de origem. Em março, estas ferramentas foram expandidas para abordar riscos de segurança, incluindo conteúdo odioso, violento, sexual e de auto-mutilação, bem como métodos de jailbreaking como injeções de prompt, que é quando um grande modelo de linguagem é alimentado com instruções que podem fazer vazar informações sensíveis ou espalhar desinformação.

Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com inúmeros incidentes com seus modelos de IA no último ano. Em março, o chatbot de IA Copilot da Microsoft disse a um usuário que “talvez você não tenha nada pelo que viver”, depois que o usuário, um cientista de dados na Meta, perguntou ao Copilot se ele deveria “simplesmente acabar com tudo”. A Microsoft disse que o cientista de dados havia tentado manipular o chatbot para gerar respostas inapropriadas, o que o cientista de dados negou.

Em outubro do ano passado, o gerador de imagens do Bing da Microsoft estava permitindo que os usuários gerassem fotos de personagens populares, incluindo Kirby e Bob Esponja, voando aviões para as Torres Gêmeas. Depois que seu chatbot de IA Bing (predecessor do Copilot) foi lançado em fevereiro do ano passado, um usuário conseguiu fazer com que o chatbot dissesse “Heil Hitler”.

“Não existe linha de chegada para IA responsável. E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas aprendizados cedo e frequentemente e participar de um diálogo robusto em torno de práticas de IA responsável”, escreveram Smith e Crampton no relatório.

Esta história foi originalmente publicada na Quartz.