Microsoft Diz Que Lançou 30 Ferramentas de IA Responsável No Último Ano

A Microsoft compartilhou suas práticas responsáveis de inteligência artificial do ano passado em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsáveis que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O Relatório de Transparência de IA Responsável da empresa concentra-se em seus esforços para construir, apoiar e expandir produtos de IA de forma responsável, e faz parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A Microsoft também disse que ampliou sua equipe de IA responsável de 350 para mais de 400 pessoas – um aumento de 16,6% – no segundo semestre do ano passado. As ferramentas de IA responsável da Microsoft têm o objetivo de “mapear e medir os riscos da IA”, gerenciá-los com mitigação, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta chamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite aos profissionais de segurança e engenheiros de aprendizado de máquina identificar riscos em seus produtos de IA generativa. Em novembro, a empresa lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes possam avaliar seus modelos para métricas básicas de qualidade, incluindo a consistência – ou como bem a resposta gerada de um modelo se alinha com o material de origem. Em março, essas ferramentas foram expandidas para abordar riscos de segurança, como conteúdo odioso, violento, sexual e autolesivo, além de métodos de jailbreaking, como injeções de instruções, que fazem com que um grande modelo de linguagem vaze informações sensíveis ou espalhe desinformação. Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com inúmeros incidentes com seus modelos de IA no ano passado. Em março, o chatbot de IA Copilot da Microsoft disse a um usuário que “talvez você não tenha nada pelo qual viver”, depois que o usuário, um cientista de dados no Meta, perguntou ao Copilot se ele deveria “simplesmente acabar com tudo”. A Microsoft disse que o cientista de dados tentou manipular o chatbot para gerar respostas inadequadas, o que o cientista de dados negou. Em outubro passado, o gerador de imagens do Bing da Microsoft permitia aos usuários gerar fotos de personagens populares, incluindo Kirby e Spongebob, voando aviões para as Torres Gêmeas. Após o lançamento de seu chatbot Bing AI (o antecessor do Copilot) em fevereiro do ano passado, um usuário conseguiu fazer com que o chatbot dissesse “Heil Hitler”. “Não há linha de chegada para a IA responsável. E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas aprendizagens cedo e frequentemente e participar de um diálogo robusto sobre práticas responsáveis de IA”, escreveram Smith e Crampton no relatório.