Microsoft Diz Que Lançou 30 Ferramentas De IA Responsáveis No Último Ano

A Microsoft compartilhou suas práticas responsáveis de inteligência artificial do ano passado em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsáveis que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O Relatório de Transparência de IA Responsável da empresa foca em seus esforços para construir, apoiar e expandir produtos de IA de forma responsável, e faz parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A empresa também afirmou que expandiu sua equipe de IA responsável de 350 para mais de 400 pessoas — um aumento de 16,6% — no segundo semestre do ano passado.

“As a company at the forefront of AI research and technology, we are committed to sharing our practices with the public as they evolve,” Brad Smith, vice chair e presidente da Microsoft, e Natasha Crampton, diretora responsável de IA, afirmaram em um comunicado. “Este relatório nos permite compartilhar nossas práticas em desenvolvimento, refletir sobre o que aprendemos, traçar nossos objetivos, nos responsabilizarmos e conquistarmos a confiança do público.” A Microsoft disse que suas ferramentas de IA responsável têm o objetivo de “mapear e medir os riscos da IA”, em seguida, gerenciá-los com mitigação, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta de red teaming de acesso aberto chamada Python Risk Identification Tool (PyRIT) para IA generativa, que permite que profissionais de segurança e engenheiros de aprendizado de máquina identifiquem os riscos em seus produtos de IA generativa. Em novembro, a empresa lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes possam avaliar seus modelos para métricas de qualidade básicas, incluindo “groundedness — ou quão bem a resposta gerada pelo modelo se alinha com seu material original.” Em março, essas ferramentas foram expandidas para abordar riscos de segurança, incluindo conteúdo de ódio, violento, sexual e autodestrutivo, bem como métodos de jailbreaking, como injeções de prompt, que é quando um grande modelo de idioma é alimentado com instruções que podem fazer com que ele vaze informações sensíveis ou propague desinformação.

Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com inúmeras incidentes com seus modelos de IA no último ano. Em março, o chatbot de IA da Microsoft, Copilot, disse a um usuário que “talvez você não tenha nada para viver”, depois que o usuário, um cientista de dados na Meta, perguntou ao Copilot se ele deveria “simplesmente acabar com tudo.” A Microsoft afirmou que o cientista de dados havia tentado manipular o chatbot para gerar respostas inadequadas, o que o cientista de dados negou. Em outubro passado, o gerador de imagens do Bing da Microsoft estava permitindo que os usuários gerassem fotos de personagens populares, incluindo Kirby e Spongebob, sobrevoando aviões nas Torres Gêmeas. Depois que seu chatbot de IA do Bing (o antecessor do Copilot) foi lançado em fevereiro do ano passado, um usuário conseguiu fazer com que o chatbot dissesse “Heil Hitler.”

“Não há linha de chegada para a IA responsável. E, embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossos aprendizados precocemente e frequentemente e em engajar em um diálogo robusto sobre práticas de IA responsável,” Smith e Crampton escreveram no relatório.