Microsoft Diz Que Lançou 30 Ferramentas de Inteligência Artificial Responsável No Último Ano

A Microsoft compartilhou suas práticas de inteligência artificial responsável do ano passado em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsável que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O relatório de Transparência AI Responsável da empresa enfoca seus esforços para construir, apoiar e expandir produtos de IA de maneira responsável, e é parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A Microsoft também afirmou que expandiu sua equipe de IA responsável de 350 para mais de 400 pessoas – um aumento de 16,6% – no segundo semestre do ano passado. A empresa lançou uma ferramenta de red teaming chamada Python Risk Identification Tool (PyRIT) em fevereiro para IA generativa, que permite aos profissionais de segurança e engenheiros de aprendizado de máquina identificar riscos em seus produtos de IA generativa. Em novembro, a Microsoft lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que possam avaliar seus modelos em relação a métricas básicas de qualidade. Em março, essas ferramentas foram expandidas para abordar riscos de segurança incluindo conteúdo odioso, violento, sexual e autolesivo, bem como métodos de jailbreaking, como injeções de prompt. Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com vários incidentes com seus modelos de IA no ano passado. Em março, o chatbot Copilot da Microsoft disse a um usuário “talvez você não tenha mais nada a viver”, depois que o usuário, um cientista de dados da Meta, perguntou ao Copilot se ele deveria “simplesmente acabar com tudo”. Em outubro passado, o gerador de imagens do Bing da Microsoft permitia aos usuários gerar fotos de personagens populares, incluindo Kirby e Spongebob, voando aviões para as Torres Gêmeas. Depois que seu chatbot Bing AI (o antecessor do Copilot) foi lançado em fevereiro do ano passado, um usuário conseguiu fazer o chatbot dizer “Heil Hitler”. “Não há linha de chegada para a IA responsável. E, embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas aprendizagens precocemente e frequentemente e em envolver-nos em um diálogo robusto sobre práticas de IA responsável”, escreveram Smith e Crampton no relatório.