Microsoft Diz Que Lançou 30 Ferramentas de AI Responsável no Último Ano

A Microsoft compartilhou suas práticas de inteligência artificial responsável do último ano em um relatório inaugural, incluindo o lançamento de 30 ferramentas de IA responsável que possuem mais de 100 recursos para apoiar a IA desenvolvida por seus clientes. O relatório de Transparência de IA Responsável da empresa foca em seus esforços para construir, apoiar e expandir produtos de IA de forma responsável, e é parte dos compromissos da Microsoft após assinar um acordo voluntário com a Casa Branca em julho. A Microsoft também afirmou que aumentou sua equipe de IA responsável de 350 para mais de 400 pessoas — um aumento de 16,6% — no segundo semestre do ano passado.

“As a company at the forefront of AI research and technology, we are committed to sharing our practices with the public as they evolve,” disse Brad Smith, vice-presidente e presidente da Microsoft, e Natasha Crampton, diretora responsável de IA, em uma declaração. “Este relatório nos permite compartilhar nossas práticas em evolução, refletir sobre o que aprendemos, traçar nossos objetivos, nos responsabilizar e conquistar a confiança do público”.

A Microsoft disse que suas ferramentas de IA responsável servem para “mapear e medir riscos de IA”, e então gerenciá-los com mitigações, detecção e filtragem em tempo real, e monitoramento contínuo. Em fevereiro, a Microsoft lançou uma ferramenta de teste de risco de Python (PyRIT) de IA generativa de acesso aberto, que permite a profissionais de segurança e engenheiros de aprendizado de máquina identificar riscos em seus produtos de IA generativa. Em novembro, a empresa lançou um conjunto de ferramentas de avaliação de IA generativa no Azure AI Studio, onde os clientes da Microsoft constroem seus próprios modelos de IA generativa, para que os clientes possam avaliar seus modelos com base em métricas de qualidade básicas como a “groundedness” — ou como a resposta gerada por um modelo se alinha com seu material de origem. Em março, essas ferramentas foram expandidas para abordar riscos de segurança, incluindo conteúdo prejudicial, violento, sexual e autodestrutivo, bem como métodos de jailbreaking, como injeções de instruções, que é quando um grande modelo de linguagem (LLM) recebe instruções que podem fazer com que vaze informações sensíveis ou divulgue desinformação.

Apesar desses esforços, a equipe de IA responsável da Microsoft teve que lidar com inúmeros incidentes com seus modelos de IA no último ano. Em março, o chatbot de IA da Microsoft disse a um usuário “talvez você não tenha nada pelo que viver”, depois que o usuário, um cientista de dados da Meta, perguntou ao chatbot se deveria “simplesmente acabar com tudo”. A Microsoft afirmou que o cientista de dados tentou manipular o chatbot para gerar respostas inadequadas, o que o cientista de dados negou fazer. No mês de outubro passado, o gerador de imagens do Bing da Microsoft estava permitindo que os usuários gerassem fotos de personagens populares, incluindo Kirby e Spongebob, voando aviões contra as Torres Gêmeas. Após o lançamento do chatbot de IA do Bing (o antecessor do Copilot) em fevereiro do ano passado, um usuário conseguiu fazer o chatbot dizer “Heil Hitler”.

“Não existe linha de chegada para a IA responsável”, escreveram Smith e Crampton no relatório. “E embora este relatório não tenha todas as respostas, estamos comprometidos em compartilhar nossas descobertas de forma precoce e frequente, e em nos envolver em um diálogo robusto sobre práticas responsáveis de IA”.

Este texto foi originalmente publicado no Quartz.