Microsoft Apresentou ao Exército dos EUA o Uso do DALL-E da Azure OpenAI para Batalha

A versão do Microsoft Azure do gerador de imagens da OpenAI, DALL-E, foi apresentada como uma ferramenta de campo de batalha para o Departamento de Defesa dos EUA (DoD), originalmente relatado pela The Intercept na quarta-feira. O relatório diz que a apresentação das ferramentas da Azure OpenAI da Microsoft foi realizada em outubro de 2023, provavelmente esperando capitalizar o crescente interesse militar dos EUA em usar a IA generativa para a guerra.

“Usando os modelos DALL-E para criar imagens para treinar sistemas de gestão de batalhas”, diz uma linha do argumento de vendas da Microsoft para o DoD, de acordo com uma apresentação obtida pela The Intercept. A frase sobre a aplicação militar potencial do DALL-E aparece em um conjunto de slides intitulado “IA Generativa com Dados do DoD” ao lado da marca da Microsoft.

Azure oferece muitas ferramentas da OpenAI, incluindo o DALL-E, graças à parceria de US $ 10 bilhões da Microsoft com a organização sem fins lucrativos. Quando se trata de uso militar, a Azure da Microsoft tem a vantagem de não estar sujeita à missão irritante e abrangente da OpenAI: “garantir que a inteligência artificial geral beneficie toda a humanidade.” As políticas da OpenAI proíbem o uso de seus serviços para “prejudicar outros” ou para spyware. No entanto, a Microsoft oferece as ferramentas da OpenAI sob seu guarda-chuva corporativo, onde a empresa tem parceria com as forças armadas por décadas, de acordo com um porta-voz da Microsoft.

“Este é um exemplo de casos de uso potenciais que foi informado por conversas com clientes sobre o que é possível com a IA generativa”, disse um porta-voz da Microsoft em um e-mail respondendo à apresentação.

No ano passado, a OpenAI (não a Azure OpenAI) proibiu o uso de suas ferramentas para “militares e guerra” e “desenvolvimento de armas”, como documentado no Internet Archive. No entanto, a OpenAI removeu silenciosamente uma linha de suas Políticas Universais em janeiro de 2024, primeiro observado pelo The Intercept. Dias depois, a VP de assuntos globais da OpenAI, Anna Makanju, disse à Bloomberg que estava começando a trabalhar com o Pentágono. A OpenAI observou na época que vários casos de uso de segurança nacional se alinham com sua missão.

“As políticas da OpenAI proíbem o uso de nossas ferramentas para desenvolver ou usar armas, prejudicar outros ou destruir propriedades”, disse um porta-voz da OpenAI em um e-mail. “Não estivemos envolvidos nesta apresentação e não tivemos conversas com agências de defesa dos EUA sobre os casos de uso hipotéticos que descreve.”

Governos ao redor do mundo parecem estar abraçando a IA como o futuro da guerra. Recentemente, soubemos que Israel vem usando um sistema de IA chamado Lavender para criar uma “lista de morte” de 37.000 pessoas em Gaza, originalmente relatado pela revista +972. Desde julho do ano passado, autoridades militares americanas vêm experimentando com grandes modelos de idioma para tarefas militares, de acordo com a Bloomberg.

A indústria de tecnologia sem dúvida percebeu essa enorme oportunidade financeira. O ex-CEO do Google, Eric Schmidt, está construindo drones AI kamikaze sob uma empresa chamada White Stork. Schmidt tem feito a ponte entre a tecnologia e o Pentágono há anos e está liderando o esforço para empregar a IA na linha de frente.

A tecnologia há muito tempo foi impulsionada pelo Pentágono, remontando aos primeiros chips semicondutores na década de 1950, então não é surpresa que a IA esteja sendo abraçada da mesma maneira. Enquanto os objetivos da OpenAI parecem grandiosos e pacíficos, sua parceria com a Microsoft permite obscurecê-los e vender sua IA líder mundial para o exército americano.