Microsoft propôs ao exército dos EUA o uso do Azure OpenAI’s DALL-E para batalhas.

A versão do Microsoft Azure do gerador de imagens da OpenAI, DALL-E, foi apresentada como uma ferramenta de campo de batalha para o Departamento de Defesa dos EUA (DoD), originalmente divulgado pelo The Intercept na quarta-feira. O relatório diz que a estratégia de vendas da Microsoft das ferramentas da Azure OpenAI foi entregue em outubro de 2023, provavelmente esperando capitalizar o crescente interesse militar dos EUA em usar a inteligência artificial generativa para a guerra.

“Usar os modelos do DALL-E para criar imagens para treinar sistemas de gerenciamento de batalha,” diz uma linha da apresentação da Microsoft ao DoD, de acordo com uma apresentação obtida pelo The Intercept. A frase sobre a potencial aplicação militar do DALL-E aparece em um conjunto de slides intitulado “Inteligência Artificial Generativa com Dados do DoD” ao lado da marca da Microsoft.

A Azure oferece muitas das ferramentas da OpenAI, incluindo o DALL-E, graças à parceria de US$ 10 bilhões da Microsoft com a organização sem fins lucrativos. Quando se trata de uso militar, a Azure da Microsoft tem o benefício de não estar vinculada à missão abrangente e persistente da OpenAI: “garantir que a inteligência artificial geral beneficie toda a humanidade”. As políticas da OpenAI proíbem o uso de seus serviços para “prejudicar outros,” ou para spyware. No entanto, a Microsoft oferece as ferramentas da OpenAI sob seu guarda-chuva corporativo, onde a empresa tem parceria com as forças armadas há décadas, de acordo com um porta-voz da Microsoft.

“Este é um exemplo de casos de uso potenciais que foi informado por conversas com clientes sobre as possibilidades com inteligência artificial generativa,” disse um porta-voz da Microsoft em um e-mail respondendo à apresentação.

No ano passado, a OpenAI (não a Azure OpenAI) proibiu o uso de suas ferramentas para “militares e guerra” e “desenvolvimento de armas”, conforme documentado no Internet Archive. No entanto, a OpenAI silenciosamente removeu uma linha de suas Políticas Universais em janeiro de 2024, primeiro detectado pelo The Intercept. Poucos dias após, a VP de assuntos globais da OpenAI, Anna Makanju, disse à Bloomberg que estava começando a trabalhar com o Pentágono. A OpenAI observou na época que vários casos de uso de segurança nacional estão alinhados com sua missão.

“As políticas da OpenAI proíbem o uso de nossas ferramentas para desenvolver ou usar armas, prejudicar outros ou destruir propriedades,” disse um porta-voz da OpenAI em um e-mail. “Não estivemos envolvidos nesta apresentação e não tivemos conversas com agências de defesa dos EUA sobre os casos de uso hipotéticos que descreve.”

Os governos ao redor do mundo parecem estar abraçando a inteligência artificial como o futuro da guerra. Recentemente, ficamos sabendo que Israel tem usado um sistema de inteligência artificial chamado Lavender para criar uma “lista de morte” de 37.000 pessoas em Gaza, originalmente divulgado pela revista +972. Desde julho do ano passado, autoridades militares americanas têm experimentado com grandes modelos de linguagem para tarefas militares, de acordo com a Bloomberg.

A indústria de tecnologia sem dúvida percebeu essa enorme oportunidade financeira. O ex-CEO do Google, Eric Schmidt, está construindo drones kamikaze de inteligência artificial sob uma empresa chamada White Stork. Schmidt tem ligado a tecnologia e o Pentágono há anos, e está liderando o esforço para empregar a inteligência artificial na linha de frente.

A tecnologia tem sido há muito tempo fortalecida pelo Pentágono, remontando aos primeiros chips semicondutores na década de 1950, então não é surpresa que a inteligência artificial esteja sendo abraçada da mesma forma. Enquanto os objetivos da OpenAI parecem grandiosos e pacíficos, sua parceria com a Microsoft permite que os ofusque, e venda sua inteligência artificial líder mundial para o exército americano.