A versão da Microsoft Azure do gerador de imagens da OpenAI, DALL-E, foi apresentada como uma ferramenta de campo de batalha para o Departamento de Defesa dos EUA (DoD), como originalmente relatado pela The Intercept quarta-feira. O relatório diz que a estratégia de vendas da Microsoft das ferramentas Azure OpenAI foi entregue em outubro de 2023, provavelmente esperando capitalizar o crescente interesse militar dos EUA em usar a IA generativa para a guerra.
“Usando os modelos DALL-E para criar imagens para treinar sistemas de gestão de batalha,” diz uma linha da apresentação da Microsoft para o DoD, de acordo com uma apresentação obtida pela The Intercept. A frase sobre a potencial aplicação militar do DALL-E aparece dentro de um conjunto de slides intitulado “IA Generativa com Dados do DoD” ao lado da marca da Microsoft.
O Azure oferece muitas das ferramentas da OpenAI, incluindo a DALL-E, graças à parceria de US$ 10 bilhões da Microsoft com a organização sem fins lucrativos. Quando se trata de uso militar, a Microsoft Azure tem a vantagem de não estar submetida à missão abrangente da OpenAI: “assegurar que a inteligência artificial geral beneficie toda a humanidade.” As políticas da OpenAI proíbem o uso de seus serviços para “prejudicar outros,” ou para spyware. No entanto, a Microsoft oferece as ferramentas da OpenAI sob seu guarda-chuva corporativo, onde a empresa tem parceria com as forças armadas há décadas, de acordo com um porta-voz da Microsoft.
“Este é um exemplo de casos de uso potenciais informados por conversas com clientes sobre o que é possível com a inteligência artificial generativa,” disse um porta-voz da Microsoft em um e-mail respondendo à apresentação.
No ano passado, a OpenAI (não a Azure OpenAI) proibiu o uso de suas ferramentas para “militares e guerra” e “desenvolvimento de armas,” como documentado no Internet Archive. No entanto, a OpenAI silenciosamente removeu uma linha de suas Políticas Universais em janeiro de 2024, inicialmente detectada pela The Intercept. Apenas alguns dias depois, a VP de Assuntos Globais da OpenAI, Anna Makanju, disse à Bloomberg que estava começando a trabalhar com o Pentágono. A OpenAI observou na época que vários casos de uso de segurança nacional estão alinhados com sua missão.
“As políticas da OpenAI proíbem o uso de nossas ferramentas para desenvolver ou usar armas, ferir outros ou destruir propriedades,” disse um porta-voz da OpenAI em um e-mail. “Não estávamos envolvidos nesta apresentação e não tivemos conversas com agências de defesa dos EUA sobre os casos de uso hipotéticos que descreve.”
Governo de todo o mundo parece estar abraçando a IA como o futuro da guerra. Recentemente, descobrimos que Israel tem usado um sistema de IA chamado Lavender para criar uma “lista de eliminação” de 37.000 pessoas em Gaza, como originalmente relatado pela +972 magazine. Desde julho do ano passado, autoridades militares americanas têm experimentado com grandes modelos de linguagem para tarefas militares, de acordo com a Bloomberg.
A indústria de tecnologia sem dúvida notou essa enorme oportunidade financeira. O ex-CEO do Google, Eric Schmidt, está construindo drones AI kamikaze sob uma empresa chamada White Stork. Schmidt vem unindo tecnologia com o Pentágono há anos e está liderando o esforço para empregar a IA nas linhas de frente.
A tecnologia tem sido há muito tempo impulsionada pelo Pentágono, remontando aos primeiros chips de semicondutores na década de 1950, então não é surpresa que a IA esteja sendo abraçada da mesma forma. Enquanto os objetivos da OpenAI parecem grandiosos e pacíficos, sua parceria com a Microsoft permite que ela os obscureça e venda sua IA líder mundial para o exército americano.