Microsoft Apresentou ao Exército dos EUA o Uso do DALL-E da Azure OpenAI em Batalhas

A versão do Microsoft Azure do gerador de imagens da OpenAI, DALL-E, foi apresentada como uma ferramenta de campo de batalha para o Departamento de Defesa dos Estados Unidos (DoD), conforme relatado originalmente pelo The Intercept na quarta-feira. O relatório afirma que a apresentação da Microsoft sobre as ferramentas da OpenAI do Azure foi feita em outubro de 2023, possivelmente com a esperança de capitalizar o crescente interesse militar dos EUA em usar a inteligência artificial generativa para a guerra.

“Usando os modelos DALL-E para criar imagens para treinar sistemas de gestão de batalha,” diz uma linha do pitch da Microsoft para o DoD, de acordo com uma apresentação obtida pelo The Intercept. A frase sobre a aplicação militar potencial do DALL-E aparece em um conjunto de slides intitulado “Inteligência Artificial Generativa com Dados do DoD” ao lado da marca da Microsoft.

O Azure oferece muitas das ferramentas da OpenAI, incluindo o DALL-E, graças à parceria de $10 bilhões da Microsoft com a organização sem fins lucrativos. Quando se trata de uso militar, o Azure da Microsoft tem a vantagem de não estar preso à missão ampla e incômoda da OpenAI: “assegurar que a inteligência artificial geral beneficie toda a humanidade.” As políticas da OpenAI proíbem o uso de seus serviços para “prejudicar os outros” ou para spyware. No entanto, a Microsoft oferece as ferramentas da OpenAI sob seu guarda-chuva corporativo, onde a empresa tem parceria com as forças armadas há décadas, de acordo com um porta-voz da Microsoft.

“Este é um exemplo de possíveis casos de uso que foi informado por conversas com clientes sobre a arte do possível com a inteligência artificial generativa,” disse um porta-voz da Microsoft em um e-mail respondendo à apresentação.

No ano passado, a OpenAI (não a Azure OpenAI) proibiu o uso de suas ferramentas para “militar e guerra” e “desenvolvimento de armas”, conforme documentado no Internet Archive. No entanto, a OpenAI removeu silenciosamente uma linha de suas Políticas Universais em janeiro de 2024, primeiro identificado pelo The Intercept. Apenas alguns dias depois, a VP de Assuntos Globais da OpenAI, Anna Makanju, disse à Bloomberg que estava começando a trabalhar com o Pentágono. A OpenAI observou na época que vários casos de uso de segurança nacional estão alinhados com sua missão.

“As políticas da OpenAI proíbem o uso de nossas ferramentas para desenvolver ou usar armas, prejudicar outros ou destruir propriedade,” disse um porta-voz da OpenAI em um e-mail. “Não participamos desta apresentação e não tivemos conversas com agências de defesa dos EUA sobre os casos de uso hipotéticos que ela descreve.”

Os governos ao redor do mundo parecem estar abraçando a inteligência artificial como o futuro da guerra. Recentemente, soubemos que Israel está usando um sistema de IA chamado Lavender para criar uma “lista de alvos” de 37.000 pessoas em Gaza, conforme relatado originalmente pela +972 magazine. Desde julho do ano passado, os oficiais militares americanos têm experimentado com modelos grandes de linguagem para tarefas militares, de acordo com a Bloomberg.

A indústria de tecnologia, sem dúvida, percebeu essa enorme oportunidade financeira. O ex-CEO do Google, Eric Schmidt, está construindo drones AI kamikaze sob uma empresa chamada White Stork. Schmidt tem ligado a tecnologia e o Pentágono por anos, e está liderando o esforço de empregar a IA na linha de frente.

A tecnologia tem sido há muito tempo impulsionada pelo Pentágono, remontando aos primeiros chips de semicondutores na década de 1950, então não é surpresa que a IA esteja sendo abraçada da mesma maneira. Enquanto os objetivos da OpenAI parecem elevados e pacíficos, sua parceria com a Microsoft permite que os obscureça e venda sua IA líder mundial para o exército americano.