Microsoft Apresentou ao Exército dos EUA o Uso do Azure OpenAI’s DALL-E para Batalhas

A versão do gerador de imagens da OpenAI da Microsoft Azure, DALL-E, foi apresentada como uma ferramenta de campo de batalha para o Departamento de Defesa dos EUA (DoD), conforme relatado originalmente pelo The Intercept na quarta-feira. O relatório diz que a proposta de vendas da Microsoft sobre as ferramentas Azure OpenAI foi entregue em outubro de 2023, possivelmente visando capitalizar o crescente interesse militar dos EUA em usar a IA generativa para a guerra.

“Usar os modelos DALL-E para criar imagens para treinar sistemas de gerenciamento de batalhas”, diz uma linha da apresentação da Microsoft ao DoD, de acordo com uma apresentação obtida pelo The Intercept. A frase sobre a potencial aplicação militar do DALL-E aparece em um conjunto de slides intitulado “IA Generativa com Dados do DoD”, ao lado da marca da Microsoft.

A Azure oferece muitas das ferramentas da OpenAI, incluindo o DALL-E, graças à parceria de US $10 bilhões da Microsoft com a organização sem fins lucrativos. Quando se trata de uso militar, a Microsoft Azure tem a vantagem de não estar vinculada à missão abrangente da OpenAI: “garantir que a inteligência artificial geral beneficie toda a humanidade”. As políticas da OpenAI proíbem o uso de seus serviços para “prejudicar outros”, ou para spyware. No entanto, a Microsoft oferece as ferramentas da OpenAI sob sua marca corporativa, onde a empresa tem parceria com as forças armadas há décadas, de acordo com um porta-voz da Microsoft.

“Este é um exemplo de casos de uso potenciais informados por conversas com clientes sobre o que é possível com a IA generativa”, disse um porta-voz da Microsoft em um e-mail respondendo à apresentação.

Apenas no ano passado, a OpenAI (não a Azure OpenAI) proibiu o uso de suas ferramentas para “militar e guerra” e “desenvolvimento de armas”, conforme documentado no Internet Archive. No entanto, a OpenAI silenciosamente removeu uma linha de suas Políticas Universais em janeiro de 2024, primeiro detectado pelo The Intercept. Poucos dias depois, a vice-presidente global de assuntos públicos da OpenAI, Anna Makanju, disse à Bloomberg que estava começando a trabalhar com o Pentágono. A OpenAI observou na época que vários casos de uso de segurança nacional estão alinhados com sua missão.

“As políticas da OpenAI proíbem o uso de nossas ferramentas para desenvolver ou usar armas, ferir outros ou destruir propriedades”, disse um porta-voz da OpenAI em um e-mail. “Não estivemos envolvidos nesta apresentação e não tivemos conversas com agências de defesa dos EUA sobre os casos de uso hipotéticos descritos.”

Os governos ao redor do mundo parecem estar abraçando a IA como o futuro da guerra. Recentemente soubemos que Israel tem usado um sistema de IA chamado Lavender para criar uma “lista de morte” de 37.000 pessoas em Gaza, conforme relatado originalmente pela revista +972. Desde julho do ano passado, oficiais militares americanos têm experimentado com grandes modelos de linguagem para tarefas militares, de acordo com a Bloomberg.

A indústria de tecnologia sem dúvida percebeu essa enorme oportunidade financeira. O ex-CEO do Google, Eric Schmidt, está construindo drones kamikaze de IA sob uma empresa chamada White Stork. Schmidt tem ligado a tecnologia e o Pentágono por anos, e está liderando o esforço para empregar a IA na linha de frente.

A tecnologia tem sido há muito tempo fortalecida pelo Pentágono, remontando aos primeiros chips de semicondutores na década de 1950, então não é surpresa que a IA esteja sendo abraçada da mesma forma. Enquanto os objetivos da OpenAI soam nobres e pacíficos, sua parceria com a Microsoft permite que os obscureça e venda sua IA líder mundial para o exército americano.