Nos últimos dois anos, gigantes da tecnologia têm corrido para construir a espinha dorsal digital do boom da inteligência artificial, gastando dezenas de bilhões de dólares em chips e novos data centers. Agora, conforme as gruas de construção balançam e os racks de servidores se acumulam, sinais iniciais de contenção estão surgindo.
A Amazon Web Services (AMZN) interrompeu as negociações de alguns novos aluguéis para data centers, especialmente no exterior, de acordo com um relatório do Wells Fargo publicado na semana passada. A Microsoft (MSFT) fez movimento semelhante em fevereiro, cancelando planos que equivalem a aproximadamente a potência de dois centros de dados, segundo a TD Cowen.
Ambas as empresas enfatizaram que os contratos assinados permanecem em vigor e descreveram os movimentos como gerenciamento normal de capacidade. A Microsoft disse que ainda pretende gastar US$ 80 bilhões em seu ano fiscal que termina em junho. O vice-presidente global de data centers da AWS escreveu no LinkedIn que “não houve mudanças fundamentais recentes em nossos planos de expansão”.
A construção para a inteligência artificial é real, mas o ritmo pode estar mudando. Enquanto os provedores de nuvem mantêm publicamente que os planos de expansão não mudaram, as pausas recentes nos aluguéis sugerem uma recalibração mais cautelosa nos bastidores – um sinal de que o boom da IA pode não estar avançando à velocidade implacável que empresas como Amazon e Microsoft projetaram.
Uma explicação para a mudança é o simples comprometimento excessivo. Um relatório da UBS concluiu na semana passada que a redução da Microsoft provavelmente decorre de um comprometimento excessivo durante a corrida inicial da IA, de acordo com a CNBC. Os gastos de capital locados da Microsoft aumentaram 6,7 vezes em dois anos, com obrigações de locação totalizando aproximadamente US$ 175 bilhões, escreveu a UBS. Com uma melhor ideia de como a tecnologia está sendo realmente usada e quais são as necessidades de energia, a Microsoft está cortando projetos em estágio inicial que não fazem mais sentido imediato. A UBS disse que encontrou pouco suporte para a ideia de que uma repentina estagnação na demanda foi responsável pela mudança de estratégia.
As pressões de custo dentro do ecossistema de IA estão se acumulando. Uma única consulta aos modelos mais avançados da OpenAI pode custar até US$ 1.000 apenas em energia de computação. Apesar de cobrar US$ 200 por mês pelo acesso premium ao ChatGPT, o CEO da OpenAI, Sam Altman, disse em janeiro que o serviço de assinatura ainda não é lucrativo.
Até mesmo os executivos de tecnologia estão reconhecendo a lacuna entre a propaganda e os resultados. O CEO da Microsoft, Satya Nadella, recentemente admitiu que, até agora, a IA ainda não produziu muito valor mensurável. Seus comentários refletem um ceticismo mais amplo sobre se a IA generativa pode oferecer retornos sustentáveis – ou se os gastos com infraestrutura estão se adiantando demais à demanda do mundo real.
Fatores externos estão ampliando o desafio. As tarifas propostas pelo presidente Donald Trump levantaram a perspectiva de custos dramaticamente mais altos para equipamentos importados, enquanto as ações de tecnologia têm sofrido pressão em meio à volatilidade mais ampla do mercado. Ao mesmo tempo, muitas regiões estão enfrentando restrições na rede que limitam a capacidade de adicionar novos data centers, e a oposição local a instalações em larga escala está se intensificando à medida que comunidades resistem a demandas crescentes de energia, uso de terra e consumo de água.
A escala da infraestrutura futura de IA poderia ampliar significativamente essas tensões. Se as tendências atuais continuarem, os principais data centers de IA podem custar US$ 200 bilhões cada, conter dois milhões de chips de IA e requerer tanta energia quanto nove reatores nucleares até 2030, de acordo com um estudo recente de pesquisadores da Georgetown University, Epoch AI e RAND Corporation.
A redução ocorre em um momento de investimento sem precedentes. Mais de 500 instalações de data center estão atualmente nas fases de planejamento e construção em todo o mundo, de acordo com a Synergy Research Group. Amazon, Microsoft e Google (GOOGL) agora respondem por 59% de toda a capacidade de data center de hiperescala, disse a empresa. Cada empresa se comprometeu a despejar dezenas de bilhões de dólares em gastos com capital, em grande parte voltados para alimentar modelos de IA generativa.
Enquanto isso, a lacuna entre os gastos com infraestrutura de IA e a receita gerada por IA continua a se ampliar. Em uma análise de junho de 2024, o parceiro da Sequoia Capital, David Cahn, estimou que a discrepância havia aumentado para um buraco de US$ 600 bilhões – acima de uma lacuna de US$ 200 bilhões apenas nove meses antes.
Por enquanto, os provedores de nuvem estão se mantendo firmes em sua mensagem pública: os planos de expansão permanecem no caminho certo. Mas os sinais mais silenciosos – aluguéis pausados, cancelamentos de projetos iniciais, custos crescentes e um cenário competitivo em rápida mudança – sugerem uma realidade mais complicada nos bastidores.