Demanda de eletricidade “insaciável” da IA poderia desacelerar seu crescimento – diz executivo da Arm.

Um executivo da Arm afirma que a demanda avassaladora da AI generativa por eletricidade pode prejudicar seu crescimento rápido. Ami Badani, diretor de marketing da empresa de tecnologia britânica, disse na Conferência AI Brainstorm da Fortune em Londres que os data centers que alimentam os chatbots de IA já representam 2% do consumo global de eletricidade. “Não seremos capazes de continuar os avanços da IA sem abordar a questão da energia”, disse Badani. “ChatGPT requer 15 vezes mais energia do que uma pesquisa web tradicional”.

Esse aumento não apenas colocará os avanços da IA em cheque, mas também as empresas de tecnologia e serviços públicos que buscam cumprir suas metas de emissão líquida zero. O ex-secretário de Energia, Ernest Moniz, disse na conferência global anual de energia da S&P Global no mês passado que as empresas de serviços públicos terão que depender mais de combustíveis fósseis enquanto tentam atender à demanda.

As empresas de serviços públicos já estão enfrentando um importante aumento na demanda. Nove das 10 maiores empresas de serviços públicos dos EUA afirmaram em seus relatórios de lucros do primeiro trimestre deste ano que os data centers são sua principal fonte de crescimento de clientes, de acordo com a Reuters. A McKinsey estima que o consumo de energia do hardware em data centers mais do que dobrará nos próximos anos, de 21 gigawatts em 2023 para mais de 50 gigawatts em 2030.

“Se pensar na IA, ela vem com um custo”, disse Badani na conferência da Fortune. “E infelizmente esse custo é a energia”.

Dados:

– 100 milhões: Número de usuários ativos do ChatGPT.
– 9.000-11.000: Número de data centers em nuvem em todo o mundo.
– 2026: Ano em que a demanda por eletricidade dos data centers, IA e criptomoedas poderia dobrar.
– 46 terawatt-horas: Consumo global de energia de todos os data centers estimado para o ano de 2024, três vezes mais que em 2023.