Ai’s ‘insatiable’ demanda por eletricidade poderia desacelerar muito seu crescimento, diz executivo da Arm

Um executivo da Arm afirma que a demanda avassaladora de energia do generative AI poderia prejudicar seu crescimento rápido. Ami Badani, diretor de marketing da empresa de tecnologia britânica, disse na conferência Brainstorm AI da Fortune em Londres que os data centers que alimentam os chatbots de IA já representam 2% do consumo global de eletricidade. “Não poderemos continuar os avanços em IA sem abordar o problema da energia”, disse Badani. “ChatGPT requer 15 vezes mais energia do que uma pesquisa web tradicional”. Esse aumento não apenas prejudicará o avanço da IA, mas também as empresas de tecnologia e serviços públicos que buscam atingir suas metas de emissões líquidas zero. As empresas de serviços públicos já estão vendo um grande aumento na demanda, com nove das dez principais empresas de serviços públicos dos EUA afirmando em seus relatórios de lucros do primeiro trimestre deste ano que os data centers são sua principal fonte de crescimento do cliente. McKinsey estima que o consumo de energia de hardware em data centers mais que dobrará nos próximos anos, de 21 gigawatts em 2023 para mais de 50 gigawatts em 2030. “Se você pensar em IA, ela vem com um custo”, disse Badani na conferência da Fortune, “e esse custo é, infelizmente, a energia”.