Sendo educado com seu assistente de IA pode custar milhões de dólares.
O CEO da OpenAI, Sam Altman, revelou que mostrar boas maneiras a um modelo ChatGPT – como dizer “por favor” e “obrigado” – resulta em milhões de dólares em despesas operacionais.
Altman respondeu a um usuário no X (anteriormente Twitter) que perguntou quanto a empresa perdeu em custos de eletricidade de pessoas sendo educadas com seus modelos.
“Dezenas de milhões de dólares bem gastos — você nunca sabe”, escreveu o CEO. Parece que alguém viu o que o sistema operacional Hal fez em “2001: Uma Odisséia no Espaço” e vai ser simpático com seu assistente de IA apenas no caso. Especialistas também descobriram que ser educado com um chatbot torna o AI mais propenso a responder da mesma maneira.
Julgando pelo tom zombeteiro de Altman, esse número “dezenas de milhões” provavelmente não é um número preciso. Mas qualquer mensagem para o ChatGPT, não importa quão trivial ou inútil, requer que a IA inicie uma resposta completa em tempo real, confiando em sistemas de computação de alta potência e aumentando a carga computacional — usando assim quantidades massivas de eletricidade.
Os modelos de IA dependem muito da energia armazenada nos data centers globais – o que já representa cerca de 2% do consumo global de eletricidade. De acordo com o Goldman Sachs, cada consulta ChatGPT-4 usa cerca de 10 vezes mais eletricidade do que uma pesquisa padrão do Google.
Dados do Washington Post sugerem que se um em cada 10 americanos que trabalham usar o GPT-4 uma vez por semana por um ano (o que significa 52 consultas por 17 milhões de pessoas), a energia necessária seria comparável à energia consumida por cada residência em Washington, D.C. – por 20 dias.
Rene Hass, CEO da empresa de semicondutores ARM Holdings, recentemente alertou que a IA poderia representar um quarto do consumo total de energia dos Estados Unidos até 2030. Atualmente, esse número é de 4%.
As respostas educadas também adicionam à conta de água da OpenAI. A IA usa água para resfriar os servidores que geram os dados. Um estudo da Universidade da Califórnia, Riverside, afirmou que usar o GPT-4 para gerar 100 palavras consome até três garrafas de água – e até uma resposta de três palavras como “De nada” usa cerca de 1,5 onças de água.

Livia Campos
- 30 de abril de 2025
- Inteligência Artificial
Dizer ‘Por Favor’ e ‘Obrigado’ ao ChatGPT custa milhões à OpenAI, afirma Sam Altman
Livia Campos
A inovação é a chave para o futuro! Mergulho no mundo das startups, tendências tecnológicas e ideias disruptivas que estão mudando o mundo. Apresento notícias, cases de sucesso e análises para te inspirar e te ajudar a inovar em seus negócios e na sua vida.