Dizer ‘Por Favor’ e ‘Obrigado’ para o ChatGPT custa milhões à OpenAI, diz Sam Altman

Ser educado com seu assistente de inteligência artificial pode custar milhões de dólares.

O CEO da OpenAI, Sam Altman, revelou que ser educado com um modelo ChatGPT – como dizer “por favor” e “obrigado” – acaba custando milhões de dólares em despesas operacionais.

Altman respondeu a um usuário no X (anteriormente Twitter) que perguntou quanto a empresa perdeu em custos de eletricidade por as pessoas serem educadas com seus modelos.

“Tens de milhões de dólares bem gastos – nunca se sabe”, escreveu o CEO.

Parece que alguém viu o que o sistema operacional Hal fez em “2001: Uma Odisseia no Espaço” e vai ser gentil com seu assistente de IA só por garantia. Especialistas também descobriram que ser educado com um chatbot faz com que a IA seja mais propensa a responder de forma educada.

Julgando pelo tom sarcástico de Altman, esse número “dezenas de milhões” provavelmente não é um número preciso. Mas qualquer mensagem para o ChatGPT, por mais trivial ou inútil que seja, requer que a IA inicie uma resposta completa em tempo real, dependendo de sistemas de computação de alta potência e aumentando a carga computacional – usando assim quantidades massivas de eletricidade.

Os modelos de IA dependem fortemente da energia armazenada nos centros de dados globais – que já representam cerca de 2% do consumo global de eletricidade. Segundo o Goldman Sachs, cada consulta do ChatGPT-4 usa cerca de 10 vezes mais eletricidade do que uma pesquisa padrão do Google.

Dados do Washington Post sugerem que se um a cada 10 americanos que trabalham usar o GPT-4 uma vez por semana durante um ano (ou seja, 52 consultas por 17 milhões de pessoas), a energia necessária seria comparável à consumida por todos os lares em Washington, D.C. – por 20 dias.

Rene Hass, CEO da empresa de semicondutores ARM Holdings, recentemente alertou que a IA poderia representar um quarto do consumo total de energia da América até 2030. Atualmente, esse número é de 4%.

As respostas educadas também acrescentam à conta de água da OpenAI. A IA usa água para resfriar os servidores que geram os dados. Um estudo da Universidade da Califórnia, Riverside, disse que usar o GPT-4 para gerar 100 palavras consome até três garrafas de água – e até uma resposta de três palavras como “De nada” usa cerca de 1,5 onças de água.