Após o surgimento do ChatGPT, um e-mail vazado do Google disse o que muitos pensavam, mas poucos ousavam dizer em voz alta: “Não temos Moat. E o OpenAI também não.” O memorando de maio de 2023 argumentou que as empresas nunca pagariam por inteligência artificial generativa quando havia opções de código aberto disponíveis – e esses modelos muitas vezes eram melhores de qualquer maneira. No mesmo mês, do outro lado do mundo, um empreendedor chamado Liang Wenfeng fundou discretamente a DeepSeek na China.
Um ano e meio depois, a DeepSeek provaria profético o Google. Quando a DeepSeek revelou seu modelo V3 em dezembro passado, que segundo a empresa foi treinado com apenas US$ 5,6 milhões usando chips inferiores – menos de 6% dos custos de treinamento do GPT-4 -, enviou ondas de choque pela indústria. Na semana passada, a empresa apresentou o R1, um novo modelo de raciocínio que pode resolver problemas complexos passo a passo, igualando as capacidades dos sistemas especializados de raciocínio da OpenAI.
Essas descobertas levaram as ações de tecnologia americanas a uma queda livre na segunda-feira e expuseram uma verdade desconfortável: pode ser que não existam moats na inteligência artificial afinal. As barreiras tecnológicas que deveriam proteger a dominância da IA na América, desde chips avançados até enormes centros de dados, são mais miragens do que fortalezas. Mas enquanto esses modelos podem representar problemas para empresas que contam com vantagens patenteadas ou buscam rodadas de financiamento massivas, a DeepSeek poderia inaugurar uma nova era de desenvolvimento de IA mais eficiente e acessível.
Não foram apenas as empresas que construíram IA generativa que sofreram. Para os investidores que viam a Nvidia como a jogada perfeita de “picks and shovels” em uma corrida de ouro de IA incerta, a revelação da DeepSeek também foi devastadora. As ações da empresa despencaram na segunda-feira, perdendo quase US$ 600 bilhões no maior declínio em valor de mercado em um único dia da história. Acontece que não apenas não há um moat para o software, como o Google alertou, mas também pode não haver um para o hardware. Isso é perturbador para uma empresa cuja valorização em alta foi construída na ideia de que o apetite da IA por silício de ponta só cresceria.
A descoberta da DeepSeek veio do treinamento de seu modelo em cerca de 2.000 GPUs H800 da Nvidia – chips que foram especificamente projetados com capacidades reduzidas para cumprir os controles de exportação dos EUA para a China. Estes são os primos limitados das desejadas H100s que as empresas americanas usam, com velocidades de comunicação entre chips deliberadamente limitadas, que deveriam torná-los insuficientes para o treinamento de modelos avançados de IA. Ainda assim, a DeepSeek conseguiu criar um modelo competitivo apesar dessas restrições.
As sanções de chip avançadas impostas pela administração Biden tinham como objetivo evitar exatamente este cenário. Mas, em vez de enfraquecer as capacidades de IA da China, o embargo parece ter sido o catalisador. A DeepSeek foi forçada a inovar de maneiras que desafiam agora as suposições fundamentais do Vale do Silício, embora seu fundador Wenfeng tenha reconhecido que a falta de chips de alta qualidade continua a ser um gargalo, de acordo com o Wall Street Journal.
As implicações dos chips vão além dos custos de treinamento. Quando as empresas encontram maneiras mais eficientes de treinar modelos de IA, essas eficiências muitas vezes se refletem na forma como os modelos funcionam no uso diário – o que é conhecido como inferência na indústria. A DeepSeek cobra US$ 2,19 por milhão de tokens de saída, em comparação com US$ 15 do último modelo da OpenAI. Isso não é o tipo de ganho estreito de eficiência que se pode ignorar – é uma diferença sete vezes maior que ameaça remodelar a economia de implementação de IA.
Alguns líderes de tecnologia questionam se o que a DeepSeek fez foi realmente possível com seu orçamento declarado e fornecimento de chips. O Meta supostamente criou “salas de guerra” para investigar esses modelos. A Microsoft está investigando se a DeepSeek teve acesso à tecnologia da OpenAI que poderia estar por trás de algumas de suas habilidades.
Se as alegações da DeepSeek forem comprovadas, isso mudará o cálculo para a construção frenética de centros de dados em toda a América, incluindo o projeto Stargate de US$ 500 milhões anunciado na Casa Branca na semana passada. Todas essas instalações enormes pareciam urgentes com base nos custos astronômicos de treinamento de modelos feitos nos EUA: O CEO da OpenAI, Sam Altman, disse que o GPT-4 custou “mais de” US$ 100 milhões para treinar, e o CEO da Anthropic, Dario Amodei, previu que poderíamos ver um modelo de US$ 10 bilhões este ano.
Mas se eles puderem ser treinados por uma fração desse custo em hardware menos potente, a corrida para construir pode parecer mais uma reação exagerada e cara. Alguns, como o cientista-chefe de IA do Meta, Yann LeCunn, argumentam que ainda precisaremos dessa infraestrutura para executar serviços de IA em escala. Mas as inovações da DeepSeek sugerem que ainda existem grandes ganhos de eficiência a serem encontrados tanto no treinamento quanto na implementação, o que os pesquisadores deveriam se entusiasmar.
É um padrão visto repetidamente.
Assim como o custo do processamento de computadores despencou desde os primeiros mainframes – com smartphones agora oferecendo mais poder de computação do que as máquinas que enviaram astronautas para a lua -, sempre houve motivos para acreditar que o gigantesco apetite de energia da IA acabaria diminuindo. As primeiras iterações de qualquer tecnologia raramente são eficientes, e a fatura para a IA generativa sempre chegaria: As empresas precisam começar a ganhar dinheiro eventualmente, e isso provavelmente é impossível com os níveis atuais de consumo de energia.
Ou, como Brian Cahn, da Sequoia Capital, colocou, há uma questão de US$ 600 bilhões (que aumentou de sua estimativa inicial de US$ 200 bilhões no verão passado à medida que os investimentos em IA continuaram a aumentar enquanto a receita permanecia ilusória) – o fosso entre o que as empresas de tecnologia estão gastando em IA e o que estão ganhando com ela.
A descoberta da DeepSeek poderia ajudar a fechar essa lacuna. Como é de código aberto, nada impede que as empresas de tecnologia americanas adotem essas técnicas de eficiência por conta própria. Seus próprios custos de treinamento e inferência poderiam despencar. E embora uma IA mais barata possa parecer má notícia para os gigantes da tecnologia, Satya Nadella vê as coisas de maneira diferente. “A Paradoxo de Jevons ataca novamente!” O CEO da Microsoft postou no X. “À medida que a IA se torna mais eficiente e acessível, veremos seu uso explodir, transformando-a em uma mercadoria da qual simplesmente não podemos ter o suficiente.”
A revelação de código aberto pode marcar mais do que apenas um ponto de virada técnico. A história da IA mostrou que as maiores descobertas muitas vezes surgem de pesquisadores construindo abertamente sobre o trabalho uns dos outros – desde o desenvolvimento de redes neurais até a arquitetura transformadora que alimenta a IA de hoje.
Isso poderia reverter o que o pesquisador do Google François Chollet argumentou ser o maior impacto da OpenAI: adiando a inteligência artificial geral em “5 a 10 anos” quando parou de publicar suas pesquisas, o que encorajou menos compartilhamento no campo, tudo para proteger sua vantagem.
Aquele fosso nunca existiu.
Mas acreditar nele pode ter prejudicado mais a IA do que qualquer limitação técnica.