Google e Intel desafiam a dominância dos chips de IA da Nvidia. Não será fácil.

A Nvidia foi nomeada após a palavra latina para inveja, “invidia”. E há muito o que invejar sobre o gigante de semicondutores. Empresas têm avidamente comprado seus chips de inteligência artificial muito caros em sua corrida para desenvolver novas tecnologias de inteligência artificial generativa. As ações da Nvidia dispararam 220% no último ano conforme as receitas dispararam, tornando-a a terceira empresa mais valiosa do mundo. Ela está praticamente “imprimindo dinheiro”, como afirmou um analista.

Agora, outras gigantes de tecnologia estão introduzindo seus próprios chips de inteligência artificial: o MTIA da Meta, Maia da Microsoft, Trainium da Amazon e TPUs do Google. Sem mencionar a Intel e a Advanced Micro Devices, fabricantes de chips de semicondutores que são concorrentes diretos da Nvidia. Ao longo de dois dias nesta semana, a matriz do Google Alphabet, a matriz do Facebook Meta e a Intel mostraram novos hardwares de inteligência artificial, parte de um crescente desafio à dominância da Nvidia.

Mas a Nvidia não desistirá facilmente. Dois terços de sua receita vêm de seus cinco principais clientes, que incluem a Meta, Microsoft, Google e Amazon. Todos os quatro começaram a fabricar hardware de inteligência artificial internamente, o que poderia ameaçar seriamente a receita da Nvidia no futuro.

A revelação do TPU v5p do Google na terça-feira, seguido pelo lançamento da próxima iteração do MTIA da Meta na quarta-feira, foram os últimos sinais de que os compradores dos chips de inteligência artificial da Nvidia estão se tornando mais autossuficientes. Startups de inteligência artificial de alto perfil já estão utilizando os serviços do Google impulsionados por seu novo hardware, em vez dos chips de inteligência artificial da Nvidia, conhecidos como GPUs, ou unidades de processamento gráfico.

Os rivais de semicondutores da Nvidia, Intel e AMD, também estão melhorando seu jogo de chips de inteligência artificial. A Intel introduziu seu acelerador de IA Gaudi 3 em sua conferência Intel Vision 2024 na terça-feira, afirmando que ele tem melhor desempenho e eficiência para treinar modelos de inteligência artificial do que as alternativas do setor, incluindo o altamente procurado chip H100 da Nvidia. A Intel disse que seu novo chip tem mais poder de computação de IA, largura de banda de rede e memória do que seu antecessor, o Gaudi 2.

A Intel também disse que seu acelerador Gaudi 3 pode treinar modelos de aprendizagem de idiomas (LLMs) que alimentam chatbots de IA 50% mais rápido do que o popular chip H100 de $40.000 da Nvidia, e fornecer inferência 30% mais rápida (ou usar dados para fazer previsões) para os principais LLMs em comparação com o chip H200 da Nvidia. A empresa está aguardando a publicação dos resultados de desempenho do seu recém-apresentado chip Blackwell pela Nvidia antes de poder compará-lo com o Gaudi 3.

O CEO da Intel, Pat Gelsinger, disse aos repórteres na terça-feira que a empresa possui um “rota de inovação” própria, que inclui intensificar seu acelerador Gaudi 3 com clientes e parceiros de negócios enquanto compete com os lançamentos de produtos da Nvidia.

“Claramente, o Gaudi 3 supera significativamente o H100 atualmente”, disse Gelsinger, acrescentando que o Custo Total de Propriedade (TCO) é um grande diferencial entre as duas fabricantes.

Enquanto ele se recusou a compartilhar detalhes sobre os preços do Gaudi 3, Gelsinger disse que a Intel se sente “muito confortável” de que será “bem abaixo dos pontos de preço citados para H100s e Blackwell”.

Mas a questão da concorrência da Intel com a Nvidia não é apenas sobre desempenho, mas também sobre custo, disponibilidade e acesso a dados, disse Christoph Schell, diretor comercial da Intel.

“Estamos à frente da Nvidia em todos esses aspectos”, disse Schell.

Depois de uma grande alta para começar 2024, as ações da Nvidia entraram em território de correção na terça-feira, caindo 10% de seu pico recente quando o Google e a Intel miraram seu criador de chuva de inteligência artificial.

Mas a correção não durou muito: as ações da Nvidia fecharam de volta em alta de 2% na quarta-feira, mesmo em um dia em que o mercado mais amplo viu uma venda.

A Nvidia possui uma participação de 75% no mercado de aceleradores de IA, segundo analistas do Bank of America. A maioria das empresas agora entende como desenvolver hardware de chip de IA, disse Benjamin Lee, professor de engenharia e ciência da computação na Universidade da Pensilvânia. O benefício principal dos chips da Nvidia, segundo ele, são suas bibliotecas de software, que facilitam para os desenvolvedores criar aplicativos de IA sem ter que escrever código do zero.

Por enquanto, a Intel e a AMD estão apenas tentando acompanhar, disse Lee.

“A Nvidia vem trabalhando nisso há pelo menos os últimos 10 anos”, disse Lee, o que “reflete a maturidade de sua caixa de ferramentas” em comparação com a Intel, que lançou seu primeiro chip de IA apenas em 2019.

Enquanto isso, disse Lee, os clientes da Nvidia estão principalmente fabricando aceleradores de IA para reduzir seus próprios custos, não para competir diretamente com a Nvidia.

Por outro lado, Luria observou que o Google já está vendendo serviços executados em seus TPUs, unidades de processamento de tensor. O investimento de $4 bilhões da Amazon na Anthropic estipula que seus futuros modelos de IA serão executados apenas em chips da Amazon. E a superioridade do software da Nvidia não durará para sempre, disse Luria, porque seus clientes têm forte motivação para encontrar maneiras de reduzir seus gastos com os chips, desenvolvendo seus próprios produtos de IA e impulsionando os concorrentes da Nvidia.

Luria usou o Microsoft como exemplo.

“Quando a Microsoft estava gastando menos de $2 bilhões por ano em GPUs da Nvidia, talvez não precisasse necessariamente gastar tanto esforço em seus próprios chips”, disse ele. “Mas no ano passado, eles gastaram $11,5 bilhões em GPUs. Isso cria um senso de urgência.”

Luria disse que é semelhante para a Amazon, Google e Meta.

“Agora que o gasto é tão grande quanto é”, disse ele, “eles estão trabalhando muito mais para substituir a Nvidia por seus próprios chips personalizados feitos sob medida para suas aplicações de IA”.