Microsoft está treinando seu modelo de IA para competir com o Google e OpenAI, diz relatório.

A Microsoft está treinando seu próprio modelo de inteligência artificial para competir com os modelos do Google e da OpenAI, com os quais tem uma parceria multibilionária de vários anos. O novo modelo interno da gigante da tecnologia, chamado internamente de MAI-1, está sendo liderado pelo ex-chefe de IA do Google, Mustafa Suleyman. Microsoft contratou Suleyman, co-fundador das startups de IA DeepMind e Inflection, para liderar sua divisão de IA em março, juntamente com a maioria da equipe da Inflection. A empresa também pagou US$ 650 milhões pelos direitos de propriedade intelectual da Inflection. O novo modelo é separado dos modelos previamente lançados pela Inflection, mas pode ser construído com base nos dados de treinamento e em outras tecnologias da Inflection, segundo o The Information. A Microsoft se recusou a comentar o relatório.

Kevin Scott, diretor de tecnologia da Microsoft, escreveu em um post no LinkedIn que a empresa constrói “supercomputadores gigantes para treinar modelos de IA” e que a OpenAI “usa esses supercomputadores para treinar modelos definidores de fronteira”. “Cada supercomputador que construímos para a OpenAI é muito maior do que o anterior, e cada modelo de ponta que eles treinam é muito mais poderoso que os anteriores”, escreveu Scott. “Continuaremos nesse caminho, construindo supercomputadores cada vez mais poderosos para a OpenAI treinar os modelos que ditarão o ritmo de todo o campo, bem no futuro”. Scott acrescentou que a Microsoft constrói modelos de IA há anos, e alguns modelos têm nomes como Turing e MAI.

MAI-1 será caro devido à necessidade de grandes quantidades de energia de processamento e dados de treinamento, pois será “muito maior” do que os modelos menores de código aberto que a Microsoft treinou. Comparado aos modelos de código aberto da Meta e da Mistral, que têm 70 bilhões de parâmetros, o MAI-1 terá aproximadamente 500 bilhões de parâmetros. O modelo mais poderoso da OpenAI, o GPT-4, tem mais de um trilhão de parâmetros.

A Microsoft pode apresentar uma prévia do modelo em sua conferência anual de desenvolvedores, Build, ainda neste mês, segundo o The Information. A empresa manteve um grande cluster de servidores que incluem GPUs da Nvidia, além de grandes quantidades de dados para treinar o modelo.