Microsoft Está Treinando Seu Modelo de Inteligência Artificial Para Competir com Google e OpenAI, Diz Relatório

A Microsoft está supostamente treinando seu próprio modelo de inteligência artificial para competir com os modelos do Google e da OpenAI, com a qual possui uma parceria multibilionária de múltiplos anos. O novo modelo interno da gigante da tecnologia, chamado internamente de MAI-1, está sendo liderado pelo ex-chefe de IA do Google, Mustafa Suleyman, segundo informações de pessoas familiarizadas com o assunto. A Microsoft contratou Suleyman, que co-fundou as startups de IA DeepMind (adquirida pelo Google em 2014) e Inflection, que ele liderou como CEO, para liderar sua divisão de IA em março, juntamente com a maioria da equipe da Inflection. A empresa também pagou US$ 650 milhões pelos direitos de propriedade intelectual da Inflection. No entanto, o novo modelo é separado dos modelos anteriormente lançados pela Inflection, segundo informações do The Information. A Microsoft se recusou a comentar sobre o relatório. Kevin Scott, diretor de tecnologia da Microsoft, escreveu em um post no LinkedIn que a empresa constrói “supercomputadores grandes para treinar modelos de IA” e que a OpenAI “usa esses supercomputadores para treinar modelos que definem fronteiras”. “Cada supercomputador que construímos para a OpenAI é muito maior do que o anterior, e cada modelo de fronteira que eles treinam é muito mais poderoso do que seus antecessores”, escreveu Scott. “Continuaremos nesse caminho – construindo supercomputadores cada vez mais poderosos para a OpenAI treinar modelos que ditarão o ritmo de todo o campo – bem no futuro.” Scott acrescentou que a Microsoft construiu modelos de IA há anos, e alguns dos “modelos têm nomes como Turing e MAI”. MAI-1 será caro devido à necessidade de grandes quantidades de poder computacional e dados de treinamento, pois será “muito maior” do que os modelos menores de código aberto que a Microsoft treinou, segundo informações do The Information. Comparado aos modelos de código aberto da Meta e Mistral, que têm 70 bilhões de parâmetros – ou as variáveis que os modelos aprendem durante o treinamento para fazer previsões – o MAI-1 terá, supostamente, cerca de 500 bilhões de parâmetros. O modelo mais poderoso da OpenAI, o GPT-4, tem relatos de ter mais de um trilhão de parâmetros. A Microsoft poderia apresentar uma prévia do modelo em sua conferência anual de desenvolvedores, Build, ainda neste mês, segundo informações do The Information. A empresa manteve um grande cluster de servidores que incluem GPUs da Nvidia, bem como grandes quantidades de dados para treinar o modelo.