OpenAI Não Cumpriu Promessas Feitas à Sua Equipe de Segurança de IA, Diz Relatório

No mês passado, a OpenAI anunciou sua equipe “Superalignment”, uma unidade dedicada a controlar os perigos existenciais da inteligência artificial – um esforço que a empresa disse estar dedicando 20% de sua capacidade de computação nos próximos quatro anos. Mas, segundo relatos, a empresa não cumpriu seus compromissos.

De acordo com relatos, os pedidos da equipe Superalignment por acesso às GPUs (unidades de processamento gráfico, usadas no treinamento e execução de modelos de IA) foram repetidamente negados pela liderança da OpenAI. O orçamento de poder de computação prometido à equipe também nunca chegou perto de alcançar os 20%, informou a Fortune, citando pessoas não identificadas familiarizadas com a equipe. A OpenAI dissolveu a equipe na semana passada após a renúncia de seus co-líderes, Ilya Sutskever e Jan Leike, da empresa. A OpenAI não respondeu imediatamente a um pedido de comentário.

Fontes disseram à Fortune que a equipe Superalignment nunca recebeu a potência de cálculo prometida e que recebeu muito menos do orçamento regular de computação da empresa. Uma pessoa disse que a OpenAI não estabeleceu condições claras sobre como os 20% de poder de cálculo prometidos seriam alocados, como se seria “20% a cada ano por quatro anos” ou “5% ao ano por quatro anos”.

Enquanto isso, a equipe Superalignment foi informada repetidamente por Bob McGrew, vice-presidente de pesquisa da OpenAI, que seus pedidos por GPUs adicionais além do que já estava orçado foram recusados. Outros líderes da OpenAI – incluindo a diretora de tecnologia Mira Murati – estiveram envolvidos na rejeição dos pedidos, disseram fontes à Fortune.

Esse investimento variável não era um bom presságio para a equipe de segurança. Sem sua potência de cálculo alocada, a equipe Superalignment não pôde seguir pesquisas mais ambiciosas, disse uma pessoa à Fortune. Fontes também apoiaram a descrição da experiência da equipe por Leike, que ele compartilhou após anunciar sua renúncia da empresa. Leike escreveu que “a cultura e os processos de segurança foram deixados em segundo plano para produtos reluzentes” e que a equipe às vezes “lutava por poder de cálculo e estava cada vez mais difícil realizar essa pesquisa crucial.”

Algumas fontes informaram à Fortune que o acesso da equipe ao poder de cálculo piorou após o afastamento temporário do CEO da OpenAI, Sam Altman, em novembro – um esforço liderado por Sutskever, que era co-fundador e cientista-chefe da empresa. No entanto, uma pessoa disse que os problemas antecederam o afastamento. Sutskever não teve acesso à equipe Superalignment após o Dia de Ação de Graças, disseram fontes.

Sutskever e Leike se juntaram a uma lista de outros funcionários da OpenAI que saíram recentemente da empresa, incluindo outros da equipe Superalignment e pesquisadores que trabalham em política e governança de IA.