A OpenAI lançou sua equipe Superalignment há quase um ano, com o objetivo final de controlar sistemas de IA hipotéticos super inteligentes e impedir que eles se voltem contra os humanos. Naturalmente, muitas pessoas estavam preocupadas – por que uma equipe assim precisava existir? Agora, algo mais preocupante ocorreu: os líderes da equipe, Ilya Sutskever e Jan Leike, acabam de sair da OpenAI.
A renúncia da liderança da Superalignment é a mais recente de uma série de saídas notáveis da empresa, algumas das quais vieram de dentro da equipe focada em segurança de Sutskever e Leike. Em novembro de 2023, Sutskever e o conselho da OpenAI lideraram um esforço fracassado para destituir o CEO Sam Altman. Seis meses depois, vários membros da equipe da OpenAI saíram da empresa, sendo alguns deles atuantes na segurança de IA ou em equipes-chave de segurança.
Sutskever acabou pedindo desculpas pelo golpe (foi mal, cara!) e assinou uma carta ao lado de 738 funcionários da OpenAI (de um total de 770) pedindo a reinstalação de Altman e do presidente Greg Brockman. No entanto, de acordo com uma cópia da carta obtida pelo The New York Times com 702 assinaturas (a cópia pública mais completa que a Gizmodo pôde encontrar), vários funcionários que agora saíram não assinaram o apoio à liderança da OpenAI ou o fizeram tardiamente.
Os nomes dos integrantes da equipe Superalignment Jan Leike, Leopold Aschenbrenner e William Saunders, que desde então renunciaram, não aparecem junto com mais de 700 outros funcionários da OpenAI que mostram seu apoio a Altman e Brockman na cópia do Times. O pesquisador de IA de renome mundial Andrej Karpathy e os ex-funcionários da OpenAI Daniel Kokotajlo e Cullen O’Keefe também não aparecem nesta versão anterior da carta e desde então deixaram a OpenAI. Esses indivíduos podem ter assinado a versão posterior da carta para sinalizar apoio, mas, se o fizeram, parecem ter sido os últimos a fazê-lo.
A Gizmodo entrou em contato com a OpenAI para comentar quem estará liderando a equipe Superalignment daqui para frente, mas não recebemos uma resposta imediata.
De forma mais ampla, a segurança na OpenAI sempre foi uma questão divisiva. Foi isso que fez com que Dario e Daniela Amodei em 2021 começassem sua própria empresa de IA, a Anthropic, ao lado de outros nove ex-funcionários da OpenAI. As preocupações com a segurança também foram o que, segundo relatos, levou os membros do conselho sem fins lucrativos da OpenAI a destituir Altman e Brockman. Esses membros do conselho foram substituídos por alguns empreendedores infames do Vale do Silício.
A OpenAI ainda tem muitas pessoas trabalhando na segurança da empresa. Afinal, a missão declarada da startup é criar AGI com segurança que beneficie a humanidade! Dito isso, aqui está a lista contínua da Gizmodo de importantes defensores da segurança da IA que deixaram a OpenAI desde a saída de Altman. Clique no desktop ou continue rolando no celular.