Funcionários da OpenAI Responsáveis pela Segurança estão Saindo do Barco

A OpenAI lançou sua equipe do Superalignment há quase um ano, com o objetivo final de controlar sistemas de IA superinteligentes hipotéticos e evitar que se voltem contra os humanos. Naturalmente, muitas pessoas estavam preocupadas – por que uma equipe assim precisava existir em primeiro lugar? Agora, algo mais preocupante aconteceu: os líderes da equipe, Ilya Sutskever e Jan Leike, acabaram de sair da OpenAI.

A renúncia da liderança do Superalignment é a mais recente de uma série de partidas notáveis ​​da empresa, algumas das quais vieram de dentro da equipe focada na segurança de Sutskever e Leike. Em novembro de 2023, Sutskever e o conselho da OpenAI lideraram um esforço fracassado para destituir o CEO Sam Altman. Seis meses depois, vários membros da equipe da OpenAI deixaram a empresa, sendo alguns deles críticos em relação à segurança da IA ou membros de equipes-chave de segurança.

Sutskever acabou pedindo desculpas pelo golpe (desculpa aí, cara!) e assinou uma carta ao lado de 738 funcionários da OpenAI (de um total de 770) pedindo a reintegração de Altman e do presidente Greg Brockman. No entanto, de acordo com uma cópia da carta obtida pelo The New York Times com 702 assinaturas (a cópia pública mais completa que o Gizmodo pôde encontrar), vários funcionários que agora saíram ou não assinaram o manifesto de apoio à liderança da OpenAI ou o fizeram tardiamente.

Os nomes dos membros da equipe do Superalignment Jan Leike, Leopold Aschenbrenner e William Saunders, que desde então saíram, não aparecem ao lado de mais de 700 outros funcionários da OpenAI que demonstraram apoio a Altman e Brockman na cópia do Times. O renomado pesquisador de IA, Andrej Karpathy, e os ex-funcionários da OpenAI, Daniel Kokotajlo e Cullen O’Keefe, também não aparecem nesta versão inicial da carta e desde então deixaram a OpenAI. Essas pessoas podem ter assinado a versão mais recente da carta para demonstrar apoio, mas, se o fizeram, parecem ter sido os últimos a fazê-lo.

O Gizmodo entrou em contato com a OpenAI para comentar quem liderará a equipe do Superalignment daqui em diante, mas não obteve resposta imediata.

De forma mais ampla, a segurança na OpenAI sempre foi uma questão divisiva. Foi isso que levou Dario e Daniela Amodei em 2021 a iniciar sua própria empresa de IA, a Anthropic, ao lado de outros nove ex-funcionários da OpenAI. As preocupações com a segurança também foram o que, segundo relatos, levou os membros do conselho sem fins lucrativos da OpenAI a destituir Altman e Brockman. Esses membros do conselho foram substituídos por alguns empresários infames do Vale do Silício.

A OpenAI ainda tem muitas pessoas trabalhando na segurança da empresa. Afinal, a missão declarada da startup é criar de forma segura a IA geral que beneficie a humanidade! Dito isso, aqui está a lista em andamento do Gizmodo de notáveis defensores da segurança da IA que deixaram a OpenAI desde a destituição de Altman. Clique em desktop ou continue rolando no celular.