Membros da Equipe da OpenAI Responsáveis pela Segurança Estão Deixando a Empresa

A OpenAI lançou sua equipe Superalinhamento quase um ano atrás, com o objetivo final de controlar sistemas hipotéticos de IA superinteligentes e evitá-los de se virarem contra os humanos. Naturalmente, muitas pessoas ficaram preocupadas – por que uma equipe como essa precisava existir em primeiro lugar? Agora, algo mais preocupante aconteceu: os líderes da equipe, Ilya Sutskever e Jan Leike, acabaram de sair da OpenAI.

A renúncia da liderança do Superalinhamento é a mais recente de uma série de saídas notáveis da empresa, algumas das quais vieram de dentro da equipe focada na segurança de Sutskever e Leike. Em novembro de 2023, Sutskever e o conselho da OpenAI lideraram um esforço fracassado para destituir o CEO Sam Altman. Seis meses depois, vários membros da equipe da OpenAI deixaram a empresa que eram ou muito vocalizaram sobre a segurança da IA ou trabalharam em equipes-chave de segurança.

Sutskever acabou pedindo desculpas pelo golpe (meu erro, cara!) e assinou uma carta ao lado de 738 funcionários da OpenAI (de um total de 770) pedindo a reintegração de Altman e do Presidente Greg Brockman. No entanto, de acordo com uma cópia da carta obtida pelo The New York Times com 702 assinaturas (a cópia mais completa publicamente encontrada pelo Gizmodo), vários funcionários que agora saíram não assinaram a mostra de apoio à liderança da OpenAI ou demoraram para fazê-lo.

Os nomes dos membros da equipe Superalinhamento Jan Leike, Leopold Aschenbrenner e William Saunders – que desde então saíram – não aparecem ao lado de mais de 700 outros funcionários da OpenAI demonstrando apoio a Altman e Brockman na cópia do Times. O renomado pesquisador de IA Andrej Karpathy e os ex-funcionários da OpenAI Daniel Kokotajlo e Cullen O’Keefe também não aparecem nesta versão inicial da carta e desde então deixaram a OpenAI. Essas pessoas podem ter assinado a versão posterior da carta para sinalizar apoio, mas, se o fizeram, parecem ter sido os últimos a fazê-lo.

O Gizmodo entrou em contato com a OpenAI para comentar quem liderará a equipe Superalinhamento daqui para frente, mas ainda não obtivemos resposta imediata.

De forma mais abrangente, a segurança na OpenAI sempre foi uma questão divisória. Foi isso que causou Dario e Daniela Amodei em 2021 a iniciar sua própria empresa de IA, Anthropic, ao lado de outros nove ex-funcionários da OpenAI. As preocupações com a segurança também foram o que levou os membros do conselho sem fins lucrativos da OpenAI a destituir Altman e Brockman. Estes membros do conselho foram substituídos por alguns empreendedores famosos do Vale do Silício.

A OpenAI ainda tem muitas pessoas trabalhando na segurança da empresa. Afinal, a missão declarada da startup é criar de forma segura uma AGI que beneficie a humanidade! Dito isso, aqui está a lista em andamento do Gizmodo de notáveis defensores da segurança da IA que saíram da OpenAI desde a destituição de Altman. Clique em desktop ou continue rolando no celular.