A equipe OpenAI Responsável pelos Perigos Existenciais da IA se Dissolveu

A equipe da OpenAI responsável pelos perigos existenciais da inteligência artificial não existe mais, após o cofundador e cientista-chefe Ilya Sutskever – e seu co-líder da equipe de “superalinhamento” da empresa Jan Leike – ter renunciado na terça-feira.

A OpenAI informou à Wired que desmantelou a equipe, acrescentando que seu trabalho será absorvido por outros esforços de pesquisa em toda a empresa. A empresa anunciou a equipe de superalinhamento em julho passado, com Sutskever e Leike liderando.

“Superinteligência será a tecnologia mais impactante que a humanidade já inventou e poderia nos ajudar a resolver muitos dos problemas mais importantes do mundo”, disse a OpenAI na época. “Mas o imenso poder da superinteligência também pode ser muito perigoso e poderia levar ao desempoderamento da humanidade ou até à extinção humana.”

A equipe tinha a tarefa de trabalhar nesse problema, e a OpenAI disse que dedicaria 20% de seus recursos computacionais a esse esforço ao longo dos próximos quatro anos.

Sutskever, que desempenhou um papel na expulsão momentânea do CEO da OpenAI, Sam Altman, em novembro, escreveu no X na terça-feira que tomou a decisão de sair depois de quase uma década na empresa. “Estou animado com o que vem a seguir – um projeto que é muito pessoalmente significativo para mim, sobre o qual compartilharei detalhes no momento certo”, escreveu.

Na sexta-feira, Leike compartilhou um thread no X sobre sua decisão de deixar a empresa, que ele chamou de “uma das coisas mais difíceis que já fiz, porque precisamos urgentemente descobrir como guiar e controlar sistemas de IA muito mais inteligentes do que nós”.

Leike escreveu que se juntou à OpenAI porque achava que “seria o melhor lugar do mundo para fazer essa pesquisa”, mas que ele “tem discordado da liderança da OpenAI sobre as prioridades principais da empresa há algum tempo, até que finalmente chegamos a um ponto de ruptura”. Ele continuou o thread, escrevendo que a OpenAI deveria priorizar a segurança ao buscar a inteligência artificial geral, ou AGI.

Em resposta ao thread de Leike, Altman escreveu no X que é “muito apreciativo” das “contribuições de Leike para a pesquisa de alinhamento da OpenAI e cultura de segurança, e muito triste por vê-lo partir. Ele está certo de que temos muito mais a fazer; estamos comprometidos em fazê-lo. Terei um post mais longo nos próximos dias.”

Sutskever e Leike se juntam a uma lista de outros funcionários da OpenAI que deixaram a empresa recentemente, incluindo outros da equipe de superalinhamento e pesquisadores que trabalham em políticas de IA e governança. Os anúncios vieram um dia depois que a OpenAI revelou seu mais novo chatbot multimodal de IA, ChatGPT-4o.