A Equipe do OpenAI Responsável pelos Perigos Existenciais da IA se Dissolveu

A equipe da OpenAI responsável pelos perigos existenciais da inteligência artificial não existe mais, após o co-fundador e cientista-chefe Ilya Sutskever – e seu co-líder da equipe “superalinhamento” da empresa Jan Leike – terem renunciado na terça-feira. A OpenAI informou ao Wired que desfez a equipe, acrescentando que seu trabalho será absorvido por outros esforços de pesquisa dentro da empresa. A empresa anunciou a equipe de superalinhamento em julho passado, com Sutskever e Leike liderando. “A superinteligência será a tecnologia mais impactante que a humanidade já inventou e poderia nos ajudar a resolver muitos dos problemas mais importantes do mundo”, disse a OpenAI na época. “Mas o imenso poder da superinteligência também poderia ser muito perigoso e levar à desautorização da humanidade ou até a extinção humana.” A equipe foi encarregada de trabalhar nesse problema, e a OpenAI disse que dedicaria 20% de seu poder de computação para o esforço nos próximos quatro anos. Sutskever, que desempenhou um papel ao destituir momentaneamente o CEO da OpenAI, Sam Altman, em novembro, escreveu no X na terça-feira que tomou a decisão de sair após quase uma década na empresa. “Estou empolgado com o que vem a seguir – um projeto muito pessoalmente significativo para mim do qual compartilharei detalhes no devido tempo”, escreveu. Na sexta-feira, Leike compartilhou um tópico no X sobre sua decisão de deixar a empresa, que ele chamou de “uma das coisas mais difíceis que já fiz, porque precisamos urgentemente descobrir como direcionar e controlar sistemas de IA muito mais inteligentes que nós.” Leike escreveu que se juntou à OpenAI porque achou que “seria o melhor lugar do mundo para fazer essa pesquisa”, mas que “tem discordado com a liderança da OpenAI sobre as prioridades principais da empresa há muito tempo, até chegarmos a um ponto de ruptura.” Ele continuou o tópico, escrevendo que a OpenAI deveria priorizar a segurança enquanto busca a inteligência artificial geral, ou AGI. Em resposta ao tópico de Leike, Altman escreveu no X que está “muito agradecido” pelas “contribuições de Leike para a pesquisa de alinhamento da openai e para a cultura de segurança, e muito triste por vê-lo partir. ele está certo de que temos muito mais a fazer; estamos comprometidos em fazê-lo. eu terei um post mais longo nos próximos dias.” Sutskever e Leike se juntam a uma lista de outros funcionários da OpenAI que saíram da empresa recentemente, incluindo outros da equipe de superalinhamento e pesquisadores que trabalham em política e governança de IA. Os anúncios vieram um dia depois que a OpenAI revelou seu novo chatbot multimodal de IA, ChatGPT-4o.