A Equipe OpenAI Responsável Por Perigos Existenciais da IA Se Dissolveu

A equipe da OpenAI responsável pelos perigos existenciais da inteligência artificial não existe mais, depois que o co-fundador e cientista-chefe Ilya Sutskever – e seu co-líder da equipe de “superalinhamento” da empresa, Jan Leike – renunciaram na terça-feira. A OpenAI disse à Wired que dissolveu a equipe, acrescentando que seu trabalho será absorvido por outros esforços de pesquisa em toda a empresa. A empresa anunciou a equipe de superalinhamento em julho passado, com Sutskever e Leike na liderança. “A superinteligência será a tecnologia mais impactante que a humanidade já inventou e poderia nos ajudar a resolver muitos dos problemas mais importantes do mundo”, disse a OpenAI na época. “Mas o vasto poder da superinteligência também pode ser muito perigoso e poderia levar à desemparelhamento da humanidade ou até à extinção humana.” A equipe tinha como objetivo trabalhar nesse problema, e a OpenAI disse que dedicaria 20% de sua capacidade ao esforço ao longo dos próximos quatro anos. Sutskever, que desempenhou um papel na expulsão momentânea do CEO da OpenAI, Sam Altman, em novembro, escreveu no X na terça-feira que tomou a decisão de sair depois de quase uma década na empresa. “Estou animado para o que vem a seguir – um projeto que é muito pessoalmente significativo para mim, sobre o qual compartilharei detalhes no momento adequado”, escreveu. Na sexta-feira, Leike compartilhou uma thread no X sobre sua decisão de deixar a empresa, que ele chamou de “uma das coisas mais difíceis que já fiz, porque precisamos urgentemente descobrir como conduzir e controlar sistemas de IA muito mais inteligentes do que nós”. Leike escreveu que se juntou à OpenAI porque achou que “seria o melhor lugar do mundo para fazer essa pesquisa”, mas que estava “discordando da liderança da OpenAI sobre as prioridades principais da empresa há algum tempo, até finalmente chegarmos a um ponto de ruptura.” Ele continuou o thread, escrevendo que a OpenAI deveria priorizar a segurança ao buscar a inteligência artificial geral, ou AGI. Em resposta ao thread de Leike, Altman escreveu no X que é “super apreciativo” das “contribuições de Leike para a pesquisa de alinhamento e cultura de segurança da openai, e muito triste em vê-lo partir. ele está certo, temos muito mais a fazer; estamos comprometidos em fazê-lo. terei uma postagem mais longa nos próximos dias.” Sutskever e Leike se juntam a uma lista de outros funcionários da OpenAI que saíram da empresa recentemente, incluindo outros da equipe de superalinhamento e pesquisadores que trabalham em política e governança de IA. Os anúncios vieram um dia depois que a OpenAI revelou seu novo chatbot de IA multimodal, ChatGPT-4o.