OpenAI Relata Supostamente Dissolução de sua Equipe de Risco de IA Existencial

A equipe Superalignment da OpenAI, encarregada de controlar o perigo existencial de um sistema de inteligência artificial super-humano, foi supostamente dissolvida, de acordo com o Wired na sexta-feira. A notícia chega poucos dias depois que os fundadores da equipe, Ilya Sutskever e Jan Leike, saíram simultaneamente da empresa.

O Wired relata que a equipe Superalignment da OpenAI, lançada em julho de 2023 para evitar que sistemas de inteligência artificial super-humanos futuros se tornem rebeldes, não existe mais. O relatório afirma que o trabalho do grupo será absorvido pelos outros esforços de pesquisa da OpenAI. A pesquisa sobre os riscos associados a modelos de AI mais poderosos será liderada agora pelo cofundador da OpenAI, John Schulman, de acordo com o Wired. Sutskever e Leike eram alguns dos principais cientistas da OpenAI focados em riscos de AI.

Leike postou uma longa sequência no X sexta-feira, explicando vagamente por que deixou a OpenAI. Ele diz que está lutando com a liderança da OpenAI sobre os valores principais há algum tempo, mas atingiu um ponto de ruptura esta semana. Leike observou que a equipe Superaligment tem estado “contra o vento”, lutando para obter poder de computação suficiente para uma pesquisa crucial. Ele acredita que a OpenAI precisa se concentrar mais em segurança e alinhamento.

A equipe de comunicação da OpenAI nos direcionou para um tweet de Sam Altman quando perguntamos se a equipe Superalignment foi dissolvida. Altman diz que terá um post mais longo nos próximos dias e a OpenAI tem “muito mais a fazer”. O tweet não responde realmente à nossa pergunta.

“Atualmente, não temos uma solução para orientar ou controlar uma AI potencialmente superinteligente e impedir que ela se torne rebelde,” disse a equipe Superalignment em um post no blog da OpenAI quando foi lançada em julho. “Mas os humanos não serão capazes de supervisionar com confiabilidade sistemas de AI muito mais inteligentes do que nós, então nossas técnicas atuais de alinhamento não escalarão até a superinteligência. Precisamos de novas descobertas científicas e técnicas.”

Agora não está claro se a mesma atenção será dedicada a essas descobertas técnicas. Sem dúvida, existem outras equipes na OpenAI focadas em segurança. A equipe de Schulman, que está absorvendo as responsabilidades da Superalignment, é atualmente responsável por ajustar modelos de AI após o treinamento. No entanto, a Superalignment se concentrou especificamente nos resultados mais graves de uma AI rebelde. Como o Gizmodo observou ontem, vários dos mais fervorosos defensores da segurança de AI da OpenAI se demitiram ou foram demitidos nos últimos meses.

No início deste ano, o grupo lançou um artigo de pesquisa notável sobre controlar modelos de AI grandes com modelos de AI menores – considerado um primeiro passo para controlar sistemas de AI superinteligentes. Não está claro quem dará os próximos passos nesses projetos na OpenAI.

A startup de AI de Sam Altman começou esta semana revelando o GPT-4 Omni, o último modelo fronteira da empresa, que apresentava respostas de ultra baixa latência que soavam mais humanas do que nunca. Muitos integrantes da OpenAI comentaram como o último modelo de AI estava mais próximo do que nunca de algo da ficção científica, especificamente o filme “Ela”.