Líderes da OpenAI dizem que irão ‘Manter Elevando’ Segurança após dissolverem equipe de perigos existenciais

A inteligência artificial vai se tornar cada vez mais incorporada em nossas vidas cotidianas – e a liderança da OpenAI quer que o mundo saiba que está levando os riscos a sério depois que a empresa fechou a equipe responsável pelos perigos existenciais da IA.

Em um post na X coassinado pelo CEO da OpenAI Sam Altman e presidente Greg Brockman, os executivos disseram que estão continuando a lançar as bases para implantar modelos de IA cada vez mais capazes de forma segura. Mas, eles escreveram, o futuro será “mais difícil do que o passado”.

“Precisamos continuar elevando nosso trabalho de segurança para combinar com os riscos de cada novo modelo”, disseram no sábado.

“Sabemos que não podemos imaginar todos os cenários futuros possíveis”, acrescentaram. “Então, precisamos ter um ciclo de feedback muito apertado, testes rigorosos, consideração cuidadosa em cada etapa, segurança de classe mundial e harmonia de segurança e capacidades”, incluindo pesquisa de segurança visando diferentes escalas de tempo, e colaborando com governos e “muitas partes interessadas” em segurança.

O post veio um dia depois de a OpenAI ter dito à Wired que havia desmantelado a equipe de “superalinhamento” liderada pelo cofundador e cientista-chefe Ilya Sutskever, e Jan Leike, que anunciaram suas saídas da empresa na semana passada. A OpenAI disse que o trabalho da equipe de “superalinhamento” será absorvido por outros esforços de pesquisa em toda a empresa.

Ao sair, Leike escreveu em um tópico na X que ele havia alcançado um “ponto de ruptura” devido a discordâncias com as prioridades principais da empresa, acrescentando que “a cultura e processos de segurança foram deixados de lado para produtos atraentes” nos últimos anos.

Brockman e Altman escreveram no sábado que sabem que Leike continuará a contribuir para a missão de fora.

Sutskever – que ajudou a expulsar brevemente Altman da liderança da OpenAI no ano passado – e Leike se juntam às fileiras de outros funcionários da OpenAI que saíram recentemente da empresa, incluindo outros da equipe de superalinhamento e pesquisadores que trabalham em políticas e governança de IA.

A reorganização também veio depois que a OpenAI revelou seu novo chatbot de IA, ChatGPT-4o. Mira Murati, diretora de tecnologia da empresa, disse que as capacidades avançadas do novo chatbot trazem “novos desafios para nós em termos de segurança”.