OpenAI Está Rumando Para AGI Com Novo Grupo de Segurança Liderado por Sam Altman

A OpenAI informou que está treinando o próximo modelo de fronteira, de acordo com um comunicado de imprensa, e antecipa que isso aproximará a startup um passo mais perto de sistemas de inteligência artificial que são geralmente mais inteligentes do que os humanos. A empresa também anunciou a formação de um novo Comitê de Segurança para orientar decisões críticas de segurança, liderado pelo CEO Sam Altman e outros membros do conselho da OpenAI.

“Embora estejamos orgulhosos de construir e lançar modelos que são líderes da indústria em capacidades e segurança”, disse a OpenAI em um comunicado de imprensa. “Recebemos de braços abertos um debate robusto neste momento importante.”

O anúncio segue um mês tumultuado para a OpenAI, onde um grupo liderado por Ilya Sutskever e Jan Leike que pesquisava riscos existenciais de IA à humanidade foi dissolvido. Ex-membros do conselho da OpenAI, Helen Toner e Tasha McCauley, escreveram no The Economist que esses desenvolvimentos e outros após o retorno de Altman “não são promissores para o experimento da OpenAI em autogovernança”. Vários funcionários preocupados com a segurança também saíram da empresa nos últimos meses, muitos dos quais pediram maior atenção aos perigos dos sistemas de IA.

Este novo grupo parece ser uma tentativa da OpenAI de enfrentar esses medos, e a primeira tarefa do grupo será avaliar os processos e salvaguardas da OpenAI nos próximos 90 dias. No entanto, incluir Altman neste grupo é improvável que satisfaça os críticos da OpenAI. Toner e McCauley escrevem que líderes seniores disseram a eles que Altman cultivou “uma cultura tóxica de mentiras” na OpenAI. Apenas na semana passada, Scarlett Johansson pareceu questionar a confiabilidade de Altman, enquanto a empresa criava uma voz que soava exatamente como ela.

Altman, o presidente Bret Taylor e os membros do conselho Adam D’Angelo e Nicole Seligman liderarão o Comitê de Segurança. O novo cientista-chefe da empresa, Jakub Pachocki, também fará parte do comitê, ao lado dos chefes de departamentos Matt Knight, John Sculman, Lilian Weng e Aleksander Madry. O grupo também consultará especialistas externos e fará recomendações ao conselho maior da OpenAI sobre procedimentos de segurança.

Em maio, a empresa também lançou o GPT-4 Omni, que mostrou uma nova fronteira na interação humana com modelos de IA. Este modelo surpreendeu muitos na comunidade de IA com suas interações multimodais em tempo real, e parece que a OpenAI já está avançando com o treinamento do próximo. A startup de Altman está enfrentando pressão para competir com o Google para conquistar uma parceria de chatbot de IA com a Apple, amplamente esperada para ser anunciada durante a WWDC de junho. A parceria pode ser um dos acordos comerciais mais importantes no campo da tecnologia.

Dito isso, a nova equipe de segurança da OpenAI é composta em sua maioria por membros do conselho contratados após o retorno de Altman à OpenAI, e novos chefes de departamento que foram concedidos mais poder como resultado de saídas recentes. O novo grupo de segurança é um pequeno passo para lidar com as preocupações de segurança que assolam a OpenAI, mas a coleção de insiders não parece ser suficiente para silenciar essas preocupações.