Nova Equipe da OpenAI para Supervisionar Sam Altman é liderada por Sam Altman

A OpenAI diz que está treinando o próximo modelo de fronteira, de acordo com um comunicado de imprensa de terça-feira, e antecipa que isso levará a startup um passo mais perto de sistemas de inteligência artificial que são geralmente mais inteligentes do que os humanos. A empresa também anunciou um novo Comitê de Segurança e Proteção para orientar decisões críticas de segurança, liderado pelo CEO Sam Altman e outros membros do conselho da OpenAI.

“Embora estejamos orgulhosos de construir e lançar modelos que lideram a indústria em termos de capacidades e segurança,” disse a OpenAI em um comunicado de imprensa. “Recebemos de bom grado um debate robusto neste momento importante.”

O anúncio segue um mês tumultuado para a OpenAI, onde um grupo liderado por Ilya Sutskever e Jan Leike que pesquisou os riscos existenciais de IA para a humanidade foi dissolvido. Ex-membros do conselho Helen Toner e Tasha McCauley escreveram no The Economist no domingo que esses desenvolvimentos e outros após o retorno de Altman “não são promissores para o experimento da OpenAI em autogestão”. Vários funcionários preocupados com a segurança também deixaram a empresa nos últimos meses, muitos dos quais pediram maior atenção aos perigos dos sistemas de IA.

Esse novo grupo parece ser a tentativa da OpenAI de responder a esses medos, e a primeira tarefa do grupo será avaliar os processos e salvaguardas da OpenAI ao longo dos próximos 90 dias. No entanto, incluir Altman neste grupo dificilmente irá apaziguar os críticos da OpenAI. Toner e McCauley escreveram que líderes seniores disseram a eles que Altman cultivava “uma cultura tóxica de mentiras” na OpenAI. Na semana passada, Scarlett Johansson pareceu questionar a confiabilidade de Altman enquanto a empresa criava uma voz que soava exatamente como ela.

Altman, o presidente Bret Taylor e os membros do conselho Adam D’Angelo e Nicole Seligman liderarão o Comitê de Segurança e Proteção. O novo cientista-chefe da empresa, Jakub Pachocki, também fará parte do comitê, juntamente com os chefes de departamento Matt Knight, John Sculman, Lilian Weng e Aleksander Madry. O grupo também consultará especialistas externos e fará recomendações ao conselho maior da OpenAI sobre os procedimentos de segurança.

Durante maio, a empresa também lançou o GPT-4 Omni, que apresentou uma nova fronteira na interação humana com modelos de IA. Esse modelo surpreendeu muitos na comunidade de IA com suas interações multimodais em tempo real, e parece que a OpenAI já está avançando no treinamento do próximo. A startup de Altman está enfrentando pressão para competir com o Google para conquistar uma parceria de chatbot de IA com a Apple, largamente esperada para ser revelada durante a WWDC de junho. A parceria pode ser um dos negócios mais importantes no mundo da tecnologia.

Dito isso, a nova equipe de segurança da OpenAI é composta principalmente por membros do conselho contratados após o retorno de Altman à OpenAI e por novos chefes de departamento que receberam mais poder como resultado das recentes saídas. O novo grupo de segurança é um pequeno passo para abordar as preocupações de segurança que assolam a OpenAI, mas a coleção de insiders não parece ser suficiente para silenciar essas preocupações.