Nova Equipe da OpenAI para Fiscalizar Sam Altman é Liderada por Sam Altman

A OpenAI afirma que está treinando o próximo modelo de fronteira, de acordo com um comunicado de imprensa de terça-feira, e antecipa que isso levará a startup um passo mais perto de sistemas de inteligência artificial que são geralmente mais inteligentes do que os humanos. A empresa também anunciou um novo Comitê de Segurança para orientar decisões críticas de segurança, liderado pelo CEO Sam Altman e outros membros do conselho da OpenAI.

“Embora estejamos orgulhosos de construir e lançar modelos que são líderes na indústria em termos de capacidade e segurança,” disse a OpenAI em comunicado de imprensa. “Recebemos com prazer um debate robusto neste momento importante.”

O anúncio segue um mês tumultuado para a OpenAI, onde um grupo liderado por Ilya Sutskever e Jan Leike que pesquisava riscos existenciais de IA para a humanidade foi dissolvido. Ex-membros do conselho da OpenAI, Helen Toner e Tasha McCauley, escreveram no The Economist no domingo que esses desenvolvimentos e outros após o retorno de Altman “não são um bom sinal para a experiência da OpenAI na autogovernança.” Vários funcionários preocupados com a segurança também saíram da empresa nos últimos meses, muitos dos quais pediram maior atenção aos perigos dos sistemas de IA.

Este novo grupo parece ser a tentativa da OpenAI de abordar esses temores, e a primeira tarefa do grupo será avaliar os processos e salvaguardas da OpenAI nos próximos 90 dias. No entanto, incluir Altman neste grupo é improvável que apazigue os críticos da OpenAI. Toner e McCauley escrevem que líderes seniores lhes disseram que Altman cultivou “uma cultura tóxica de mentiras” na OpenAI. Apenas na semana passada, Scarlett Johansson parecia questionar a confiabilidade de Altman enquanto a empresa criava uma voz que soava exatamente como ela.

Altman, o presidente Bret Taylor e os membros do conselho Adam D’Angelo e Nicole Seligman liderarão o Comitê de Segurança. O novo cientista-chefe da empresa, Jakub Pachocki, também fará parte do comitê, juntamente com chefes de departamento Matt Knight, John Sculman, Lilian Weng e Aleksander Madry. O grupo também consultará especialistas externos e fará recomendações ao conselho maior da OpenAI sobre procedimentos de segurança.

Em maio, a empresa também lançou o GPT-4 Omni, que mostrou uma nova fronteira na interação humana com modelos de IA. Este modelo surpreendeu muitos na comunidade de IA com suas interações multimodais em tempo real, e parece que a OpenAI está avançando rapidamente com o treinamento do próximo. A startup de Altman enfrenta pressão para competir com o Google para conquistar uma parceria com chatbots de IA da Apple, provavelmente esperada para ser revelada durante a WWDC de junho. A parceria pode ser um dos negócios mais importantes no setor de tecnologia.

No entanto, a nova equipe de segurança da OpenAI é composta principalmente por membros do conselho, trazidos após o retorno de Altman à empresa, e novos chefes de departamento que receberam mais poder como resultado das recentes saídas. O novo grupo de segurança é um pequeno passo em direção à abordagem das preocupações de segurança que afligem a OpenAI, mas a coleção de insiders não parece ser suficiente para calar essas preocupações.