Sam Altman’s ‘Inconsistent Candor’ Está se Mostrando

Quando o conselho da OpenAI demitiu Sam Altman no final de 2023, os membros do conselho disseram que ele “não era consistentemente honesto em suas comunicações”. A declaração levantou mais perguntas do que respostas, chamando indiretamente Sam Altman de mentiroso, mas sobre o quê exatamente? Seis meses depois, criativos e ex-funcionários estão mais uma vez pedindo ao público que questionem a confiabilidade da OpenAI.

Neste mês, a OpenAI afirmou que a voz do ChatGPT, Sky, nunca foi destinada a se assemelhar a Scarlett Johansson de “Ela”, levando a atriz premiada a emitir uma declaração pública contundente e ameaçar ação legal. A voz em questão foi removida. Também neste mês, dois grandes nomes na comunidade de IA que lideraram uma equipe de segurança dentro da OpenAI saíram. Um dos executivos, Jan Leike, disse ao sair que a “cultura de segurança e os processos da OpenAI foram deixados de lado em prol de produtos reluzentes”. Conforme Ed Zitron escreve, está se tornando cada vez mais difícil confiar na OpenAI.

Antes de mais nada, a afirmação de que Sky não se parece com Johansson é literalmente inacreditável. O Gizmodo escreveu um artigo afirmando que se parecia com o filme “Ela” logo após o lançamento do GPT-4 Omni, assim como muitas outras publicações. Os executivos da OpenAI pareciam brincar sutilmente com a semelhança no lançamento. Altman tweetou a palavra “ela” naquele dia. O Líder de Pesquisa de Áudio AGI da OpenAI tem uma captura de tela do filme como seu plano de fundo em X. Todos nós podíamos ver o que a OpenAI tinha em mente. Em segundo lugar, Johansson afirma que Altman a abordou duas vezes para ser a voz do assistente de áudio do ChatGPT. A OpenAI diz que Sky era um ator totalmente diferente, mas a afirmação parece desonesta para muitos.

Na semana passada, Altman disse que estava “envergonhado” por não saber que sua empresa obrigava os funcionários a ficar em silêncio sobre quaisquer experiências ruins na OpenAI para sempre ou abrir mão de sua participação. O acordo vitalício de não denegrimento foi revelado por um relatório da Vox, falando com um ex-funcionário da OpenAI que se recusou a assiná-lo. Embora muitas empresas tenham acordos de sigilo, não é todo dia que se vê um tão extremo como esse.

Altman disse em uma entrevista em janeiro que não sabia se o Cientista-Chefe da OpenAI, Ilya Sutskever, estava trabalhando na empresa. Na semana passada, Sutskever e seu co-líder de Superalinhamento, Leike, deixaram a OpenAI. Leike disse que os recursos do Superalinhamento estavam sendo desviados para outras partes da empresa há meses.

Em março, a Diretora de Tecnologia Mira Murati disse que não tinha certeza se Sora havia sido treinada em vídeos do YouTube. O Diretor Operacional Brad Lightcap reforçou essa confusão, evitando responder a uma pergunta sobre isso na Cúpula de Tecnologia da Bloomberg em maio. Apesar disso, o The New York Times relata que membros seniores da OpenAI estavam envolvidos na transcrição de vídeos do YouTube para treinar modelos de IA. Na segunda-feira, o CEO do Google, Sundar Pichai, disse ao The Verge que, se a OpenAI de fato treinou em vídeos do YouTube, isso não seria apropriado.

Em última análise, a OpenAI está envolta em mistério e a questão da “honestidade inconsistente” de Sam Altman simplesmente não desaparece. Isso pode estar prejudicando a reputação da OpenAI, mas o mistério também funciona a favor da OpenAI. A empresa se apresentou como uma startup secreta com a chave para o nosso mundo futuro e, ao fazer isso, conseguiu capturar nossa atenção coletiva com sucesso. Ao longo do mistério, a empresa continuou a lançar produtos de IA de ponta. Dito isso, é difícil não ser cético em relação às comunicações da OpenAI, uma empresa construída com base na premissa de ser “aberta”.