Sam Altman’s ‘Inconsistent Candor’ Está Sendo Revelado

Quando o conselho da OpenAI demitiu Sam Altman no final de 2023, os membros do conselho disseram que ele “não era consistentemente franco em suas comunicações.” A declaração gerou mais perguntas do que respostas, chamando indiretamente Sam Altman de mentiroso, mas sobre o quê exatamente? Seis meses depois, criativos e ex-funcionários estão mais uma vez pedindo ao público que questione a confiabilidade da OpenAI.

Neste mês, a OpenAI afirmou que a voz do ChatGPT, Sky, nunca teve a intenção de se assemelhar a Scarlett Johansson em “Her”, levando a premiada atriz a emitir uma declaração pública condenatória e ameaçar ações legais. A voz em questão agora foi removida. Também neste mês, dois grandes nomes na comunidade de IA que lideravam uma equipe de segurança dentro da OpenAI pediram demissão. Um dos executivos, Jan Leike, disse ao sair que a “cultura de segurança e os processos da OpenAI estavam em segundo plano em relação aos produtos reluzentes.” Como Ed Zitron escreve, está ficando cada vez mais difícil levar a OpenAI a sério.

Em primeiro lugar, a afirmação de que Sky não se parece com Johansson é literalmente inacreditável. O Gizmodo escreveu um artigo afirmando que parecia com o filme “Her” logo após o lançamento do GPT-4 Omni, assim como muitas outras publicações. Executivos da OpenAI pareceram brincar com a semelhança no momento do lançamento. Altman twittou a palavra “her” naquele dia. O líder de Pesquisa de Áudio AGI da OpenAI tem uma captura de tela do filme como seu pano de fundo no X. Todos nós vimos o que a OpenAI estava fazendo. Em segundo lugar, Johansson afirma que Altman a abordou duas vezes sobre dar voz ao assistente de áudio do ChatGPT. A OpenAI diz que Sky era um ator completamente diferente, mas a afirmação parece desonesta para muitos.

Na semana passada, Altman disse que estava “envergonhado” por não saber que sua empresa obrigava os funcionários a permanecer em silêncio sobre quaisquer experiências ruins na OpenAI pelo resto da vida ou desistir de sua participação acionária. O acordo vitalício de não difamação foi revelado por um relatório da Vox, conversando com um ex-funcionário da OpenAI que se recusou a assiná-lo. Embora muitas empresas tenham acordos de não divulgação, não é todo dia que se vê um tão extremo.

Altman disse em uma entrevista em janeiro que não sabia se o Cientista-Chefe da OpenAI, Ilya Sutskever, estava trabalhando na empresa. Apenas na semana passada, Sutskever e seu co-líder do Superalignment, Leike, saíram da OpenAI. Leike disse que os recursos do Superalignment estavam sendo desviados para outras partes da empresa há meses.

Em março, a Diretora de Tecnologia, Mira Murati, disse que não tinha certeza se Sora foi treinada em vídeos do YouTube. O COO Brad Lightcap reforçou essa confusão ao contornar uma pergunta sobre isso na Cúpula de Tecnologia da Bloomberg em maio. Apesar disso, o The New York Times relata que membros sêniores da OpenAI estavam envolvidos na transcrição de vídeos do YouTube para treinar modelos de IA. Na segunda-feira, o CEO do Google, Sundar Pichai, disse ao The Verge que se a OpenAI treinou em vídeos do YouTube, isso não seria apropriado.

Em última análise, a OpenAI está envolta em mistério, e a questão da “franca inconsistência” de Sam Altman simplesmente não desaparecerá. Isso pode estar prejudicando a reputação da OpenAI, mas o mistério também funciona a favor da empresa. A empresa se pintou como uma startup secreta com a chave para o nosso mundo futurista, e, ao fazer isso, a OpenAI capturou com sucesso nossa atenção coletiva. Ao longo do mistério, a empresa continuou a lançar produtos de IA de ponta. Dito isso, é difícil não ter ceticismo sobre as comunicações da OpenAI, uma empresa construída com base na premissa de ser “aberta”.