Sam Altman’s ‘Inconsistent Candor’ Está Mostrando

Quando o conselho da OpenAI demitiu Sam Altman no final de 2023, os membros do conselho afirmaram que ele “não foi consistente em suas comunicações”. A declaração levantou mais perguntas do que respostas, chamando indiretamente Sam Altman de mentiroso, mas sobre o que exatamente? Seis meses depois, criativos e ex-funcionários mais uma vez estão pedindo ao público que questionem a confiabilidade da OpenAI.

Neste mês, a OpenAI afirmou que a voz do ChatGPT, Sky, nunca teve a intenção de se assemelhar a Scarlett Johansson em “Her”, o que fez a premiada atriz emitir uma declaração pública condenatória e ameaçar uma ação legal. A voz em questão foi então removida. Também neste mês, dois nomes importantes na comunidade de Inteligência Artificial que lideravam uma equipe de segurança dentro da OpenAI pediram demissão. Um dos executivos, Jan Leike, disse ao sair que a “cultura e processos de segurança da OpenAI foram deixados de lado em detrimento de produtos reluzentes”. Como Ed Zitron escreve, está ficando cada vez mais difícil levar a OpenAI pelo valor de face.

Primeiramente, a alegação de que Sky não soa como Johansson é literalmente inacreditável. O Gizmodo escreveu um artigo afirmando que soava como o filme “Her” logo após o lançamento do GPT-4 Omni, assim como muitas outras publicações. Executivos da OpenAI pareceram indicar brincando a semelhança no lançamento. Altman twittou a palavra “her” naquele dia. O Líder de Pesquisa de IA de Áudio da OpenAI tem uma captura de tela do filme como seu plano de fundo no X. Todos nós pudemos ver o que a OpenAI estava tentando fazer. Em segundo lugar, Johansson alega que Altman a abordou duas vezes sobre dar voz ao assistente de áudio do ChatGPT. A OpenAI diz que Sky era um ator completamente diferente, mas a alegação parece desonesta para muitos.

Na semana passada, Altman disse estar “envergonhado” por não saber que sua empresa obrigava os funcionários a permanecerem em silêncio sobre quaisquer experiências ruins na OpenAI pelo resto da vida ou desistir de sua participação acionária. O acordo vitalício de não difamação foi revelado por um relatório da Vox, que conversou com um ex-funcionário da OpenAI que se recusou a assiná-lo. Embora muitas empresas tenham acordos de não divulgação, não é todo dia que se vê algo tão extremo.

Altman disse em uma entrevista em janeiro que não sabia se o Cientista-Chefe da OpenAI, Ilya Sutskever, ainda trabalhava na empresa. Na semana passada, Sutskever e seu co-líder do Superalignment, Leike, pediram demissão da OpenAI. Leike disse que os recursos do Superalignment estavam sendo desviados para outras partes da empresa há meses.

Em março, a Diretora de Tecnologia Mira Murati disse que não tinha certeza se Sora foi treinada em vídeos do YouTube. O Diretor de Operações Brad Lightcap reforçou essa confusão evitando responder a uma pergunta sobre isso na Cúpula de Tecnologia da Bloomberg em maio. Apesar disso, o The New York Times relata que membros graduados da OpenAI estavam envolvidos na transcrição de vídeos do YouTube para treinar modelos de IA. Na segunda-feira, o CEO do Google, Sundar Pichai, disse ao The Verge que se a OpenAI treinou em vídeos do YouTube, isso não seria apropriado.

Por fim, a OpenAI está envolta em mistério, e a questão da “comunicação inconsistente” de Sam Altman simplesmente não desaparece. Isso pode estar prejudicando a reputação da OpenAI, mas o mistério também beneficia a OpenAI. A empresa se apresentou como uma startup secreta com a chave para o nosso mundo futurista e, ao fazer isso, a OpenAI capturou com sucesso nossa atenção coletiva. Ao longo do mistério, a empresa continuou a lançar produtos de IA de ponta. Dito isso, é difícil não ser cético em relação às comunicações da OpenAI, uma empresa construída com base na premissa de ser “aberta”.