A “Candura Inconsistente” de Sam Altman está se mostrando

Quando o conselho do OpenAI demitiu Sam Altman no final de 2023, os membros do conselho disseram que ele “não foi consistentemente sincero em suas comunicações.” A declaração levantou mais perguntas do que respostas, chamando indiretamente Sam Altman de mentiroso, mas sobre o quê exatamente? Seis meses depois, criativos e ex-funcionários mais uma vez estão pedindo ao público que questionem a confiabilidade do OpenAI.

Neste mês, o OpenAI afirmou que a voz do ChatGPT, Sky, nunca teve a intenção de se parecer com Scarlett Johansson de Her, levando a premiada atriz a emitir uma declaração pública condenatória e ameaçar ação legal. A voz em questão foi retirada. Além disso, neste mês, dois grandes nomes na comunidade de IA que lideravam uma equipe de segurança dentro do OpenAI pediram demissão. Um dos executivos, Jan Leike, disse ao sair que a “cultura de segurança e os processos do OpenAI foram colocados em segundo plano em relação aos produtos brilhantes.” Como Ed Zitron escreve, está ficando cada vez mais difícil levar o OpenAI ao pé da letra.

Em primeiro lugar, a afirmação de que Sky não se parece com Johansson é literalmente inacreditável. O Gizmodo escreveu um artigo afirmando que Sky parecia o filme Her logo após o lançamento do GPT-4 Omni, assim como muitas outras publicações. Executivos do OpenAI pareciam brincar sobre a semelhança no lançamento. Altman tuitou a palavra “her” naquele dia. O Líder de Pesquisa de Áudio AGI do OpenAI tem um print da tela do filme como fundo na X. Todos nós pudemos ver o que o OpenAI estava tentando fazer. Em segundo lugar, Johansson afirma que Altman se aproximou dela duas vezes para dar voz à assistente de áudio do ChatGPT. O OpenAI diz que Sky era um ator totalmente diferente, mas a afirmação parece desonesta para muitos.

Na semana passada, Altman disse que estava “envergonhado” por não saber que sua empresa obrigava os funcionários a permanecer em silêncio sobre quaisquer más experiências no OpenAI para sempre ou renunciar à sua participação acionária. O acordo vitalício de não difamação foi revelado por um relatório da Vox, falando com um ex-funcionário do OpenAI que se recusou a assiná-lo. Embora muitas empresas tenham acordos de sigilo, não é todo dia que se vê um tão extremo.

Altman disse em uma entrevista em janeiro que não sabia se o Cientista-Chefe do OpenAI, Ilya Sutskever, estava trabalhando na empresa. Na semana passada, Sutskever e seu co-líder do Superalignment, Leike, pediram demissão do OpenAI. Leike disse que os recursos do Superalignment estavam sendo desviados para outras partes da empresa há meses.

Em março, a Diretora de Tecnologia, Mira Murati, disse que não estava certa se Sora foi treinada em vídeos do YouTube. O Diretor Operacional, Brad Lightcap, reforçou essa confusão ao evitar uma pergunta a respeito disso na Cúpula de Tecnologia da Bloomberg em maio. Apesar disso, o The New York Times relata que membros sêniores do OpenAI estiveram envolvidos na transcrição de vídeos do YouTube para treinar modelos de IA. Na segunda-feira, o CEO do Google, Sundar Pichai, disse ao The Verge que se o OpenAI de fato treinou com vídeos do YouTube, isso não seria apropriado.

Em última análise, o OpenAI está envolto em mistério, e a questão da “sinceridade inconsistente” de Sam Altman simplesmente não desaparecerá. Isso pode estar prejudicando a reputação do OpenAI, mas o mistério também funciona a favor do OpenAI. A empresa se pintou como uma startup secreta com a chave para o nosso mundo futurista e, ao fazer isso, o OpenAI capturou com sucesso nossa atenção coletiva. Ao longo do mistério, a empresa continuou a lançar produtos de IA de ponta. No entanto, é difícil não ser cético em relação às comunicações do OpenAI, uma empresa construída com base na premissa de ser “aberta”.