Como Organizar Uma Festa de Aniversário de Sucesso

A OpenAI lançou a versão avançada do modo de voz para o seu mais recente modelo, o GPT-4o. A empresa afirma que essa funcionalidade pode aumentar o risco de alguns usuários verem os modelos de inteligência artificial como “humanos”. O recurso de “voz humana e alta fidelidade” do GPT-4o poderia piorar o problema das alucinações, ou seja, a tendência do modelo de inventar informações falsas ou sem sentido, segundo um relatório da OpenAI sobre a segurança do modelo de IA, o que poderia afetar a confiança humana.

Durante a realização de testes com usuários e equipe interna, a OpenAI observou que os usuários estavam se comunicando com o modelo de uma forma que indicava a formação de conexões com o mesmo, como um usuário dizendo: “Este é nosso último dia juntos.” A empresa ressaltou a importância de continuar investigando como esses efeitos podem se manifestar ao longo do tempo, e está realizando estudos com usuários mais diversos, acadêmicos e internos.

Embora a formação de “relacionamentos sociais” com modelos de IA possa ajudar pessoas solitárias, também pode afetar negativamente os relacionamentos saudáveis, reduzindo a necessidade de interação humana. Dependendo de modelos de IA para interações “humanas” também pode “influenciar normas sociais”, como interromper conversas a qualquer momento, o que o modelo permite aos usuários fazer, mas seria atípico em uma conversa com uma pessoa real.

As capacidades de voz do GPT-4o, lançado em maio, foram testadas com mais de 100 avaliadores externos em 45 idiomas, e o modelo foi treinado para falar apenas em quatro vozes pré-determinadas para proteger a privacidade dos atores de voz. O GPT-4o é projetado para bloquear saídas usando vozes que não estão pré-determinadas, portanto, não pode ser usado para se passar por indivíduos e figuras públicas. A OpenAI também adicionou medidas de segurança para bloquear solicitações de áudio protegido por direitos autorais, incluindo músicas, e para conteúdo erótico, violento e prejudicial.

A OpenAI está abordando um risco que foi foco do filme favorito do diretor executivo, Sam Altman, “Her”, que mostra um homem desenvolvendo sentimentos por uma assistente virtual com voz da atriz Scarlett Johansson. Em maio, usuários disseram que uma das vozes do GPT-4o, Sky, soava semelhante à de Johansson, levando a empresa a pausar a voz, dizendo que não pretendia imitar a atriz. Johansson disse em uma carta que ficou “chocada, irritada e incrédula” que a empresa usaria uma voz tão semelhante à dela, após ter recusado trabalhar com Altman.