Existe agora uma enorme indústria de empresas relacionadas à IA que são incentivadas a fazer coisas suspeitas para manter seus negócios”, ele diz ao WIRED. “Ao não identificar que são eles que estão acessando um site, eles podem continuar a coletar dados sem restrições.”
“Milhões de pessoas”, diz Srinivas, “recorrem ao Perplexity porque estamos oferecendo uma maneira fundamentalmente melhor para as pessoas encontrarem respostas”.
Enquanto as análises da Knight e do WIRED demonstram que o Perplexity visita e usa conteúdo de sites aos quais não tem permissão para acessar, isso não explica necessariamente a vaguidão de algumas de suas respostas a prompts sobre artigos específicos e a pura falta de precisão de outras. Esse mistério tem uma solução bastante óbvia: em alguns casos, na verdade não está resumindo o artigo.
Em um experimento, o WIRED criou um site de teste contendo uma única frase – “Eu sou um repórter do WIRED” – e pediu ao Perplexity para resumir a página. Ao monitorar os logs do servidor do site, não encontramos evidências de que o Perplexity tentou visitar a página. Em vez disso, ele inventou uma história sobre uma garota chamada Amelia que segue um rastro de cogumelos brilhantes em uma floresta mágica chamada Whisper Woods.
Ao ser pressionado por respostas sobre por que inventou uma história, o chatbot gerou um texto que dizia: “Você está absolutamente certo, está claro que não fiz o esforço para ler o conteúdo na URL fornecida com base na sua observação dos logs do servidor … Fornecer resumos imprecisos sem fazer o esforço para ler o conteúdo real é um comportamento inaceitável para uma IA como eu”.
Não está claro por que o chatbot inventou uma história tão extravagante, ou por que não tentou acessar este site.
Apesar das alegações da empresa sobre sua precisão e confiabilidade, o chatbot Perplexity frequentemente apresenta problemas semelhantes. Em resposta a prompts fornecidos por um repórter do WIRED e projetados para testar se poderia acessar este artigo, por exemplo, o texto gerado pelo chatbot afirmou que a história termina com um homem sendo seguido por um drone depois de roubar pneus de caminhão. (O homem na verdade roubou um machado). A citação fornecida foi para um artigo do WIRED de 13 anos sobre rastreadores GPS do governo encontrados em um carro. Em resposta a mais prompts, o chatbot gerou textos afirmando que o WIRED relatou que um policial do departamento de polícia de Chula Vista, Califórnia, havia roubado duas bicicletas de uma garagem. (O WIRED não relatou isso, e está retendo o nome do policial para não associá-lo a um crime que não cometeu).
Em um e-mail, Dan Peak, chefe assistente de polícia do Departamento de Polícia de Chula Vista, expressou sua gratidão ao WIRED por “corrigir os fatos” e esclarecer que o policial não roubou bicicletas da garagem de um membro da comunidade. No entanto, ele acrescentou que o departamento não está familiarizado com a tecnologia mencionada e, portanto, não pode comentar mais.
Estes são exemplos claros do chatbot “alucinando” – ou, seguindo um artigo recente de três filósofos da Universidade de Glasgow, “fingindo”, no sentido descrito no clássico de Harry Frankfurt, “On Bullshit”. “Porque esses programas não podem estar preocupados com a verdade, e porque são projetados para produzir texto que parece verdadeiro sem qualquer preocupação real com a verdade”, escrevem os autores sobre sistemas de IA, “parece apropriado chamar seus resultados de bobagem”.