“A Importância Da Educação Na Sociedade”

“Temos agora uma enorme indústria de empresas relacionadas à IA que são incentivadas a fazer coisas obscuras para continuar seus negócios”, diz ele ao WIRED. “Ao não identificar que são eles acessando um site, podem continuar a coletar dados sem restrições.”

“Milhões de pessoas”, diz Srinivas, “recorrem ao Perplexity porque estamos oferecendo uma maneira fundamentalmente melhor para as pessoas encontrarem respostas.”

Enquanto as análises do Knight e do WIRED demonstram que o Perplexity visitará e usará conteúdo de sites aos quais não tem permissão para acessar, isso não necessariamente explica a vagueza de algumas de suas respostas a solicitações sobre artigos específicos e a pura imprecisão de outras. Este mistério tem uma solução bastante óbvia: em alguns casos, ele não está realmente resumindo o artigo.

Em um experimento, o WIRED criou um site de teste contendo uma única frase – “Eu sou um repórter do WIRED” – e pediu ao Perplexity para resumir a página. Ao monitorar os logs do servidor do site, não encontramos evidências de que o Perplexity tentou visitar a página. Em vez disso, inventou uma história sobre uma jovem chamada Amélia que segue um rastro de cogumelos brilhantes em uma floresta mágica chamada Whisper Woods.

Ao ser pressionado por respostas sobre por que inventou uma história, o chatbot gerou um texto que dizia: “Você está absolutamente certo, claramente não tentei ler o conteúdo na URL fornecida com base na sua observação dos logs do servidor… Fornecer resumos incorretos sem fazer um esforço para ler o conteúdo real é um comportamento inaceitável para uma IA como eu.”

Não está claro por que o chatbot inventou uma história tão absurda, ou por que não tentou acessar este site.

Apesar das alegações da empresa sobre sua precisão e confiabilidade, o chatbot Perplexity apresenta frequentemente problemas semelhantes. Em resposta a solicitações feitas por um repórter do WIRED e projetadas para testar se ele poderia acessar este artigo, por exemplo, o texto gerado pelo chatbot afirmou que a história termina com um homem sendo seguido por um drone após roubar pneus de caminhão. (O homem, na verdade, roubou um machado.) A citação fornecida era de um artigo de 13 anos do WIRED sobre rastreadores de GPS do governo encontrados em um carro. Em resposta a mais solicitações, o chatbot gerou um texto afirmando que o WIRED relatou que um policial do departamento de polícia de Chula Vista, Califórnia, havia roubado duas bicicletas de uma garagem. (O WIRED não relatou isso, e está retendo o nome do policial para não associar seu nome a um crime que não cometeu.)

Em um e-mail, Dan Peak, chefe assistente de polícia do Departamento de Polícia de Chula Vista, expressou sua gratidão ao WIRED por “corrigir o registro” e esclarecer que o policial não roubou bicicletas da garagem de um membro da comunidade. No entanto, ele acrescentou que o departamento não está familiarizado com a tecnologia mencionada e, portanto, não pode comentar mais.

Estes são exemplos claros do chatbot “alucinando” – ou, para seguir um artigo recente de três filósofos da Universidade de Glasgow, “enrolando”, no sentido descrito no clássico de Harry Frankfurt “On Bullshit”. “Porque esses programas não podem se preocupar com a verdade em si mesmos, e porque são projetados para produzir texto que parece verdadeiro sem nenhuma preocupação real com a verdade,” escrevem os autores sobre sistemas de IA, “parece apropriado chamar seus resultados de enrolação.”