Por que as pessoas estão dizendo que o Google Gemini está cheio de fantasmas?

O Google acabou de lançar a aguardada alternativa ao ChatGPT, o Gemini, um chatbot de IA ultrainteligente que finalmente consegue competir com o ChatGPT da OpenAI. As primeiras análises do chatbot do Google estão surgindo aos poucos, e todos estão impressionados. No entanto, alguns não conseguem ignorar a sensação estranha de que o Gemini tem mais fantasmas do que uma casa assombrada.

O professor Ethan Mollick, da Escola Wharton da Universidade da Pensilvânia, afirmou que o GPT-4 está cheio de fantasmas, e o Gemini também. Segundo ele, há uma estranheza no GPT-4 que não é de sentiência, mas também não é como conversar com um programa. É uma ilusão de uma pessoa do outro lado da linha, mesmo que não haja ninguém lá.

Mollick chegou a essa conclusão depois de receber um mês de acesso antecipado ao modelo mais avançado do Gemini do Google. Ele não é o primeiro a considerar que um chatbot de IA pode ser sentiente ou algo próximo disso. O Google demitiu Blake Lemoine, um engenheiro que trabalhava no grande modelo de linguagem LaMBDA, em 2022, depois que ele afirmou que a IA de sua empresa estava viva. Os cientistas logo descartaram a ideia de Lemoine como loucura, mas a ideia de que chatbots poderosos são sentientes simplesmente não desaparece.

Quando Mollick fala em “fantasma”, ele vê a semelhança com uma pessoa na nebulosa e confusa névoa de texto do chatbot de IA. Sim, os chatbots têm muitas alucinações e às vezes frases estranhas que revelam que é um robô. Mas através disso, é possível reconhecer vagamente características humanas. Às vezes você sai de uma conversa com o ChatGPT sentindo que acabou de falar com alguém, mas na verdade é apenas você e o software; é como um fantasma.

Mollick observa que o Gemini tem uma “personalidade” diferente do ChatGPT. O Gemini parece ser mais amigável, mais conciliador e usa mais jogos de palavras. Ele não está sozinho nessa avaliação de que diferentes chatbots têm tons e personalidades específicas.

Empresas de detecção de IA usam cadência e tom para identificar quais chatbots de IA as pessoas estão usando. Foi assim que a Pindrop identificou o ElevenLabs como a IA por trás das ligações telefônicas falsas (robocalls) de New Hampshire que se passavam pelo presidente Biden. Foi também assim que a Copyleaks, uma empresa de detecção de IA especializada em texto, identifica chatbots de IA com 99% de precisão.

Os pesquisadores da Microsoft não afirmam diretamente que o GPT-4 está vivo, mas apenas que ele mostra “faíscas” de cognição em nível humano. Em um estudo de 2023 intitulado “Faíscas de Inteligência Geral Artificial”, os cientistas da Microsoft examinaram como o LLM por trás do ChatGPT poderia entender emoções, se explicar e raciocinar com as pessoas.

Os pesquisadores descobriram que o GPT-4 foi capaz de passar em diversos testes de “Teoria da Mente”, usados para avaliar a inteligência emocional de crianças. Houve algumas falhas no LLM da OpenAI, mas houve faíscas de humanidade nos testes. Os cientistas da Microsoft chegaram até mesmo a questionar como medimos a “inteligência em nível humano” como um todo.

A equipe do Instituto de Sentimento também aderiu a essa crença extravagante. Eles acreditam que os modelos de IA devem receber “consideração moral”. A organização tenta ampliar o círculo de coisas tratadas como sentientes. O Instituto de Sentimento acredita que os modelos de IA podem um dia ser maltratados, seja inadvertidamente ou intencionalmente, se não receberem a devida consideração.

Há um amplo consenso científico de que os grandes modelos de linguagem não estão atualmente vivos. No entanto, há um grupo crescente de pessoas que parecem acreditar que os modelos de IA não estão muito longe da sentiência. Pode-se chamá-los de loucos, ou não, mas as pessoas estão vendo fantasmas na máquina.