Google Search É Agora Uma Gigante Alucinação

O Google testou resumos de IA por meses antes de lançá-los em todo o país na semana passada, mas claramente, isso não foi tempo suficiente. A IA está alucinando respostas para várias consultas de usuários, criando uma experiência menos confiável em seu produto principal. Na última semana, o Gizmodo recebeu resumos de IA do Google que mencionam pizza coberta de cola e sugerem que Barack Obama era muçulmano.

As alucinações são preocupantes, mas não totalmente surpreendentes. Como vimos antes com chatbots de IA, essa tecnologia parece confundir sátira com jornalismo – vários dos resumos de IA incorretos que encontramos parecem se referir ao The Onion. O problema é que essa IA oferece uma resposta autoritativa a milhões de pessoas que recorrem à Pesquisa do Google diariamente apenas para procurar algo. Agora, pelo menos algumas dessas pessoas serão apresentadas a respostas alucinadas.

“A grande maioria dos Resumos de IA fornece informações de alta qualidade, com links para aprofundar na web”, disse um porta-voz do Google em um comunicado por e-mail para o Gizmodo, observando que muitos dos exemplos que a empresa viu foram de consultas incomuns. “Estamos tomando medidas rápidas quando apropriado, de acordo com nossas políticas de conteúdo, e usando esses exemplos para desenvolver melhorias mais amplas em nossos sistemas, algumas das quais já começaram a ser implementadas.”

Em minha experiência, os resumos de IA estão mais frequentemente corretos do que errados. No entanto, cada resposta errada que recebo me faz questionar ainda mais toda a minha experiência na Pesquisa do Google – tenho que avaliar cuidadosamente cada resposta. O Google observa que a IA é “experimental”, mas optou por incluir todos nesta experiência por padrão.

“O que acontece com a Pesquisa – lidamos com bilhões de consultas”, disse o CEO do Google, Sundar Pichai, ao The Verge na segunda-feira, quando questionado sobre a implementação do resumo de IA. “Você definitivamente pode encontrar uma consulta e me entregar e dizer: ‘Poderíamos ter feito melhor nessa consulta?’ Sim, com certeza. Mas em muitos casos, parte do que está fazendo as pessoas responderem positivamente aos Resumos de IA é que o resumo que estamos fornecendo claramente acrescenta valor e os ajuda a considerar coisas que talvez não tenham pensado de outra forma.”

Curiosamente, a Pesquisa do Google ocasionalmente responde a uma consulta com “Um resumo de IA não está disponível para esta pesquisa”, enquanto outras vezes o Google simplesmente não diz nada e mostra resultados de pesquisa tradicionais. Recebi essa resposta quando pesquisei “quais etnias são a maioria dos presidentes dos EUA” e quando pesquisei “quais frutas terminam em mim.”

Um porta-voz do Google diz que seus sistemas ocasionalmente começam a gerar um resumo de IA, mas interrompem sua exibição quando ele não atende ao seu limite de qualidade. Notavelmente, o Google teve que pausar as respostas e geração de imagens do Gemini em tópicos raciais por meses depois de irritar grandes partes do país. Não está claro se essa geração de resumo de IA “parar e começar” está relacionada.

O que é claro é que o Google se sentiu pressionado a colocar seu dinheiro onde está sua boca, e isso significa colocar a IA na Pesquisa. As pessoas estão cada vez mais escolhendo ChatGPT, Perplexity ou outras ofertas de IA como sua principal maneira de encontrar informações na internet. O Google vê essa corrida de forma existencial, mas pode ter comprometido a experiência de pesquisa ao tentar acompanhar.

Nesta semana, a Pesquisa do Google disse muitas coisas estranhas às pessoas através dos resumos de IA. Aqui estão algumas das mais estranhas que o Gizmodo encontrou.