Salesforce Diz Que Seu Chatbot de IA Não Vai Alucinar – Bem, Provavelmente

A Salesforce anunciou, na quinta-feira, a disponibilidade geral do seu chatbot para empresas, o Einstein Copilot.

Os executivos da Salesforce afirmam que o Einstein Copilot é muito menos propenso do que outros chatbots de IA a alucinar, ou gerar informações falsas ou sem sentido – algo com que outros chatbots do Google, Meta, Anthropic e OpenAI têm lutado para superar.

“Eles podem ser mentirosos muito confiantes”, disse Patrick Stokes, vice-presidente executivo de marketing de produtos da Salesforce, durante uma apresentação no Salesforce World Tour NYC na quinta-feira.

O Einstein Copilot é diferente, segundo Stokes, porque ele utiliza os dados próprios de uma empresa, tanto de planilhas quanto de documentos escritos em todos os aplicativos em que estão armazenados, seja na própria plataforma da Salesforce, Google Cloud, Amazon Web Services, Snowflake ou outros data warehouses.

O chatbot é projetado como uma espécie de intermediário entre uma empresa, seus dados privados e grandes modelos de linguagem (LLMs) como o GPT-4 da OpenAI e o Gemini do Google. Os funcionários podem inserir consultas como “qual o próximo passo que devo tomar para responder a essa reclamação do cliente,” e o Einstein trará os dados relevantes da empresa da Salesforce ou de outros serviços em nuvem. Em seguida, anexará esses dados à consulta inicial para enviar a um LLM, que gerará uma resposta.

O novo chatbot da Salesforce também vem com uma camada de proteção para que os LLMs aos quais envia prompts não possam reter os dados da empresa.

Em uma entrevista subsequente com a Quartz, Stokes explicou mais sobre por que o Einstein Copilot é menos propenso a alucinar do que outros chatbots. “Antes de enviarmos a pergunta ao LLM, vamos buscar os dados”, disse ele, acrescentando que “não acredito que jamais conseguiremos impedir completamente as alucinações.”

Por esse motivo, o chatbot vem com um recurso de detecção de alucinação. Também coleta feedback em tempo real dos clientes da Salesforce para poder sinalizar fraquezas do sistema aos administradores.

Stokes disse que imaginar um mundo sem alucinações de IA é tão “bobagem” quanto imaginar um mundo onde as redes de computadores sejam totalmente invioláveis.

“Haverá sempre uma maneira de entrar. Acredito que isso também seja verdade com a IA”, disse ele. “Mas o que podemos fazer é dar o nosso melhor para garantir que estejamos construindo tecnologia transparente que possa identificar quando isso ocorre.”

O diretor de marketing da Salesforce, Ariel Kelmen, argumentou: “O engraçado é que os LLMs foram construídos para alucinar por natureza. É assim que funcionam. Eles têm imaginação.”

Um relatório do New York Times do ano passado descobriu que a taxa de alucinações em sistemas de IA era de aproximadamente 5% para o Meta, até 8% para a Anthropic, 3% para a OpenAI, e até 27% para o Google PaLM.

Os chatbots “alucinam” quando não têm dados de treinamento necessários para responder a uma pergunta, mas ainda geram uma resposta que parece um fato. As alucinações podem ser causadas por diferentes fatores como dados de treinamento imprecisos ou enviesados e sobreajuste, que é quando um algoritmo não consegue fazer previsões ou conclusões a partir de outros dados que não os quais foi treinado.

As alucinações são atualmente um dos maiores problemas com os modelos de IA generativos – e não são exatamente fáceis de resolver. Como os modelos de IA são treinados em conjuntos massivos de dados, pode ser difícil encontrar problemas específicos nos dados. Às vezes, os dados usados para treinar os modelos de IA são imprecisos de qualquer maneira, por virem de lugares como Reddit.

É aí que a Salesforce diz que seu chatbot será diferente. Ainda é cedo, no entanto, e apenas o tempo dirá qual chatbot de IA é o menos delirante.