Salesforce Diz Que Seu Chatbot de IA Não Vai Alucinar – Bem, Provavelmente

A Salesforce anunciou na quinta-feira o lançamento do seu chatbot para empresas, o Einstein Copilot.

Executivos da Salesforce afirmam que o Einstein Copilot é muito menos propenso do que outros chatbots de IA a ter alucinações, ou a gerar informações falsas ou sem sentido – algo que outros chatbots do Google, Meta, Anthropic e OpenAI têm lutado para superar.

“Eles podem ser mentirosos muito confiantes”, disse Patrick Stokes, vice-presidente executivo de marketing de produto da Salesforce, durante uma apresentação no Salesforce World Tour NYC na quinta-feira.

O Einstein Copilot é diferente, segundo Stokes, porque ele utiliza os dados próprios de uma empresa a partir de planilhas e documentos escritos em todos os aplicativos onde estão armazenados, seja na própria plataforma da Salesforce, Google Cloud, Amazon Web Services, Snowflake ou outros data warehouses.

O chatbot é projetado como uma espécie de intermediário entre uma empresa, seus dados privados e grandes modelos de linguagem (LLMs) como o GPT-4 da OpenAI e o Gemini do Google. Os funcionários podem fazer consultas como “qual é o próximo passo que devo tomar para responder a essa reclamação do cliente”, e o Einstein irá buscar os dados relevantes da empresa da Salesforce ou de outros serviços na nuvem. Em seguida, ele anexará esses dados à consulta inicial para enviar a um LLM, que irá gerar uma resposta.

O novo chatbot da Salesforce também vem com uma camada protetora para que os LLMs aos quais envia solicitações não possam reter os dados da empresa.

Em uma entrevista posterior ao Quartz, Stokes explicou mais sobre por que o Einstein Copilot é menos propenso a ter alucinações do que outros chatbots. “Antes de enviarmos a pergunta para o LLM, vamos buscar os dados”, disse ele, acrescentando que “não acredito que conseguiremos evitar completamente as alucinações”.

Por esse motivo, o chatbot vem com um recurso de detecção de alucinação. Ele também coleta feedback em tempo real dos clientes da Salesforce para poder apontar fraquezas do sistema aos administradores.

Stokes afirmou que imaginar um mundo sem alucinações de IA é tão “bobagem” quanto imaginar um mundo onde as redes de computadores são totalmente invioláveis.

“Sempre haverá uma brecha”, disse ele. “Acho que isso também é verdade com a IA. Mas o que podemos fazer é tudo o que pudermos para garantir que estamos construindo uma tecnologia transparente que possa identificar quando isso acontece.”

O diretor de marketing da Salesforce, Ariel Kelmen, argumentou. “O engraçado é que os LLMs foram criados para alucinar”, disse ele. “É assim que eles funcionam. Eles têm imaginação.”

Um relatório do New York Times do ano passado constatou que a taxa de alucinações nos sistemas de IA era de cerca de 5% para o Meta, até 8% para o Anthropic, 3% para o OpenAI e até 27% para o Google PaLM.

Os chatbots “alucinam” quando não possuem os dados de treinamento necessários para responder a uma pergunta, mas ainda geram uma resposta que parece ser um fato. As alucinações podem ser causadas por diferentes fatores, como dados de treinamento imprecisos ou tendenciosos e overfitting, que é quando um algoritmo não consegue fazer previsões ou conclusões a partir de dados diferentes daqueles em que foi treinado.

As alucinações são atualmente um dos maiores problemas com os modelos de IA gerativos – e não são exatamente fáceis de resolver. Como os modelos de IA são treinados em conjuntos massivos de dados, pode ser difícil encontrar problemas específicos nos dados. Às vezes, os dados usados para treinar os modelos de IA são imprecisos de qualquer maneira, porque vêm de lugares como o Reddit.

É aí que a Salesforce afirma que seu chatbot será diferente. Ainda são os primeiros dias, porém, e somente o tempo dirá qual chatbot de IA é o menos delirante.