Salesforce afirma que seu Chatbot de IA não Alucinará – Bem, Provavelmente

A Salesforce anunciou na quinta-feira a disponibilidade geral de seu chatbot para empresas, Einstein Copilot.

Executivos da Salesforce afirmam que o Einstein Copilot tem menos probabilidade do que outros chatbots de IA de “alucinar”, ou gerar informações falsas ou sem sentido – algo que outros chatbots do Google, Meta, Anthropic e OpenAI têm lutado para superar.

“Eles podem ser mentirosos muito confiantes,” disse Patrick Stokes, vice-presidente executivo de marketing de produto da Salesforce, durante uma apresentação no Salesforce World Tour NYC na quinta-feira.

O Einstein Copilot é diferente, afirmou Stokes, porque utiliza os dados da própria empresa provenientes de planilhas e documentos escritos em todos os aplicativos nos quais estão armazenados, seja na plataforma própria da Salesforce, Google Cloud, Amazon Web Services, Snowflake ou outros armazéns de dados.

O chatbot é projetado como um intermediário entre uma empresa, seus dados privados e grandes modelos de linguagem (LLM) como o GPT-4 da OpenAI e o Gemini do Google. Os funcionários podem inserir consultas como “qual a próxima etapa que devo tomar para responder a essa reclamação de cliente,” e o Einstein buscará os dados relevantes da empresa na Salesforce ou em outros serviços na nuvem. Em seguida, ele anexará esses dados à consulta inicial para enviar a um LLM, que gerará uma resposta.

O novo chatbot da Salesforce também possui uma camada de proteção para que os LLMs aos quais envia prompts não possam reter os dados da empresa.

Em uma entrevista de acompanhamento com a Quartz, Stokes explicou mais sobre por que o Einstein Copilot tem menos probabilidade de alucinar do que outros chatbots. “Antes de enviarmos a pergunta para o LLM, vamos buscar os dados,” ele disse, acrescentando que, “Não acredito que conseguiremos prevenir completamente as alucinações.”

Por isso, o chatbot vem com um recurso de detecção de alucinação. Ele também reúne feedback em tempo real dos clientes da Salesforce para sinalizar às fraquezas do sistema aos administradores.

Stokes afirmou que imaginar um mundo sem alucinações de IA é tão “tolo” quanto imaginar um mundo no qual as redes de computadores são totalmente inexpugnáveis.

“Sempre haverá uma brecha. Acho que isso vale para a IA também,” ele disse. “Mas o que podemos fazer é fazer tudo o que pudermos para garantir que estejamos construindo tecnologia transparente que possa identificar quando isso acontece.”

O diretor de marketing da Salesforce, Ariel Kelmen, argumentou. “O engraçado é que os LLMs foram construídos para alucinar,” ele disse. “É assim que funcionam. Eles têm imaginação.”

Um relatório do New York Times no ano passado constatou que a taxa de alucinações em sistemas de IA era de aproximadamente 5% para o Meta, até 8% para o Anthropic, 3% para o OpenAI e até 27% para o Google PaLM.

Os chatbots “alucinam” quando não possuem os dados de treinamento necessários para responder a uma pergunta, mas ainda geram uma resposta que parece ser um fato. As alucinações podem ser causadas por diferentes fatores, como dados de treinamento imprecisos ou tendenciosos e overfitting, que é quando um algoritmo não consegue fazer previsões ou conclusões a partir de outros dados que não os quais foi treinado.

As alucinações são atualmente um dos maiores problemas com modelos de IA generativa – e não são exatamente fáceis de resolver. Como os modelos de IA são treinados em conjuntos massivos de dados, pode ser difícil identificar problemas específicos nos dados. Às vezes, os dados usados para treinar modelos de IA são imprecisos, porque provêm de lugares como Reddit.

É aí que a Salesforce diz que seu chatbot será diferente. Ainda são os primeiros dias, no entanto, e somente o tempo dirá qual chatbot de IA é o menos delirante.