Salesforce Diz Que Seu Chatbot de IA Não Irá Alucinar Bem, Provavelmente

A Salesforce anunciou na quinta-feira o lançamento geral do seu chatbot para empresas, o Einstein Copilot.

Executivos da Salesforce afirmam que o Einstein Copilot é muito menos propenso do que outros chatbots de inteligência artificial a alucinar, ou gerar informações falsas ou sem sentido – algo que outros chatbots do Google, Meta, Anthropic e OpenAI têm lutado para superar.

“Eles podem ser mentirosos muito confiantes”, disse Patrick Stokes, vice-presidente executivo de marketing de produto da Salesforce, durante uma apresentação no Salesforce World Tour NYC na quinta-feira.

O Einstein Copilot é diferente, disse Stokes, porque ele utiliza os dados próprios de uma empresa tanto de planilhas quanto de documentos escritos em todos os aplicativos em que estão armazenados, seja na plataforma própria da Salesforce, no Google Cloud, Amazon Web Services, Snowflake, ou em outros armazéns de dados.

O chatbot foi projetado como um intermediário entre uma empresa, seus dados privados e grandes modelos de linguagem (LLMs) como o GPT-4 da OpenAI e o Gemini do Google. Os funcionários podem fazer consultas como “qual o próximo passo devo tomar para responder a essa reclamação do cliente” e o Einstein irá buscar os dados relevantes da empresa da Salesforce ou de outros serviços de nuvem. Em seguida, ele irá anexar esses dados à consulta inicial para enviar a um LLM, que irá gerar uma resposta.

O novo chatbot da Salesforce também vem com uma camada de proteção para que os LLMs aos quais envia prompts não possam reter os dados da empresa.

Em uma entrevista subsequente com o Quartz, Stokes explicou mais sobre o motivo pelo qual o Einstein Copilot é menos propenso a alucinações do que outros chatbots. “Antes de enviarmos a pergunta ao LLM, vamos buscar os dados”, disse ele, acrescentando que “eu não acho que nunca conseguiremos evitar completamente as alucinações”.

Por esse motivo, o chatbot vem com um recurso de detecção de alucinação. Ele também reúne feedback em tempo real dos clientes da Salesforce para poder detectar fraquezas no sistema e alertar os administradores.

Stokes disse que imaginar um mundo sem alucinações de IA é tão “ridículo” quanto imaginar um mundo onde redes de computadores são totalmente imunes a hackers.

“Sempre haverá uma brecha. Acho que isso também é verdade com a inteligência artificial”, disse ele. “Mas o que podemos fazer é fazer tudo o que for possível para garantir que estamos construindo uma tecnologia transparente que possa identificar quando isso acontecer”.

O diretor de marketing da Salesforce, Ariel Kelmen, argumentou. “O engraçado é que os LLMs foram construídos inherentemente para alucinar”, disse ele. “É assim que funcionam. Eles têm imaginação”.

Um relatório do New York Times no ano passado constatou que a taxa de alucinações de sistemas de IA era de cerca de 5% para o Meta, até 8% para o Anthropic, 3% para o OpenAI, e até 27% para o Google PaLM.

Os chatbots “alucinam” quando não possuem os dados de treinamento necessários para responder a uma pergunta, mas ainda geram uma resposta que parece ser um fato. As alucinações podem ser causadas por diferentes fatores, como dados de treinamento imprecisos ou tendenciosos e overfitting, que é quando um algoritmo não consegue fazer previsões ou conclusões a partir de outros dados que não faziam parte do treinamento.

As alucinações atualmente são um dos maiores problemas dos modelos de IA generativa – e não são exatamente fáceis de resolver. Como os modelos de IA são treinados em conjuntos massivos de dados, pode ser difícil encontrar problemas específicos nos dados. Às vezes, os dados usados para treinar os modelos de IA são imprecisos de qualquer maneira, porque vêm de lugares como o Reddit.

É aí que a Salesforce diz que seu chatbot será diferente. Ainda está no início, no entanto, e só o tempo dirá qual chatbot de IA é o menos delirante.