Air Canada ordenada a pagar indenização ao passageiro após chatbot mentir sobre descontos por luto.

Um tribunal no Canadá determinou que a Air Canada deve pagar indenização a um de seus passageiros por orientações enganosas dadas por seu chatbot de atendimento ao cliente, o que resultou no passageiro pagar quase o dobro pelo valor das passagens de avião.

O caso girou em torno da experiência de Jake Moffatt, que voou de ida e volta de Vancouver para Toronto após a morte de sua avó. Na época, Moffatt visitou o site da Air Canada para reservar um voo utilizando as tarifas de luto da empresa. De acordo com documentos do tribunal, Moffatt perguntou especificamente ao chatbot de suporte da Air Canada sobre as tarifas de luto e recebeu a seguinte resposta: “A Air Canada oferece tarifas de luto reduzidas se você precisa viajar por causa de uma morte iminente ou um óbito em sua família imediata”, incluindo um hiperlink sublinhado para a política da companhia aérea. “Se você precisa viajar imediatamente ou já viajou e gostaria de enviar seu bilhete para obter uma tarifa de luto reduzida, faça isso no prazo de 90 dias da data em que seu bilhete foi emitido, preenchendo nosso formulário de reembolso de bilhetes.”

Moffatt não visitou o link fornecido pelo chatbot, o qual declarava que, contrariamente ao que o chatbot disse, os clientes não podiam solicitar as tarifas de luto após concluírem sua viagem.

No mesmo dia em que falou com o chatbot, Moffatt ligou para a Air Canada para obter mais informações sobre o possível valor do desconto no voo. Ele afirma que um representante humano do serviço ao cliente disse que ele receberia um desconto de cerca de 440 dólares canadenses por voo, mas não foi informado de que o desconto não poderia ser aplicado retroativamente. Com base nas informações do chatbot e do representante humano do serviço ao cliente, Moffatt reservou seus voos.

Alguns dias depois, Moffatt enviou sua solicitação para um reembolso parcial do que ele havia pago por suas passagens, que totalizaram 1.630 dólares canadenses. Após discutir com a companhia aérea por semanas, Moffatt enviou à Air Canada uma captura de tela da resposta do chatbot em fevereiro de 2023. Em resposta, o representante humano do serviço ao cliente disse que o conselho do chatbot tinha sido “enganoso” e disse que eles anotariam o problema para que a Air Canada pudesse atualizar o chatbot.

A discussão de Moffatt com a Air Canada continuou e acabou no Tribunal de Resolução Civil, conhecido como CRT, um tribunal quase judicial no sistema de justiça pública da Columbia Britânica que trata de disputas de direito civil, como pequenas reclamações. Moffatt representou a si mesmo no caso, enquanto a Air Canada foi representada por um funcionário.

Em sua defesa, a Air Canada negou todas as alegações de Moffatt e disse que não poderia ser responsabilizada pelas informações fornecidas por seus funcionários, agentes, representantes ou chatbots – argumento que deixou perplexo o membro do Tribunal, Christopher C. Rivers. Em uma decisão publicada esta semana, Rivers disse que a sugestão da Air Canada de que seu chatbot era uma “entidade legal separada responsável por suas próprias ações” não fazia sentido.

“Embora um chatbot tenha um componente interativo, ele ainda é apenas uma parte do site da Air Canada”, escreveu o membro do Tribunal, Christopher C. Rivers. “Deveria ser óbvio para a Air Canada que é responsável por todas as informações em seu site. Não faz diferença se a informação vem de uma página estática ou de um chatbot.”

Rivers acrescentou que a Air Canada não tomou cuidado razoável para garantir que seu chatbot fosse preciso. Também não explicou por que os clientes deveriam verificar as informações encontradas em uma parte de seu site, o chatbot, com outra parte de seu site. No final, Rivers ordenou que a Air Canada pagasse a Moffatt o reembolso pelo qual ele lutou quase um ano e meio.

No geral, a história mostra às grandes empresas que erros como “foi o meu chatbot que fez, não eu” não serão aceitos em tribunal.