O novo chatbot de saúde com Inteligência Artificial da OMS já está cometendo alguns erros

A Organização Mundial da Saúde (OMS) lançou neste mês o que está chamando de Assistente de Recursos de Inteligência Artificial para Saúde, ou Sarah para abreviar. No entanto, o chatbot alimentado por inteligência artificial já cometeu alguns erros.

O chatbot fornece aos usuários informações relacionadas à saúde em oito idiomas diferentes sobre tópicos como alimentação saudável, saúde mental, câncer, doenças cardíacas e diabetes.

Sarah, desenvolvida pela empresa da Nova Zelândia, Soul Machines, pode até mesmo usar tecnologia de reconhecimento facial para fornecer respostas mais empáticas. Iterações anteriores de Sarah ajudaram a combater a desinformação durante a pandemia da Covid-19.

“S.A.R.A.H. nos dá uma visão de como a inteligência artificial poderia ser usada no futuro para melhorar o acesso à informação de saúde de forma mais interativa”, disse o Diretor-Geral da OMS, Dr. Tedros Adhanom Ghebreyesus. “Faço um apelo à comunidade de pesquisadores para nos ajudar a continuar a explorar como essa tecnologia poderia reduzir as desigualdades e ajudar as pessoas a acessar informações de saúde atualizadas e confiáveis.”

Embora a OMS alegue que o robô de IA tenha sido treinado com as informações mais recentes da agência e de seus parceiros confiáveis, a Bloomberg relata que ele não fornece informações atualizadas sobre avisos médicos baseados nos EUA e eventos de notícias.

Por exemplo, quando os repórteres da Bloomberg perguntaram a Sarah se a Food and Drug Administration dos EUA havia aprovado o Lecanemab, um medicamento para Alzheimer, o bot disse que ainda estava em testes clínicos. Na realidade, a FDA aprovou o medicamento em 2023.

Em outro exemplo, o bot não conseguiu fornecer detalhes sobre um relatório da OMS sobre mortes por hepatite até que foi pedido para verificar o site da agência para estatísticas atualizadas.

A OMS não respondeu imediatamente a um pedido de comentário. Em sua página inicial para o bot de IA, a agência admite que “as respostas nem sempre podem ser precisas porque são baseadas em padrões e probabilidades nos dados disponíveis”.