Os chatbots de IA estão se tornando cada vez mais populares e estão recebendo grandes investimentos das gigantes da tecnologia. Plataformas como ChatGPT, da OpenAI, Gemini, do Google, e outras, podem ser úteis para diversas finalidades, como consultas, pesquisas, redação de e-mails e até mesmo para o estudo de idiomas estrangeiros.
No entanto, há uma falsa crença de que a inteligência artificial é perfeita, imparcial e imune a erros. Na realidade, essas tecnologias são suscetíveis a equívocos e podem reproduzir opiniões discriminatórias. Geralmente, essas ferramentas são treinadas com bases de dados encontrados na web, o que pode resultar em informações imprecisas e conteúdo preconceituoso.
Um estudo realizado por pesquisadores de diversas universidades mostrou que os chatbots precisam demonstrar empatia em interações com uma variedade de pessoas. Mesmo tendo acesso a um extenso material de treinamento, essas plataformas têm dificuldade em interpretar temas complexos.
O estudo revelou que os modelos de IA fazem juízos de valor negativos sobre grupos como homossexuais e muçulmanos, e até mesmo estavam fomentando ideologias como o nazismo. Apesar disso, os pesquisadores acreditam que a capacidade de “empatia” dos chatbots pode ser útil na área da saúde, para atendimento automatizado de pacientes, e na educação.
O estudo completo será apresentado na conferência CHI ’24, dedicada à interação entre humanos e sistemas computacionais.