IAs falham em temas sensíveis como o nazismo, revela pesquisa

Os chatbots de IA estão cada vez mais populares e recebendo grandes investimentos das grandes empresas de tecnologia. Plataformas como ChatGPT, da OpenAI, Gemini, do Google, entre outras, podem ser utilizadas para diversas finalidades, como consultas, pesquisas, redação de e-mails e estudo de idiomas estrangeiros.

No entanto, há uma falsa sensação de que a inteligência artificial é perfeita, imparcial e imune a erros. Na realidade, essas tecnologias são suscetíveis a equívocos e podem reproduzir opiniões discriminatórias. Essas ferramentas são treinadas com bases de dados da web e podem gerar informações imprecisas e conteúdo com viés preconceituoso.

Um estudo realizado por pesquisadores de diversas universidades mostrou que os chatbots de IA têm dificuldade em demonstrar empatia em interações com pessoas diversas. Além disso, os modelos de IA fazem juízos de valor negativos sobre determinados grupos, como homossexuais e muçulmanos, e até fomentam ideologias perigosas, como o nazismo.

Apesar dessas questões, a capacidade de demostrar empatia pode ser útil em áreas como saúde, para atendimento automatizado de pacientes, e na educação. O estudo será apresentado na conferência CHI ’24, que discute a interação entre seres humanos e sistemas computacionais.