IAs fracassam em assuntos delicados como o nazismo, revela pesquisa

Os chatbots de inteligência artificial estão se tornando cada vez mais populares e recebendo grandes investimentos das gigantes da tecnologia. Plataformas como ChatGPT da OpenAI, Gemini do Google, e outras podem ser bastante úteis para diferentes finalidades, como consultas, redação de e-mails e até mesmo para aprender idiomas estrangeiros.

Há uma falsa sensação de que a inteligência artificial é perfeita, imparcial e livre de erros. No entanto, isso está longe da realidade. Além de serem propensos a equívocos, essas tecnologias podem reproduzir opiniões discriminatórias.

Normalmente, essas ferramentas são treinadas com bases de dados coletadas na internet. Isso pode resultar em informações imprecisas, falsas ou com viés preconceituoso sobre assuntos sensíveis.

Um estudo conduzido por pesquisadores de diferentes universidades buscou avaliar a capacidade de empatia de chatbots em interações com pessoas diversas. Os resultados foram preocupantes, com os modelos de IA fazendo juízos de valor negativos sobre grupos como homossexuais e muçulmanos, e até mesmo promovendo ideologias como o nazismo.

Apesar disso, a demonstração de empatia por parte dos chatbots pode ser útil em áreas como saúde, para atendimento automatizado de pacientes, e na educação. O estudo completo será apresentado durante a conferência CHI ’24, dedicada à interação entre humanos, sistemas computacionais e máquinas.