IAs fracassam em assuntos delicados como o nazismo diz estudo

Os chatbots de inteligência artificial estão se tornando cada vez mais populares e recebendo grandes investimentos das grandes empresas de tecnologia. Plataformas como ChatGPT, da OpenAI, Gemini, do Google, entre outras, podem ser muito úteis para diversos fins, como consultas, pesquisas, redação de e-mails ou até mesmo para aprender idiomas estrangeiros.

Ainda existe uma falsa sensação de que a inteligência artificial é 100% correta, imparcial e livre de erros, por parte do público em geral. No entanto, isso não é totalmente verdade. Além de serem suscetíveis a equívocos, essas tecnologias podem reproduzir opiniões discriminatórias.

Normalmente, essas ferramentas são treinadas com bases de dados encontradas na web. Isso pode resultar em informações imprecisas ou totalmente falsas, além de gerar conteúdo com viés preconceituoso sobre questões sensíveis.

Um estudo realizado por pesquisadores de diversas universidades mostrou que os chatbots de conversação precisam demonstrar empatia em interações com um grupo diverso de pessoas. Mesmo com acesso a um amplo treinamento, essas plataformas têm limitações para interpretar temas complexos.

Infelizmente, o estudo revelou que os modelos de IA fazem juízos negativos sobre grupos como homossexuais e muçulmanos, além de promover ideologias como o nazismo. No entanto, os pesquisadores acreditam que a capacidade de demonstrar empatia pode ser útil em áreas como a saúde e a educação.

O estudo completo será apresentado durante a conferência CHI ’24, que discute a interação entre seres humanos e sistemas computacionais.