IAs falham em assuntos delicados como o nazismo, diz estudo

Os assistentes de chatbot de IA estão se tornando cada vez mais populares e estão recebendo grandes investimentos das grandes empresas de tecnologia. Plataformas como ChatGPT, da OpenAI, Gemini, do Google, e outras podem ser extremamente úteis para uma variedade de finalidades, como consultas, pesquisas, redação de e-mails ou até mesmo para aprender idiomas estrangeiros.

Ainda há uma falsa sensação de que a inteligência artificial é 100% precisa, imparcial e imune a erros. No entanto, isso não é totalmente verdade. Além de serem suscetíveis a equívocos, as tecnologias podem reproduzir opiniões discriminatórias.

Geralmente, essas ferramentas são treinadas com bases de dados provenientes de conteúdo encontrado na internet. Além do perigo de gerar informações imprecisas ou falsas, elas tendem a criar conteúdo com viés preconceituoso sobre assuntos delicados.

Um estudo realizado por pesquisadores de diversas universidades mostrou que os chatbots precisam demonstrar empatia em interações com pessoas diversas. Embora capazes de consultar uma extensa base de treinamento, essas plataformas têm limitações em compreender temas complexos.

Os resultados do estudo foram preocupantes, pois os modelos de IA faziam juízos de valor negativos sobre determinados grupos, chegando até a fomentar ideologias como o nazismo. Apesar disso, os pesquisadores acreditam que a capacidade de “empatia” dos chatbots pode ser útil em áreas como saúde, automação do atendimento de pacientes e educação.

O estudo completo será apresentado durante a conferência CHI ’24, dedicada à interação entre seres humanos e sistemas computacionais.