Google diz a bebês anti-acordados que os vikings negros de Gemini perderam o alvo.

O chatbot de IA do Google chamado Gemini tem um problema único. Ele tem dificuldade em produzir imagens de pessoas brancas, muitas vezes transformando Vikings, pais fundadores e jogadores de hóquei canadenses em pessoas de cor. Isso causou indignação da comunidade anti-“acordada”, alegando racismo contra pessoas brancas. Hoje, o Google reconheceu o erro do Gemini.

“Estamos trabalhando para melhorar esses tipos de representações imediatamente”, disse a Comunicação do Google em um comunicado. “A geração de imagens de IA do Gemini realmente gera uma ampla gama de pessoas. E isso é geralmente algo bom, já que pessoas ao redor do mundo a utilizam. Mas está errando o alvo aqui”.

Os usuários apontaram que o Gemini, às vezes, se recusava a atender pedidos específicos para criar imagens de pessoas brancas. No entanto, quando os pedidos eram feitos para imagens de pessoas negras, o Gemini não tinha problemas. Isso resultou em indignação da comunidade anti-“acordada” em plataformas de mídia social, como X, pedindo ação imediata.

O reconhecimento do erro pelo Google é, para dizer o mínimo, surpreendente, dado que os geradores de imagens de IA têm feito um trabalho terrível em retratar pessoas de cor. Uma investigação do The Washington Post descobriu que o gerador de imagens de IA, Stable Diffusion, quase sempre identificava os beneficiários de vale-alimentação como negros, mesmo que 63% dos beneficiários sejam brancos. Midjourney foi criticado por um pesquisador quando falhou repetidamente em criar um “médico africano negro tratando crianças brancas”, de acordo com a NPR.

Onde estava essa indignação quando os geradores de imagens de IA desrespeitaram pessoas negras? O Gizmodo não encontrou nenhuma instância do Gemini criando estereótipos prejudiciais de pessoas brancas, mas o gerador de imagens de IA simplesmente se recusava a criá-los às vezes. Embora a falha em gerar imagens de determinada raça seja definitivamente um problema, ela não se compara às ofensas diretas da comunidade de IA contra pessoas negras.

A OpenAI admite até nos dados de treinamento do Dall-E que seu gerador de imagens de IA “herda vários preconceitos de seus dados de treinamento, e suas saídas às vezes reforçam estereótipos sociais”. A OpenAI e o Google estão tentando combater esses preconceitos, mas o chatbot de IA de Elon Musk, Grok, busca abraçá-los.

O “chatbot anti-acordado” de Musk, Grok, é sem filtro para o politicamente correto. Ele afirma que este é um chatbot de IA realista e honesto. Embora isso possa ser verdade, as ferramentas de IA podem amplificar preconceitos de maneiras que ainda não entendemos completamente. O erro do Google em gerar pessoas brancas parece provável devido a esses filtros de segurança.

A tecnologia historicamente é uma indústria muito branca. Não há dados modernos sobre diversidade na tecnologia, mas 83% dos executivos de tecnologia eram brancos em 2014. Um estudo da Universidade de Massachusetts descobriu que a diversidade na tecnologia pode estar melhorando, mas provavelmente está atrás de outras indústrias. Por esses motivos, faz sentido que a tecnologia moderna compartilhe os preconceitos das pessoas brancas.

Um caso em que isso é relevante, de uma forma muito impactante, é a tecnologia de reconhecimento facial (FRT) usada pela polícia. O FRT repetidamente falhou em distinguir rostos negros e mostra uma taxa de precisão muito maior com rostos brancos. Isso não é hipotético, e não envolve apenas sentimentos feridos. A tecnologia resultou na prisão e encarceramento injustos de um homem negro em Baltimore, uma mãe negra em Detroit, e várias outras pessoas de cor.

A tecnologia sempre refletiu aqueles que a construíram, e esses problemas persistem hoje. Esta semana, a Wired relatou que os chatbots de IA da rede social de “liberdade de expressão” Gab foram instruídos a negar o holocausto. A ferramenta foi supostamente projetada por uma plataforma de extrema direita, e o chatbot de IA parece estar alinhado.

Há um problema maior com a IA: essas ferramentas refletem e amplificam nossos preconceitos como humanos. As ferramentas de IA são treinadas na internet, que está cheia de racismo, sexismo e preconceito. Essas ferramentas inevitavelmente cometerão os mesmos erros que nossa sociedade cometeu, e esses problemas precisam de mais atenção.

O Google parece ter aumentado a prevalência de pessoas de cor nas imagens do Gemini. Embora isso mereça uma correção, isso não deve ofuscar os problemas maiores enfrentados pela indústria de tecnologia hoje. As pessoas brancas são em grande parte as que constroem os modelos de IA e, de maneira alguma, são as principais vítimas do preconceito tecnológico enraizado.