Google diz para bebês anti-despertos que os vikings negros de Gemini perderam o alvo.

O chatbot de IA da Google, Gemini, tem um problema único. Ele tem dificuldade em produzir imagens de pessoas brancas, muitas vezes transformando Vikings, pais fundadores e jogadores de hóquei canadenses em pessoas de cor. Isso gerou indignação da comunidade anti-woke, alegando racismo contra pessoas brancas. Hoje, a Google reconheceu o erro do Gemini.

“Estamos trabalhando para melhorar imediatamente esses tipos de representações,” afirmou a Comunicação da Google em um comunicado. “A geração de imagens de IA do Gemini produz uma ampla gama de pessoas. E isso é geralmente algo bom, pois pessoas ao redor do mundo o utilizam. Mas está errando nesse caso.”

Usuários apontaram que o Gemini, às vezes, se recusava a atender solicitações específicas de criação de imagens de pessoas brancas. No entanto, quando solicitados a criar imagens de pessoas negras, o Gemini não tinha problemas. Isso resultou em uma indignação da comunidade anti-woke em plataformas de mídia social, como X, pedindo uma ação imediata.

O reconhecimento do erro pela Google é, para dizer o mínimo, surpreendente, dado que os geradores de imagens de IA têm feito um trabalho terrível em retratar pessoas de cor. Uma investigação do The Washington Post descobriu que o gerador de imagens de IA, Stable Diffusion, quase sempre identificava os beneficiários de cupons de alimentos como negros, mesmo que 63% dos beneficiários sejam brancos. Midjourney foi criticado por um pesquisador quando repetidamente falhou em criar um “médico africano negro tratando de crianças brancas”, de acordo com a NPR.

Onde estava essa indignação quando os geradores de imagens de IA desrespeitavam as pessoas negras? O Gizmodo não encontrou nenhuma instância do Gemini retratando estereótipos prejudiciais de pessoas brancas, mas o gerador de imagens de IA simplesmente se recusava a criá-los às vezes. Embora a falha em gerar imagens de uma determinada raça seja certamente um problema, não se compara às ofensas diretas da comunidade de IA contra as pessoas negras.

A OpenAI admite até nos dados de treinamento do Dall-E que seu gerador de imagens de IA “herda vários preconceitos de seus dados de treinamento e seus resultados às vezes reforçam estereótipos sociais.” OpenAI e Google estão tentando combater esses preconceitos, mas o chatbot de IA de Elon Musk, Grok, busca abraçá-los.

O “chatbot anti-woke” de Musk, Grok, é inalterado pela correção política. Ele afirma que este é um chatbot de IA realista e honesto. Embora isso possa ser verdade, as ferramentas de IA podem amplificar preconceitos de maneiras que ainda não compreendemos totalmente. O erro da Google ao gerar pessoas brancas provavelmente é resultado desses filtros de segurança.

A tecnologia historicamente é uma indústria muito branca. Não há dados modernos sobre diversidade na tecnologia, mas 83% dos executivos de tecnologia eram brancos em 2014. Um estudo da Universidade de Massachusetts descobriu que a diversidade na tecnologia pode estar melhorando, mas provavelmente está atrás de outras indústrias. Por esses motivos, faz sentido que a tecnologia moderna compartilhe os preconceitos das pessoas brancas.

Um caso em que isso surge, de forma muito consequente, é a tecnologia de reconhecimento facial (FRT) usada pela polícia. O FRT repetidamente falhou em distinguir rostos negros e mostra uma precisão muito maior com rostos brancos. Isso não é hipotético, e não envolve apenas sentimentos feridos. A tecnologia resultou na prisão errônea e encarceramento de um homem negro em Baltimore, uma mãe negra em Detroit e várias outras pessoas inocentes de cor.

A tecnologia sempre refletiu aqueles que a construíram, e esses problemas persistem hoje. Nesta semana, a Wired relatou que os chatbots de IA da rede social de “liberdade de expressão” Gab foram instruídos a negar o holocausto. A ferramenta foi supostamente projetada por uma plataforma de extrema direita, e o chatbot de IA parece estar alinhado.

Há um problema maior com a IA: essas ferramentas refletem e amplificam nossos preconceitos como seres humanos. As ferramentas de IA são treinadas na internet, que está cheia de racismo, sexismo e preconceitos. Essas ferramentas inevitavelmente cometerão os mesmos erros que nossa sociedade tem, e essas questões precisam de mais atenção.

A Google parece ter aumentado a presença de pessoas de cor nas imagens do Gemini. Embora isso mereça uma correção, isso não deve ofuscar os problemas maiores enfrentados pela indústria de tecnologia hoje. As pessoas brancas são em grande parte as responsáveis por construir modelos de IA e, de forma alguma, são as principais vítimas de preconceitos tecnológicos enraizados.