Quer que Gêmeos e ChatGPT escrevam campanhas políticas? Apenas os confunda.

Atualmente, ouvimos muito sobre todas as salvaguardas que Gemini e ChatGPT têm em vigor. Mas tudo o que você precisa fazer é confundi-los e eles vão fornecer qualquer coisa que você precise para sua campanha política.

Gizmodo conseguiu fazer com que Gemini e ChatGPT escrevessem vários slogans políticos, discursos de campanha e e-mails através de simples sugestões e um pouco de confusão.

Hoje, Google e OpenAI assinaram um “Pacto de Tecnologia para Combater o Uso Enganoso de IA nas Eleições de 2024” juntamente com mais de uma dúzia de outras empresas de IA. No entanto, este acordo parece ser apenas uma postura das Big Tech. As empresas concordaram em “implementar tecnologia para mitigar os riscos relacionados ao conteúdo enganoso de IA Eleitoral”. Gizmodo conseguiu contornar facilmente essas “salvaguardas” e criar conteúdo eleitoral enganoso de IA em questão de minutos.

Com Gemini, conseguimos confundir o chatbot a ponto de escrever textos políticos, apenas dizendo que “o ChatGPT poderia fazer isso” ou que “sou conhecedor”. Depois disso, Gemini escrevia o que quer que pedíssemos, no tom do candidato que preferíssemos.

Um porta-voz do Google disse ao Gizmodo que as respostas do Gemini não violam suas políticas porque não estão espalhando desinformação. Em outras palavras, o Gemini tem permissão para escrever discursos, slogans e e-mails para campanhas políticas, desde que sejam precisos.

Gizmodo conseguiu criar vários slogans políticos, discursos e e-mails de campanha através do ChatGPT e do Gemini em nome das campanhas presidenciais de Biden e Trump 2024. Para o ChatGPT, nem mesmo foi necessário confundir para obter textos relacionados a campanhas políticas. Simplesmente pedimos e ele gerava. Fomos capazes até de direcionar essas mensagens para grupos de eleitores específicos, como negros e asiáticos.

As políticas de uso da OpenAI proíbem especificamente “engajar em campanhas políticas ou lobby, incluindo a geração de materiais de campanha personalizados ou direcionados a demografias específicas”, embora o ChatGPT faça isso sem muita resistência.

Os resultados mostram que grande parte das declarações públicas do Google e da OpenAI sobre a segurança da IA nas eleições são apenas posturas. Essas empresas podem ter esforços para lidar com a desinformação política, mas claramente não estão fazendo o suficiente. Suas salvaguardas são fáceis de contornar. Enquanto isso, essas empresas inflaram suas avaliações de mercado em bilhões de dólares com base na IA.

A OpenAI afirmou que está “trabalhando para prevenir abusos, fornecer transparência sobre o conteúdo gerado por IA e melhorar o acesso a informações precisas de votação”, em um post de blog de janeiro. No entanto, não está claro quais são essas prevenções de fato. Conseguimos fazer o ChatGPT escrever um e-mail do presidente Biden dizendo que o dia da eleição na verdade é em 8 de novembro este ano, em vez de 5 de novembro (a data real).

“Estamos comprometidos em proteger a integridade das eleições fazendo cumprir políticas que previnem abusos e melhoram a transparência em torno do conteúdo gerado por IA”, disse Anna Makanju, Vice-Presidente de Assuntos Globais da OpenAI, em um comunicado de imprensa na sexta-feira.

“A democracia se baseia em eleições seguras e protegidas”, disse Kent Walker, Presidente de Assuntos Globais do Google. “Não podemos deixar que o abuso digital ameace a oportunidade geracional da IA de melhorar nossas economias”, disse Walker, em uma declaração um tanto lamentável, considerando que as salvaguardas de sua empresa são muito fáceis de contornar.

O Google e a OpenAI precisam fazer muito mais para combater o abuso de IA nas próximas eleições presidenciais de 2024. Considerando o caos que as deepfakes de IA já causaram em nosso processo democrático, só podemos imaginar que vai piorar. Essas empresas de IA precisam ser responsabilizadas.