Hackers criam FraudGPT com IA maliciosa para gerar golpes com um clique

Hackers que frequentam a dark web desenvolveram dois modelos que utilizam IA generativa para criar malwares, campanhas de desinformação e até chamadas de vídeo falsas com apenas um comando.

Os “gêmeos do mal” do ChatGPT, conhecidos como FraudGPT e WormGPT, representam uma nova fase nos ataques cibernéticos maliciosos, de acordo com um relatório do Departamento de Cibersegurança da Academia de Defesa da Nigéria.

Ambos os modelos operam de maneira semelhante ao ChatGPT. Os usuários acessam a plataforma e inserem um prompt, e em segundos o comando é executado pela inteligência artificial. No entanto, ao contrário de gerarem conteúdos inofensivos em texto, o FraudGPT e o WormGPT possibilitam a criação de emails de phishing e até mesmo sites inteiros para roubar informações dos usuários.

Os primeiros casos de fraudes envolvendo os modelos de IA foram relatados em canais do Telegram e fóruns da dark web. Especialistas afirmam que essas IAs criminosas se baseiam no modelo GPT-J, desenvolvido em código aberto pela EleutherAI. Tanto o FraudGPT quanto o WormGPT são serviços pagos, com hackers pagando de US$ 65 a US$ 200 por mês para acessar as plataformas. Alguns chegam a desembolsar mais de US$ 5,4 mil para obter a versão completa do WormGPT.

O uso de IA por hackers tem tornado as tentativas de golpe cada vez mais convincentes e frequentes. Conteúdos gerados por máquinas não possuem erros ortográficos, o que torna mais difícil identificar essas fraudes. Além disso, o FraudGPT permite a criação de emails maliciosos em qualquer idioma, com uma linguagem praticamente perfeita, evidenciando a importância de investir em segurança digital.