Como preparar uma deliciosa receita de bolo de chocolate

Você atende uma ligação aleatória de um membro da família, e eles explicam com urgência como houve um terrível acidente de carro. Eles precisam que você envie dinheiro imediatamente, ou irão para a cadeia. Você consegue ouvir a desesperança em suas vozes enquanto imploram por uma transferência de dinheiro imediata. Embora pareça realmente ser eles, e a ligação tenha vindo do número deles, você sente que algo está errado. Então, decide desligar e ligar de volta. Quando o membro da família atende sua ligação, diz que não houve acidente de carro, e não tem ideia do que você está falando.

Parabéns, você acabou de evitar com sucesso uma ligação de golpe de inteligência artificial.

À medida que ferramentas de IA generativa se tornam mais capazes, está ficando mais fácil e barato para golpistas criarem áudios falsos, porém convincentes, das vozes das pessoas. Esses clones de voz da IA são treinados em trechos de áudio existentes da fala humana e podem ser ajustados para imitar quase qualquer pessoa. Os modelos mais recentes até conseguem falar em várias línguas. A OpenAI, criadora do ChatGPT, recentemente anunciou um novo modelo de texto para fala que poderia melhorar ainda mais a clonagem de voz e torná-la mais amplamente acessível.

Claro, criminosos estão usando essas ferramentas de clonagem de IA para enganar vítimas fazendo-as acreditar que estão falando com um ente querido pelo telefone, mesmo que estejam falando com um computador. Embora a ameaça de golpes com IA possa ser assustadora, você pode se manter seguro mantendo estas dicas de especialistas em mente da próxima vez que receber uma ligação urgente e inesperada.

Lembre-se de que é Difícil Detectar Áudio de IA

Não é apenas a OpenAI; muitas startups de tecnologia estão trabalhando para replicar uma fala humana que soe quase perfeita, e o progresso recente é rápido. “Se fosse alguns meses atrás, poderíamos lhe dar dicas do que procurar, como pausas prolongadas ou alguma forma de latência”, diz Ben Colman, cofundador e CEO da Reality Defender. Assim como muitos aspectos da IA generativa ao longo do último ano, o áudio de IA é agora uma imitação mais convincente do real. Estratégias de segurança que dependem de você detectar audívelmente peculiaridades estranhas através do telefone estão desatualizadas.

Desligue e Ligue de Volta

Especialistas em segurança alertam que é bastante fácil para golpistas fazerem parecer que a ligação está vindo de um número de telefone legítimo. “Muitas vezes, os golpistas falsificarão o número de onde estão ligando para você, para parecer que estão ligando de um órgão governamental ou do banco”, diz Michael Jabbara, chefe global de serviços de fraude na Visa. “Você tem que ser proativo”. Seja de seu banco ou de um ente querido, toda vez que você receber uma ligação pedindo dinheiro ou informações pessoais, peça para ligar de volta. Procure o número online ou em seus contatos e inicie uma conversa de acompanhamento. Você também pode tentar enviar uma mensagem por outro meio de comunicação verificado, como videochamada ou e-mail.

Crie uma Palavra Secreta Segura

Uma dica de segurança popular que várias fontes sugeriram foi criar uma palavra segura que apenas você e seus entes queridos conheçam, e que você possa solicitar ao telefone. “Você pode até pré-negociar com seus entes queridos uma palavra ou frase que eles poderiam usar para provar quem realmente são, em situação de aflição”, diz Steve Grobman, diretor de tecnologia da McAfee. Embora ligar de volta ou verificar por outro meio de comunicação seja o ideal, uma palavra segura pode ser especialmente útil para os mais jovens ou para os parentes idosos que podem ser difíceis de contatar de outra forma.

Ou Apenas Pergunte o que Eles Jantaram

E se você não tiver uma palavra segura decidida e estiver tentando descobrir se uma ligação angustiante é real? Faça uma pausa por um segundo e faça uma pergunta pessoal. “Pode ser algo simples como fazer uma pergunta que apenas um ente querido saberia a resposta”, diz Grobman. “Pode ser, ‘Ei, quero ter certeza de que é você mesmo. Você poderia me lembrar o que jantamos ontem à noite?'” Certifique-se de que a pergunta seja específica o bastante para que um golpista não consiga responder corretamente com um palpite educado.

Entenda que Qualquer Voz Pode ser Imitada

Clones de áudio deepfake não são reservados apenas para celebridades e políticos, como as ligações em New Hampshire que usaram ferramentas de IA para soar como Joe Biden e desencorajar as pessoas de ir às urnas. “Uma incompreensão é: ‘Isso não pode acontecer comigo. Ninguém pode clonar minha voz'”, diz Rahul Sood, diretor de produto da Pindrop, uma empresa de segurança que descobriu as prováveis origens do áudio de AI de Biden. “O que as pessoas não percebem é que, com tão pouco quanto cinco a 10 segundos de sua voz, em um TikTok que você pode ter criado ou um vídeo do YouTube de sua vida profissional, esse conteúdo pode ser facilmente usado para criar seu clone”. Usando ferramentas de IA, a mensagem de correio de voz em seu smartphone pode ser suficiente para replicar sua voz.

Não Se Renda a Apelos Emocionais

Seja um golpe de açougue suíno ou uma ligação telefônica de IA, golpistas experientes conseguem construir sua confiança neles, criar um senso de urgência e encontrar seus pontos fracos. “Seja cauteloso com qualquer interação onde você esteja experimentando um sentimento de emoção intensificada, pois os melhores golpistas não são necessariamente os hackers técnicos mais adeptos”, diz Jabbara. “Mas eles têm um bom entendimento do comportamento humano”. Se você tirar um momento para refletir sobre uma situação e se abster de agir por impulso, esse pode ser o momento em que evita ser enganado.