Dicas De Marketing Digital Para Alavancar Seu Negócio

Você atende uma ligação aleatória de um membro da família, e eles explicam ofegantes que houve um terrível acidente de carro. Eles precisam que você envie dinheiro imediatamente, ou eles irão para a cadeia. Você pode ouvir a desesperação em suas vozes enquanto imploram por uma transferência de dinheiro imediata. Embora pareça muito com eles, e a ligação veio do número deles, você sente que algo está errado. Então, você decide desligar e ligar de volta. Quando o membro da família atende sua chamada, eles dizem que não houve acidente de carro, e que não têm ideia do que você está falando.

Parabéns, você acabou de evitar com sucesso uma ligação de golpe de inteligência artificial.

À medida que as ferramentas de IA generativa se tornam mais capazes, está se tornando mais fácil e barato para golpistas criarem áudios falsos, mas convincentes, das vozes das pessoas. Esses clones de voz de IA são treinados em trechos de áudio existentes de fala humana e podem ser ajustados para imitar quase qualquer um. Os modelos mais recentes até conseguem falar em vários idiomas. A OpenAI, fabricante do ChatGPT, anunciou recentemente um novo modelo de síntese de fala que poderia melhorar ainda mais a clonagem de voz e torná-la mais amplamente acessível.

É claro que os criminosos estão usando essas ferramentas de clonagem de IA para enganar as vítimas, fazendo com que pensem que estão falando com um ente querido ao telefone, embora estejam conversando com um computador. Embora a ameaça de golpes alimentados por IA seja assustadora, você pode se manter seguro mantendo em mente essas dicas de especialistas da próxima vez que receber uma ligação urgente e inesperada.

Lembre-se de que o áudio de IA é difícil de detectar. Não são apenas as OpenAI; muitas startups de tecnologia estão trabalhando na replicação de fala humana quase perfeita, e o progresso recente é rápido. “Se fosse alguns meses atrás, teríamos dado dicas sobre o que procurar, como pausas prolongadas ou mostrando algum tipo de latência”, diz Ben Colman, cofundador e CEO da Reality Defender. Como muitos aspectos da IA generativa ao longo do último ano, o áudio de IA é agora uma imitação mais convincente do real. Todas as estratégias de segurança que dependem de você detectar auditivamente peculiaridades estranhas ao telefone estão desatualizadas.

Desligue e ligue de volta. Os especialistas em segurança alertam que é bastante fácil para os golpistas fazerem parecer que a ligação está vindo de um número de telefone legítimo. “Muitas vezes, os golpistas vão mascarar o número de onde estão ligando para você, fazendo parecer que estão ligando de algum órgão do governo ou do banco”, diz Michael Jabbara, chefe global de serviços de fraude na Visa. Seja do seu banco ou de um ente querido, sempre que receber uma ligação solicitando dinheiro ou informações pessoais, vá em frente e peça para ligar de volta. Procure o número online ou em seus contatos e inicie uma conversa de acompanhamento. Você também pode tentar enviar uma mensagem por meio de uma linha de comunicação diferente e verificada, como videochamada ou e-mail.

Crie uma palavra secreta segura. Uma dica de segurança popular que várias fontes sugeriram foi criar uma palavra ou frase segura que apenas você e seus entes queridos conhecem e que você pode pedir ao telefone. “Você pode até negociar antecipadamente com seus entes queridos uma palavra ou uma frase que eles poderiam usar para provar quem realmente são, se estiverem em uma situação de aflição”, diz Steve Grobman, diretor de tecnologia da McAfee. Embora ligar de volta ou verificar por meio de outro meio de comunicação seja melhor, uma palavra segura pode ser especialmente útil para os mais jovens ou parentes idosos que podem ser difíceis de contatar de outra forma.

Ou simplesmente pergunte o que eles tiveram para o jantar. E se você não tiver uma palavra segura decidida e estiver tentando descobrir se uma ligação angustiante é real? Pausa por um segundo e faça uma pergunta pessoal. “Pode ser tão simples quanto fazer uma pergunta que apenas um ente querido saberia responder”, diz Grobman. “Pode ser algo como ‘Ei, quero ter certeza de que realmente é você. Você pode me lembrar o que tivemos para o jantar ontem à noite?'”. Certifique-se de que a pergunta seja específica o suficiente para que um golpista não consiga responder corretamente com um palpite educado.

Entenda que qualquer voz pode ser imitada. Clones de áudio deepfake não são reservados apenas para celebridades e políticos, como as chamadas em New Hampshire que usaram ferramentas de IA para soar como Joe Biden e desencorajar as pessoas de ir às urnas. “Um equívoco é: ‘Isso não pode acontecer comigo. Ninguém pode clonar minha voz'”, diz Rahul Sood, diretor de produto da Pindrop, uma empresa de segurança que descobriu as prováveis origens do áudio de IA Biden. “O que as pessoas não percebem é que, com tão pouco como cinco a 10 segundos de sua voz, em um TikTok que você pode ter criado ou um vídeo do YouTube de sua vida profissional, esse conteúdo pode ser facilmente usado para criar seu clone.” Usando ferramentas de IA, a mensagem de caixa postal do seu smartphone pode ser suficiente para replicar sua voz.

Não ceda a apelos emocionais. Seja um golpe de esquartejamento de porco ou uma ligação telefônica de IA, os golpistas experientes são capazes de construir sua confiança neles, criar um senso de urgência e encontrar seus pontos fracos. “Seja cauteloso em qualquer interação em que você esteja experimentando um sentido elevado de emoção, porque os melhores golpistas não são necessariamente os hackers técnicos mais hábeis”, diz Jabbara. “Mas eles têm um entendimento muito bom do comportamento humano.” Se você tirar um momento para refletir sobre uma situação e se abster de agir por impulso, esse pode ser o momento em que você evita ser enganado.