O áudio deepfake não é apenas uma voz falsa de um presidente ou de uma celebridade, porque os fraudadores online já são capazes de fazer isso até mesmo simular a voz de um ente querido, para convencer uma vítima em potencial de seu golpe. Truques que usam gravações falsas supostamente de uma fonte confiável estão ganhando popularidade rapidamente. Como se defender deles?
Os hackers se passam por pessoas confiáveis. Esta é uma grande ameaça
Conforme alertam especialistas da Check Point Software, foi detectado apenas nas últimas duas semanas mais de 1.000 tentativas de falsificação de identidade usando táticas deepfake. Um padrão de ataque popular é o seguinte:
- Os fraudadores da Internet escolhem um alvo, a vítima recebe um e-mail;
- A mensagem contém um cabeçalho falso, número de telefone da empresa e informações sobre deixou uma mensagem de voz;
- Há um widget semelhante a um player no corpo do e-mail. Ele sugere aproximadamente Gravação de 3 minutos a ser reproduzido;
- após clicar no botão “play”, a vítima será redirecionada para site perigoso.
O cabeçalho geralmente é forjado para fazer a vítima acreditar que o e-mail realmente vem da empresa selecionada. A chave aqui é construir confiança.
Este método pode ser eficaz especialmente em um ambiente profissional. Muitas vezes as grandes empresas integrar muitos sistemas de funcionários (por exemplo, e-mail e telefones), por isso a isca colocada pelos hackers pode ser muito convincente.
Claro, alertamos contra clicar em links nos players, pois o link leva a site coletando dados de autenticação vítimas sob o pretexto de ouvir a mensagem.
Os fraudadores da Internet estão usando cada vez mais sequestros virtuais
Um deepfake feito com inteligência artificial também pode ser usado, por exemplo, para realizar sequestros virtuais, sobre os quais já escrevemos. Esta táctica pretende aterrorizar-nos e preocupações sobre um ente queridoisso desligará o nosso bom senso e nos levará diretamente aos braços dos fraudadores. E o próprio “sequestrado” está, claro, seguro e muitas vezes sem saber de nada.
Este tipo de ação também começa com uma seleção cuidadosa do alvo. É uma questão de definição pessoa disposta a pagar o resgate e a “vítima de sequestro”, na maioria das vezes uma criança ou outro parente próximo da pessoa originalmente visada. Essas informações são geralmente coletadas nas redes sociais.
Com base em gravações públicas, os hackers também coletam dados para preparar fraudes. Atualmente fabricável todo o modelo de voz parecendo muito convincente, até mesmo um pequeno vídeo com algumas frases faladas é suficiente. Um perfil de voz criado com ferramentas disponíveis publicamente pode “dizer” o que os hackers escrevem, e também é possível criar material de vídeo com voz.
Os próximos passos são o planejamento e a chamada propriamente dita. Ao mesmo tempo, você precisa escolher um bom momento para a vítima e um momento em que o contato com os “sequestrados” será difícil de uma forma natural. A pessoa enganada não consegue confirmar onde está seu ente querido, ouve uma voz familiar no alto-falante do smartphone e, em uma situação muito estressante, fica inclinada a acreditar que os criminosos realmente sequestraram seu ente querido e transferem o resgate para a conta indicada . Na maioria das vezes, os fundos desaparecem rapidamente e são impossíveis de recuperar.
Como se defender contra ataques deepfake?
Os vídeos deepfake são convincentes, mas estão longe de ser perfeitos. Quando provavelmente notaremos imprecisõespodemos descobrir rapidamente as intenções dos hackers e frustrar seus planos.
No caso do áudio, você pode detectar transições de IA não muito inteligentes entre frases ou palavras acentuação imperfeita de palavras em uma frase. Em um momento a voz pode soar bastante natural e em outro pode parecer “estranha”.
Podemos encontrar muito mais evidências nas gravações de vídeo. Ao falar, você precisa prestar atenção às expressões faciais e aos movimentos dos lábios. Estes podem parecer espasmódico e não naturale até mesmo fora de sincronia com a fala. A iluminação da cena pode até mudar de quadro para quadro, e o tom da pele pode ser igualmente heterogêneo – às vezes um pouco mais claro, às vezes mais escuro. As personas da IA também parecem piscar demais.
No caso de um sequestro virtual, toda a ação falha rapidamente, se conseguirmos verifique seu paradeiro uma pessoa supostamente sequestrada – se a pessoa estiver na sala conosco, podemos fazer os golpistas rirem, mas uma ligação rápida para um ente querido também deve dissipar quaisquer dúvidas.
Outra forma é perguntar à pessoa supostamente sequestrada sobre algo só essa pessoa pode saber. Se ele não puder fornecer, por exemplo, o nome de sua família ou o nome do primeiro animal de estimação de sua família, provavelmente será uma fraude.
Fonte: avlab.pl. Imagem de abertura: Sora Shimazaki/Pexels
Alguns dos links são links afiliados ou links para ofertas de nossos parceiros. Após clicar, você poderá ver o preço e a disponibilidade do produto que selecionamos – você não incorre em nenhum custo e ao mesmo tempo apoia a independência da equipe editorial.