Imagine receber uma ligação que parece vir de seu neto, pedindo ajuda para pagar fiança, ou do seu chefe, solicitando transferência urgente. A nova geração de golpes, conhecida como deepfake vishing, usa tecnologias de inteligência artificial para clonar vozes com impressionante precisão.
Segundo relatos de especialistas e órgãos governamentais,esses ataques vêm se tornando cada vez mais sofisticados. Em 2023, a Agência de Segurança Cibernética dos Estados Unidos já alertava para um aumento exponencial desse tipo de ameaça.
Recentemente, a empresa de segurança Group-IB detalhou os passos envolvidos nessas fraudes:
- Coleção de amostras de voz: Os criminosos precisam apenas de um trecho curto, como três segundos, de uma conversa ou vídeo.
- Sintetização de voz: Essas amostras são alimentadas em enginas de IA, como o Tacotron 2 da Google ou o Vall-E da Microsoft, que permitem que os fraudadores gerem vozes convincedoras.
- Impersoração: Em casos mais avançados, a voz falsa é usada em tempo real para interagir com as vítimas, tornando o engodo ainda mais credível.
Em um exercício de simulação, a equipe de segurança Mandiant demonstrou como umaquipe de ataque vermelha conseguiu enganar funcionários usando técnicas simples e recursos públicos. A vítima, convencida pela voz familiar, descartava alertas de segurança e executava códigos maliciosos sem perceber.
Para se proteger, é essencial:
- Requerer uma palavra-chave: As vítimas devem pedir que o "contatante" forneça uma senha prévia combinada.
- Retornar a ligação: Verificar o número e identidade do suposto emissor é sempre prudente.
Ainda assim, essas práticas requerem que as vítimas mantenham-se calmas e alertas, especialmente em momentos de estresse. E é justamente esse tipo de pressão que os criminosos exploram para aprofundar suas fraudes.
Enquanto a tecnologia avança, nossa capacidade de discernimento precisa acompanhá-la. O abuso de deepfakes não será freado facilmente, mas entendendo o jogo dos golpistas, podemos evitar cair em suas armadilhas.