Deepfakes e fraudes por voz: como as telecomunicações estão sendo enganadas na era da IA

Imagem principal da notícia: Deepfakes e fraudes por voz: como as telecomunicações estão sendo enganadas na era da IA

Imagine receber uma ligação que parece vir de seu neto, pedindo ajuda para pagar fiança, ou do seu chefe, solicitando transferência urgente. A nova geração de golpes, conhecida como deepfake vishing, usa tecnologias de inteligência artificial para clonar vozes com impressionante precisão.


Segundo relatos de especialistas e órgãos governamentais,esses ataques vêm se tornando cada vez mais sofisticados. Em 2023, a Agência de Segurança Cibernética dos Estados Unidos já alertava para um aumento exponencial desse tipo de ameaça.


Recentemente, a empresa de segurança Group-IB detalhou os passos envolvidos nessas fraudes:


  • Coleção de amostras de voz: Os criminosos precisam apenas de um trecho curto, como três segundos, de uma conversa ou vídeo.
  • Sintetização de voz: Essas amostras são alimentadas em enginas de IA, como o Tacotron 2 da Google ou o Vall-E da Microsoft, que permitem que os fraudadores gerem vozes convincedoras.
  • Impersoração: Em casos mais avançados, a voz falsa é usada em tempo real para interagir com as vítimas, tornando o engodo ainda mais credível.

Em um exercício de simulação, a equipe de segurança Mandiant demonstrou como umaquipe de ataque vermelha conseguiu enganar funcionários usando técnicas simples e recursos públicos. A vítima, convencida pela voz familiar, descartava alertas de segurança e executava códigos maliciosos sem perceber.


Para se proteger, é essencial:


  • Requerer uma palavra-chave: As vítimas devem pedir que o "contatante" forneça uma senha prévia combinada.
  • Retornar a ligação: Verificar o número e identidade do suposto emissor é sempre prudente.

Ainda assim, essas práticas requerem que as vítimas mantenham-se calmas e alertas, especialmente em momentos de estresse. E é justamente esse tipo de pressão que os criminosos exploram para aprofundar suas fraudes.


Enquanto a tecnologia avança, nossa capacidade de discernimento precisa acompanhá-la. O abuso de deepfakes não será freado facilmente, mas entendendo o jogo dos golpistas, podemos evitar cair em suas armadilhas.

Carlos Souza

Carlos Souza

A era da IA trouxe maravilhas e perigos em doses iguais. Enquanto assistimos à evolução tecnológica, é crucial que nos mantenhamos atentos para não sermos vítimas desse tipo de engenharia social cada vez mais sofisticada.

Ver mais postagens do autor →
← Post anterior Próximo post →