Cibercriminosos recorrem à Inteligência Artificial para criar esquemas de phishing em larga escala

Os cibercriminosos estão a utilizar grandes modelos de linguagem (LLMs) para criar conteúdos fraudulentos, incluindo páginas de phishing e esquemas em grande escala, revelou o Centro de Investigação de IA da Kaspersky. Este fenómeno, que visa sobretudo utilizadores de carteiras de criptomoedas, está a facilitar a automatização de ataques que anteriormente exigiam trabalho manual.

De acordo com os especialistas da Kaspersky, os LLMs permitem a criação de múltiplas páginas web de alta qualidade, deixando, no entanto, vestígios característicos no conteúdo e no código HTML. Entre os sinais mais evidentes estão frases como “Como um modelo de linguagem de IA…” ou estruturas concessivas como “Embora eu não possa fazer exatamente o que quer, posso tentar algo semelhante”, que têm sido identificadas em páginas fraudulentas de plataformas como KuCoin, Gemini e Exodus.

Além disso, estas páginas apresentam frequentemente elementos únicos nos textos e metadados, como o uso de expressões específicas (“in the ever-evolving landscape” ou “delve”) e símbolos Unicode para dificultar a deteção pelas ferramentas de segurança. Um exemplo notório é uma página de phishing que imita o website Crypto[.]com, onde elementos como acentos diacríticos e caracteres não padronizados foram usados para ofuscar informações críticas.

“Com os LLMs, os atacantes podem automatizar a criação de dezenas ou mesmo centenas de páginas web de phishing e scam com conteúdo único e de alta qualidade. Anteriormente, isto exigia esforço manual, mas agora, através da IA os cibercriminosos podem gerar esse conteúdo automaticamente”, explica Vladislav Tushkanov, Diretor do Grupo de Desenvolvimento de Investigação da Kaspersky.

Para combater estas ameaças, a Kaspersky recomenda verificar cuidadosamente as hiperligações antes de clicar, introduzir diretamente o endereço do site no navegador, e optar por soluções de segurança avançadas que incluam funcionalidades de navegação segura.






Comentários
Loading...