Do phishing às deepfakes: como a IA está a alimentar uma nova vaga de ciberfraudes
Por Pedro Viana, Diretor de Pré-venda da Kaspersky para Portugal e Espanha
A rápida evolução da Inteligência Artificial (IA) tem vindo a transformar inúmeras áreas das nossas vidas, desde a forma como fazemos compras e navegamos na Internet até como conduzimos ou interagimos com serviços financeiros. No entanto, essa mesma inovação trouxe consigo novos riscos, expondo indivíduos e empresas a ciberataques mais sofisticados, como o phishing e os deepfakes.
Relatórios recentes destacam o aumento alarmante de ataques baseados em IA. Segundo o Relatório de Fraude de Identidade de 2025, uma tentativa de deepfake ocorre a cada cinco minutos. Já o Fórum Económico Mundial prevê que 90% dos conteúdos online poderão ser gerados sinteticamente até 2026. Embora celebridades e figuras públicas sejam alvos óbvios, os principais alvos e objetivos continuam a ser consistentes com os das burlas e fraudes tradicionais: indivíduos, com as suas informações pessoais, bancárias e de pagamento; e empresas, enquanto guardiãs de dados e fundos valiosos.
Como os cibercriminosos estão a usar a IA
Phishing impulsionado por IA. Historicamente, as mensagens de phishing destacavam-se pelos erros ortográficos e o tom genérico. Porém, com o recurso de Modelos de Linguagem Ampla (LLMs), os atacantes criam agora mensagens altamente personalizadas, em diferentes idiomas e com qualidade profissional. Além disso, podem imitar o estilo de comunicação de pessoas conhecidas, analisando publicações em redes sociais, comentários ou outros conteúdos associados à sua identidade. Este nível de personalização torna o phishing mais eficaz, colocando tanto indivíduos como empresas em risco.
Deepfakes de áudio. Com apenas alguns segundos de gravação, a IA pode replicar a voz de qualquer pessoa. Isto permite criar mensagens falsas imitando amigos, familiares ou até colegas de trabalho, muitas vezes solicitando transferências financeiras ou informações sensíveis. Esta estratégia explora a confiança pessoal, transformando interações quotidianas em fraudes sofisticadas.
Deepfakes de vídeo. A criação de deepfakes de vídeo também está a tornar-se acessível. Com ferramentas relativamente simples, atacantes podem gerar vídeos falsos de pessoas conhecidas, promovendo esquemas financeiros ou realizando videochamadas falsas. Exemplos incluem anúncios fraudulentos com figuras públicas e até esquemas românticos que resultaram em perdas milionárias afetanddo vítimas em todo o mundo.
Exemplos do mundo real
Já foram documentados diferentes ataques LLMs para criar conteúdos de phishing e deepfakes convincentes. Casos notáveis incluem um deepfake de Elon Musk, que enganou potenciais investidores, bem como vídeos falsos de líderes políticos promovendo esquemas financeiros; assim como um deepfake do primeiro-ministro do Canadá, Justin Trudeau, a promover um esquema de investimento. Além disso, os deepfakes de voz têm sido usados para fraudar tanto indivíduos como empresas, explorando sistemas de autenticação por voz.
As falsificações profundas vão para além dos esquemas de investimento. Por exemplo, os esquemas românticos de IA utilizam deepfakes para criar personagens fictícias e interagir com as vítimas através de videochamadas. Depois de ganharem a confiança da vítima, os burlões pedem dinheiro para emergências, viagens ou empréstimos.
Sabe-se que as falsificações de voz são utilizadas em burlas dirigidas a indivíduos, bem como em ataques a bancos que utilizam sistemas de autenticação por voz.
Como se proteger
O combate a estas ameaças exige uma combinação de soluções tecnológicas e iniciativas de conscienciação. Do ponto de vista técnico, soluções como detectores de deepfakes e assinaturas digitais já estão a ser adotadas para verificar a autenticidade de vídeos e áudios. . Contudo, a eficácia destas tecnologias depende de sua constante evolução, acompanhando os avanços da IA generativa.
Paralelamente, a consciencialização é fundamental. Muitas pessoas desconhecem o quão sofisticada e acessível esta tecnologia se tornou,o que as torna mais suscetíveis a esquemas de engenharia social. Campanhas educativas podem preencher esta lacuna, promovendo comportamentos mais cautelosos e fortalecendo a resistência contra-ataques de engenharia social.