Por Fabio Assolini, Head of Global Research & Analysis Team, Americas & Europe da Kaspersky
Vivemos uma nova era na história da cibersegurança: um cenário em que coexistem e competem duas Inteligências Artificiais (IA). Por um lado, a IA defensiva, capaz de detetar ameaças com maior antecedência, automatizar respostas e aliviar a carga operacional das equipas técnicas. Por outro, a IA ofensiva, utilizada por cibercriminosos para gerar malware, clonar vozes, criar falsificações visuais hiper-realistas ou contornar controlos tradicionais. Neste contexto, reagir já não é suficiente: as organizações têm de compreender como atua o adversário e preparar-se para responder com a mesma agilidade.
Os dados refletem esta transformação. De acordo com estudos recentes, em 2024 foram detetadas quase 900 milhões de tentativas de phishing e mais de 125 milhões de anexos maliciosos enviados por e-mail. Na Europa, o phishing cresceu 41% apenas no segundo trimestre de 2025. A IA transformou o que antes eram mensagens rudimentares em campanhas hiperpersonalizadas, que combinam e-mails, chamadas telefónicas e videochamadas falsas para ganhar a confiança da vítima. Os cibercriminosos recorrem à Inteligência Artificial para criar deepfakes, clonar vozes ou registar domínios quase idênticos aos originais, conseguindo assim ultrapassar facilmente as defesas tradicionais e os processos de KYC (know your customer), utilizados sobretudo na banca e no setor financeiro.
A revolução do malware com IA
Alguns grupos foram ainda mais longe. O FunkSec, conhecido pelos seus ataques de ransomware, utiliza modelos generativos para desenvolver as suas próprias ferramentas de cifragem e exfiltração de dados. Outros atores distribuem malware alimentado por IA que se faz passar por aplicações legítimas, tais como o ChatGPT, o Zoom ou o Microsoft Office, de forma a camuflar ficheiros maliciosos. Só em 2025, os ficheiros detetados que se apresentavam como ferramentas de IA cresceram 115%. Estas táticas demonstram até que ponto a IA ofensiva está a redefinir o terreno de jogo.
Perante este panorama, a IA tornou-se também uma aliada essencial da proteção. Na Kaspersky, a integração da Inteligência Artificial nas plataformas permite detetar anomalias complexas — uma abordagem que já utilizamos há vários anos. Estes sistemas correlacionam telemetria de rede, endpoints e comportamentos dos utilizadores para identificar ciberameaças em segundos. A automatização não substitui o analista, mas liberta-o de tarefas repetitivas, permitindo-lhe concentrar-se em incidentes críticos, onde a experiência humana continua a ser insubstituível.
A combinação de ciberinteligência com IA explicável, capaz de justificar as suas decisões e demonstrar como chega a uma conclusão, é um dos pilares que distingue a reação da antecipação.
A primeira fornece contexto sobre atores, táticas e vulnerabilidades exploradas. A segunda analisa sinais dispersos e prioriza riscos reais. Se uma organização souber que um grupo está a registar domínios semelhantes ao seu ou a distribuir documentos falsos de recursos humanos, pode reforçar as políticas de e-mail, isolar ligações suspeitas e alertar os colaboradores antes de a ameaça se materializar. Antecipar não é uma aspiração teórica: é a evolução natural de uma defesa moderna.
Estar um passo à frente é a chave
No entanto, a adoção da IA não está isenta de riscos e desafios. Sem uma governação clara, pode amplificar enviesamentos ou gerar falsos positivos que paralisem a operação. Por isso, é essencial uma utilização responsável e ética da Inteligência Artificial, assente em quatro princípios: transparência, segurança, controlo humano e proteção de dados. A supervisão humana continua a ser fundamental. Delegar decisões sensíveis sem controlos adequados, por exemplo, em processos de recrutamento ou avaliação de fornecedores, pode comprometer tanto a privacidade como a reputação de uma empresa. Casos recentes de “recrutadores automáticos”, manipulados através de ciberataques de injeção de prompts, demonstram até que ponto sistemas não supervisionados podem ser vulneráveis.
A antecipação vai, assim, muito além da tecnologia. Implica criar uma cultura de segurança que combine inovação, formação contínua e responsabilidade. As organizações devem conhecer a sua pegada digital, reforçar a autenticação com métodos resistentes ao phishing, validar qualquer pedido de pagamento ou alteração de conta bancária através de um canal independente e manter programas de formação que incluam simulações realistas com mensagens e vídeos gerados por IA. O objetivo é que os colaboradores reconheçam sinais de manipulação e os reportem sem receio de represálias.
A colaboração entre pessoas e algoritmos marcará a próxima década da cibersegurança. As IAs defensivas aprenderão a interpretar contextos e a explicar as suas decisões, enquanto as ofensivas aperfeiçoarão a sua capacidade de imitar comportamentos humanos. Nesse equilíbrio, a velocidade, a confiança e a ética serão determinantes. A IA permite chegar mais cedo, ver mais longe e agir com maior precisão — mas apenas se for utilizada de forma responsável. Em última análise, a defesa não depende apenas da potência tecnológica, mas do conhecimento e da capacidade coletiva de antecipar e proteger aquilo que realmente importa.




