O Príncipe da Nigéria voltou e está mais persuasivo
Por Rui Lopes, Principal AI Engineer na Critical Software
Correndo o risco de parecer repetitivo, mas porque nunca é demais relembrar – a tecnologia está a avançar a um ritmo alucinante e a infiltrar-se nos mais pequenos detalhes. Diariamente, surgem novas ferramentas que prometem tornar a rotina das pessoas e a gestão das empresas mais fáceis sendo muitas destas impulsionadas por inteligência artificial (IA) e com capacidade para transformar setores inteiros. Gradualmente, e sem nos apercebermos, tornamo-nos quase dependentes desta tecnologia. Ao mesmo tempo, surgem riscos impossíveis de ignorar, principalmente ao nível da cibersegurança.
Muitos se lembrarão dos esquemas de email com o “Príncipe da Nigéria”, que nos tornaria a todos ricos. Embora uma personagem pouco convincente com uma escrita repleta de erros ortográficos e gramaticais, ele está de volta e, desta vez, não só sabe escrever bem como também se tornou poliglota. O mais preocupante é que o Príncipe da Nigéria já não é o nosso maior problema, já que os golpes modernos não recorrem apenas a meios escritos e são cada vez mais difíceis de detetar.
A IA, apesar de indiscutivelmente promissora, enfrenta grandes desafios quando o assunto são questões de segurança que põem em causa dados pessoais, investimentos ou outro tipo de informação confidencial. É verdade que temos algoritmos que conseguem identificar padrões e prevenir diversas fraudes, mas os ataques cibernéticos e os seus autores estão cada vez mais elaborados. Tome-se como exemplo os deepfakes, vídeos e áudios falsificados com uma precisão surpreendente que confundem tanto humanos como máquinas.
Os exemplos podem ser desconcertantes. Ainda este ano, uma empresa com escritório em Hong Kong foi vítima de um golpe em que numa videochamada populada com deepfakes de vários colegas de trabalho, a vítima foi levada a transferir 25 milhões de dólares para contas bancárias de criminosos cibernéticos – uma ordem do falso Diretor Financeiro. E tudo começou com um tradicional email de phishing (o método mais usado de acordo com diversos relatórios de cibersegurança).
Estes tipo de ataques estão a tornar-se mais frequentes à medida que os criminosos cibernéticos se aproveitam da evolução tecnológica para explorar vulnerabilidades humanas e digitais. A proliferação de vídeos deepfake e outros adulterados com o intuito de manipular a opinião pública, já é uma realidade.
Mas por que é que é tão difícil identificar estas ameaças? Há uma evolução constante dos métodos usados, à medida que os atacantes têm acesso a novas tecnologias e inventam novas formas de explorar vulnerabilidades conhecidas. É o jogo do gato e do rato.
Também as tentativas de regulamentação focadas em travar o desenvolvimento de IA estão condenadas a falhar. O único caminho viável é a regulamentação das aplicações da tecnologia. Permitam-me uma analogia com a fissão nuclear. Esta tecnologia permitiu o desenvolvimento da bomba de hidrogénio. No entanto, também nos permite ter reatores nucleares para produzir energia elétrica em grande escala (cuja procura aumentou drasticamente por causa da IA). Curiosamente, a produção de energia elétrica através de fusão nuclear (a parte realmente destrutiva da bomba de hidrogénio) provavelmente só será alcançada com a ajuda de técnicas de IA.
O facto de estarmos cada vez mais dependentes de soluções de IA representa um risco. No entanto, a solução não passa por desencorajar o uso desta tecnologia e tentar travar o progresso tecnológico. Tem sim de haver um equilíbrio entre a supervisão e astúcia humana e a tecnologia. Imagine-se um cenário onde uma empresa automatiza totalmente o seu sistema de cibersegurança, confiando cegamente em algoritmos para detetar e bloquear qualquer tipo de ameaça. Esta aposta pode levar a uma falsa sensação de segurança. Quando os sistemas falham – como já vimos que falham – sem a mão humana para intervir, as consequências podem ser devastadoras.
Enquanto a tecnologia avança, também nós devemos preocupar-nos em evoluir na forma como a regulamos e utilizamos. Afinal, o que está em jogo não é apenas a segurança dos nossos sistemas, mas a confiança que temos no mundo digital. O Príncipe da Nigéria pode ter voltado à escola e aprendido toda uma panóplia de novos truques, mas cabe-nos a nós garantir que estamos preparados e devidamente informados para navegar os mares tumultuosos do oceano cibernético.