Recebeu uma chamada telefónica de um familiar aflito a pedir dinheiro? Cuidado, pode ser a IA a fazê-lo cair num esquema criminoso

Nova tecnologia é chamada de ‘deepfake de áudio’ e está acessível por alguns euros – é possível pagar-se a várias empresas para produzir clones de voz de alta qualidade que podem ser convincentes o suficiente para enganar alguém

Francisco Laranjeira

Imagine que recebe uma chamada de um membro da família, que parece angustiado e implora que envie dinheiro. A voz é inconfundível e o mais natural será fazer a transferência. Isto para, no final, descobrir que foi enganado. Na realidade, o telefonema que recebeu não foi de um familiar mas antes de uma voz falsa criada através da Inteligência Artificial (IA).

Esta ‘história’ não é o enredo de um filme de ficção científica – na verdade, para milhares de pessoas, é uma realidade.



A nova tecnologia é chamada de ‘deepfake de áudio’ e está acessível por alguns euros – é possível pagar-se a várias empresas para produzir clones de voz de alta qualidade que podem ser convincentes o suficiente para enganar alguém. Um exemplo recente que se tornou viral foi quando os utilizadores do 4chan, um fórum online, terem reproduzido a voz da atriz britânica Emma Watson a ler ‘Mein Kampf’, de Adolf Hitler. Veja o exemplo aqui:

Neste caso foi usada uma ferramenta de clonagem de voz chamado ‘Prime Voice’ da start-up ElevanLabs.

A possibilidade tem preocupado muitos especialistas: essa tecnologia pode ser usada para desinformação – por exemplo, permitir que as pessoas acreditem que um político fez uma declaração chocante que nunca fizeram, ou simplesmente usada para enganar as pessoas, especialmente os idosos. E não requer muito trabalho, de acordo com os especialistas em ciência da computação.

“Não precisam muito da voz para fazer uma reprodução muito boa”, referiu Matthew Wright, presidente de Ciência da Computação do Instituto de Tecnologia de Rochester, dos Estados Unidos, em entrevista à ‘Euronews’. “É fácil imaginar que basta uma chamada, fingem ser um vendedor e capturam apenas o áudio suficiente para que funcione. E isso talvez seja tudo o necessário para enganar alguém”, explicou.

Recentemente, um jornalista da ‘Vice’ conseguiu invadir a sua conta bancária através de uma réplica de IA da sua voz – conseguiu enganar o banco fazendo-o pensar que era ele para aceder às suas transações, o que levanta questões sobre os sistemas biométricas por voz.

A empresa usada para criar o deepfake de áudio de Emma Watson anunciou que aumentou o preço do seu serviço e começou a verificar manualmente novas contas. Mas os especialistas alertaram que deve ser implementada legislação para evitar tais golpes no futuro.

E como se proteger?

Em primeiro lugar, os especialistas sugeriram que deve estar atento a chamadas inesperadas e urgentes em que peçam dinheiro dos seus entes queridos ou do seu trabalho. Wright sublinhou que deve fazer algumas perguntas pessoais para verificar a sua identidade.

“Tente usar uma fonte diferente, um canal diferente. Invente uma desculpa e diga que precisa de ligar de volta. A seguir, ligue para o número que sabe ser o dele. Assim, os criminosos não receberão a chamada de volta”, recomendou. “Mas, em geral, dê um passo atrás e pense. Certifique-se que faz sentido. Se o seu chefe pedir para comprar 10 vales-presente de 250 dólares, faz algum sentido? Provavelmente, não”, finalizou.

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.