Imagine que recebe uma chamada de um membro da família, que parece angustiado e implora que envie dinheiro. A voz é inconfundível e o mais natural será fazer a transferência. Isto para, no final, descobrir que foi enganado. Na realidade, o telefonema que recebeu não foi de um familiar mas antes de uma voz falsa criada através da Inteligência Artificial (IA).
Esta ‘história’ não é o enredo de um filme de ficção científica – na verdade, para milhares de pessoas, é uma realidade.
A nova tecnologia é chamada de ‘deepfake de áudio’ e está acessível por alguns euros – é possível pagar-se a várias empresas para produzir clones de voz de alta qualidade que podem ser convincentes o suficiente para enganar alguém. Um exemplo recente que se tornou viral foi quando os utilizadores do 4chan, um fórum online, terem reproduzido a voz da atriz britânica Emma Watson a ler ‘Mein Kampf’, de Adolf Hitler. Veja o exemplo aqui:
Neste caso foi usada uma ferramenta de clonagem de voz chamado ‘Prime Voice’ da start-up ElevanLabs.
A possibilidade tem preocupado muitos especialistas: essa tecnologia pode ser usada para desinformação – por exemplo, permitir que as pessoas acreditem que um político fez uma declaração chocante que nunca fizeram, ou simplesmente usada para enganar as pessoas, especialmente os idosos. E não requer muito trabalho, de acordo com os especialistas em ciência da computação.
“Não precisam muito da voz para fazer uma reprodução muito boa”, referiu Matthew Wright, presidente de Ciência da Computação do Instituto de Tecnologia de Rochester, dos Estados Unidos, em entrevista à ‘Euronews’. “É fácil imaginar que basta uma chamada, fingem ser um vendedor e capturam apenas o áudio suficiente para que funcione. E isso talvez seja tudo o necessário para enganar alguém”, explicou.
Recentemente, um jornalista da ‘Vice’ conseguiu invadir a sua conta bancária através de uma réplica de IA da sua voz – conseguiu enganar o banco fazendo-o pensar que era ele para aceder às suas transações, o que levanta questões sobre os sistemas biométricas por voz.
New: we proved it could be done. I used an AI replica of my voice to break into my bank account. The AI tricked the bank into thinking it was talking to me. Could access my balances, transactions, etc. Shatters the idea that voice biometrics are foolproof https://t.co/YO6m8DIpqR pic.twitter.com/hsjHaKqu2E
— Joseph Cox (@josephfcox) February 23, 2023
A empresa usada para criar o deepfake de áudio de Emma Watson anunciou que aumentou o preço do seu serviço e começou a verificar manualmente novas contas. Mas os especialistas alertaram que deve ser implementada legislação para evitar tais golpes no futuro.
E como se proteger?
Em primeiro lugar, os especialistas sugeriram que deve estar atento a chamadas inesperadas e urgentes em que peçam dinheiro dos seus entes queridos ou do seu trabalho. Wright sublinhou que deve fazer algumas perguntas pessoais para verificar a sua identidade.
“Tente usar uma fonte diferente, um canal diferente. Invente uma desculpa e diga que precisa de ligar de volta. A seguir, ligue para o número que sabe ser o dele. Assim, os criminosos não receberão a chamada de volta”, recomendou. “Mas, em geral, dê um passo atrás e pense. Certifique-se que faz sentido. Se o seu chefe pedir para comprar 10 vales-presente de 250 dólares, faz algum sentido? Provavelmente, não”, finalizou.






