Uma aplicação popular de aprendizagem de inglês no Japão deixou expostos dados sensíveis de milhões de utilizadores, incluindo gravações de voz, num caso que levanta novos alertas sobre os riscos da inteligência artificial. A investigação do ‘Cybernews’ revela que a app Abceed, amplamente usada para treinar a pronúncia, expôs um enorme volume de ficheiros online devido a uma falha de configuração na cloud.
De acordo com o ‘Cybernews’, estavam acessíveis mais de 46 milhões de ficheiros — num total de cerca de 10 terabytes — sendo a grande maioria gravações privadas de utilizadores a praticar inglês. A aplicação, desenvolvida pela empresa japonesa Globee Inc., conta com cerca de cinco milhões de utilizadores e lidera o segmento educativo no Japão, além de parcerias com gigantes como Paramount e Sony Pictures Entertainment.
Vozes podem tornar-se “arma” para burlas com IA
O problema vai muito além da exposição de dados. Num contexto em que a inteligência artificial permite clonar vozes com poucos segundos de áudio, estas gravações tornam-se um recurso valioso para cibercriminosos. O ‘Cybernews’ alerta que este tipo de base de dados é um verdadeiro “tesouro” para ataques sofisticados.
Os investigadores explicam que os ficheiros podem ser usados para criar esquemas de phishing por voz (vishing), nos quais os atacantes imitam familiares, colegas ou superiores hierárquicos para pedir dinheiro ou acesso a contas. Além disso, características como sotaque, emoção ou nível de fluência podem ser exploradas para criar perfis falsos altamente credíveis, usados em burlas como sextorsão ou os chamados esquemas de “pig butchering”.
Há ainda outro risco menos óbvio: muitas gravações podem incluir sons de fundo — conversas privadas, ruídos domésticos ou ambientes de escritório — aumentando a exposição de informação sensível.
Biometria em risco: quando a voz deixa de ser segura
Com o avanço da tecnologia, a voz passou a ser utilizada como método de autenticação em bancos e serviços governamentais. No entanto, este tipo de fuga de dados pode comprometer esse sistema. Segundo o ‘Cybernews’, gravações de alta qualidade podem ser manipuladas por IA para contornar sistemas de reconhecimento vocal, permitindo acessos indevidos a contas.
Falha foi corrigida, mas empresa mantém silêncio
Após a descoberta, os investigadores contactaram a empresa responsável e a falha foi corrigida. Ainda assim, até ao momento, não foi divulgado qualquer comentário oficial por parte da Globee Inc., nem esclarecido o impacto real da exposição.
Mais adiante, o ‘Cybernews’ sublinha que este caso faz parte de um problema mais amplo: aplicações de IA, especialmente em Android, continuam vulneráveis. A análise indica que 72% das apps avaliadas continham pelo menos um “segredo” exposto no código, como chaves de API ou identificadores de cloud, evidenciando práticas de segurança deficientes.
Como se proteger de ataques com clonagem de voz
Perante este cenário, os especialistas recomendam medidas simples mas eficazes. Definir uma “frase secreta” entre familiares pode ajudar a validar pedidos urgentes. Em caso de chamada suspeita, o melhor é desligar e contactar a pessoa diretamente através de um número conhecido. Já nos serviços que utilizam autenticação por voz, a recomendação é optar por métodos mais seguros, como autenticação multifator.
Inteligência artificial aumenta risco — e exige nova literacia digital
Este episódio mostra como ferramentas criadas para facilitar a aprendizagem podem ter consequências inesperadas num mundo dominado pela IA. A voz, que sempre foi vista como um identificador pessoal único, está a tornar-se um novo campo de batalha digital — e a segurança depende cada vez mais da atenção dos próprios utilizadores.




