Imagens ‘à la Studio Ghibli’ e Action Figures: as novas ‘ratoeiras’ de casos de Data Leaks?

Opinião de João Alves, Head of IT da consultora LTPlabs

André Manuel Mendes

Por João Alves, Head of IT da consultora LTPlabs

No passado dia 25 de março, a OpenAI lançou o Image Generation, o novo gerador de imagens do ChatGPT. Em poucas horas, os feeds das redes sociais de todo o mundo foram inundados com imagens individuais e corporativas com o filtro ‘à la Studio Ghibli’. Logo a seguir, cada um de nós coube numa caixa de plástico virtual de Action Figures.



No entanto, estes fenómenos virais — cujo excesso de procura levou ao crash dos servidores da OpenAI — e aparentemente inofensivos fizeram soar mais uma vez os alertas para as implicações do uso destas ferramentas de Inteligência Artificial Generativa (IA-Gen) em contextos pessoais e sobretudo profissionais.

Isto porque, as milhares de fotos reais que foram inseridas no ChatGPT para este criar as tais imagens divertidas e nostálgicas, assim como os textos que as acompanham, vão agora ficar para sempre em arquivo para treinar (aperfeiçoar) e alimentar as bases de dados que os robots de conversação (chatbots) utilizam para apresentar respostas a qualquer user.

É inquestionável que, desde a sua apresentação, em finais de 2022, o ChatGPT — e outras plataformas de IA — se expandiu de forma rápida e global, tornando-se num recurso valioso para todos. Porém, este acesso democratizado também tem originado em meios académicos e laborais diversos e sucessivos casos de Data Leaks.

 

Samsung e Amazon: grandes fugas de informação por causa do ChatGPT

A primeira situação com dimensão de uma empresa reportar uma fuga de conteúdos relacionada com o ChatGPT foi a Samsung. Em causa estava o facto de alguns colaboradores terem partilhado com este sistema informações confidenciais como: código-fonte (base da programação) de produtos proprietários, atas de reuniões e detalhes de hardware que ainda não tinha sido anunciado.

Estes três episódios comprometedores aconteceram todos num só mês, levando esta grande tecnológica a proibir imediatamente o recurso a este ‘software humanizado’ e, como alternativa, a desenvolver uma solução de Inteligência Artificial Generativa para uso exclusivo das suas equipas.

Outro caso notório foi o da Amazon, que também aboliu o ChatGPT nos seus domínios, uma vez que verificou que as respostas que este robot de conversação devolvia às perguntas de qualquer utilizador sobre a empresa eram muito parecidas com o código-fonte (que é fechado) da própria Amazon, expondo assim assuntos privados.

 

Estudo: mais de metade dos colaboradores partilha conteúdos da empresa em plataformas de IA

Contudo, estes dois gigantes — Samsung e Amazon — não estão sozinhos neste ‘drama’. Um estudo da Cisco de 2025 sobre privacidade e segurança da informação dá conta de que mais de metade dos colaboradores das empresas sujeitas ao questionário insere dados de trabalho (alguns sigilosos) em plataformas de IA.

Em contraponto, e segundo o referido documento, a segunda maior preocupação manifestada pelos inquiridos (profissionais de cibersegurança) é que os assuntos partilhados nestes chatbots sejam sugeridos como resposta a qualquer pessoa, nomeadamente à concorrência.

O trabalho indica ainda que 86% das organizações reconhece o valor significativo que estes companheiros digitais representam no dia a dia. Mas, afinal, como está a reagir o tecido empresarial aos potenciais riscos destas ferramentas? Tipicamente, adotam uma de três abordagens.

 

Como é que as empresas protegem os seus dados em plataformas como o ChatGPT

Um dos posicionamentos mais comuns prende-se com a proibição total, ou seja, com bloquear o acesso a esta tecnologia de Inteligência Artificial Generativa nas redes e nos computadores, porque o perigo de fuga de informação é demasiado elevado.

Outra opção é comprar produtos off-the-shelf com garantias de privacidade, tais como o ChatGPT Enterprise ou o Microsoft 365 Copilot. Isto porque estas subscrições afiançam manter a peugada digital de cada um 100% sigilosa e ainda não fazer uso da mesma para treinar modelos de IA-Gen públicos (como a versão gratuita do ChatGPT).

Por último, soluções híbridas, as quais podem passar por duas situações. Cada empresa criar ‘o seu próprio ChatGPT’ (só estrutura), o qual depois é alimentado pela IA Generativa (conteúdos) alojada em clouds públicas (da Microsoft, Google ou Amazon) que asseguram confidencialidade. Outra possibilidade é usar modelos públicos (como o DeepSeek ou o Llama, pois o ChatGPT é privado), mas a informação de cada entidade estar alojada em clouds privadas.

É certo que sistemas como o ChatGPT são grandes aceleradores da inovação, mas também comportam ameaças. Por isso, cada vez mais, e bem, os organismos estão a dar formação aos colaboradores para que estes compreendam os potenciais problemas de introduzir dados, sobretudo sensíveis, nas mesmas.

Em suma, as tecnologias que integram IA-Gen já revolucionaram, a nível macro e micro, o quotidiano das entidades. Todavia, exigem gestão cuidadosa e regras claras para evitar riscos. Entre a eficiência e a segurança, é fundamental encontrar um ponto de equilíbrio que proteja os ativos mais valiosos de qualquer marca: informação e reputação.

Por isso, é imprescindível que cada um de nós, na esfera privada e laboral, tenha muita atenção e não se deixe seduzir por ‘ratoeiras fofinhas’ como os filtros ‘à la Studio Ghibli’ e Action Figures, pois podem perfeitamente ser a alavanca mascarada dos próximos Data Leaks.

 

 

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.