O primeiro-ministro da Suécia, Ulf Kristersson, está a enfrentar críticas depois de revelar que utiliza regularmente inteligência artificial, nomeadamente o ChatGPT e a plataforma francesa LeChat, como apoio ao seu trabalho enquanto chefe de governo. A confissão foi feita numa entrevista ao jornal económico sueco Dagens Industri, onde o líder do Partido Moderado, que encabeça a coligação de centro-direita, afirmou recorrer à IA com frequência para obter uma “segunda opinião”.
“Uso-a com bastante regularidade. Mesmo que não seja por mais nada, serve para uma segunda opinião. O que fizeram outros? E deveremos pensar no sentido completamente oposto? São esse tipo de questões”, declarou Kristersson.
Embora o primeiro-ministro tenha sugerido que o uso da IA é meramente auxiliar, as suas palavras provocaram uma onda de críticas, tanto por parte de especialistas em tecnologia como na imprensa sueca. Num editorial, o jornal Aftonbladet acusou Kristersson de ter “sucumbido à psicose da IA dos oligarcas”, numa referência crítica à dependência excessiva das elites por tecnologias emergentes sem considerar os impactos sociais e democráticos.
Especialistas alertam para riscos de segurança e perda de discernimento político
A investigadora Simone Fischer-Hübner, professora de informática na Universidade de Karlstad, alertou que a utilização de ferramentas como o ChatGPT pode ser perigosa no tratamento de informações sensíveis. Em declarações ao Aftonbladet, afirmou: “É preciso ter muito cuidado”.
Face às críticas, o porta-voz de Kristersson, Tom Samuelsson, tentou minimizar a polémica, garantindo que o primeiro-ministro não coloca em risco informações confidenciais: “Naturalmente, não se trata de informações sensíveis em matéria de segurança. É usada mais como uma forma de referência genérica”, explicou.
Ainda assim, os avisos da comunidade académica não se ficaram por aí. Virginia Dignum, professora de inteligência artificial responsável na Universidade de Umeå, reforçou que os sistemas de IA não são capazes de formular opiniões políticas significativas, já que apenas refletem os valores e preconceitos de quem os desenvolve.
“Quanto mais se confiar na IA para tarefas simples, maior é o risco de excesso de confiança no sistema. É um caminho escorregadio”, afirmou Dignum ao jornal Dagens Nyheter. E acrescentou: “Temos de exigir que a fiabilidade seja garantida. Nós não votámos no ChatGPT.”














