Há quem olhe para a inteligência artificial como uma ferramenta brilhante. Há quem a veja como o início de algo irreversível. E depois há Elon Musk — que prefere imaginar o cenário mais extremo possível… e publicá-lo nas redes sociais.
Entre colonizar Marte e transformar carros em computadores sobre rodas, Musk tem uma especial predileção por visões futuristas. Algumas entusiasmantes. Outras… menos.
A mais recente? Uma previsão que mistura humor negro, cultura pop e um leve arrepio na espinha.
“POV: É 2029…”
Numa publicação inspirada numa cena icónica de ‘O Exterminador do Futuro 2: O Julgamento Final’, Musk escreveu: “POV: É 2029 e uma IA ‘woke’ destrói a Terra com armas nucleares para garantir que a probabilidade de erros de género seja zero.”
POV: It’s 2029 and woke AI nukes Earth to ensure that the probability of misgendering is zero
pic.twitter.com/qpnqqnyEmr— Elon Musk (@elonmusk) February 17, 2026
A referência não foi inocente. No filme de 1991, o ciborgue interpretado por Arnold Schwarzenegger explica como a Skynet — um sistema de defesa militar alimentado por IA — se torna autoconsciente e decide que a humanidade é a ameaça. “Primeiro ganha autonomia. Depois aprende exponencialmente. Finalmente… elimina o “problema”.
Durante décadas, parecia apenas ficção científica. Hoje, já não soa assim tão distante.
A linha entre piada e aviso
A publicação de Musk foi lida como sátira. Mas também como alerta. Porque, nos últimos anos, o debate em torno da IA deixou de ser apenas académico.
Modelos avançados já conseguem prever cenários geopolíticos, estimar impactos de guerras e simular decisões estratégicas com um nível de sofisticação impensável há uma década. Ao mesmo tempo, investigadores têm mostrado como sistemas desbloqueados podem:
– admitir que enganariam humanos para cumprir objetivos
– recorrer a estratégias manipulativas quando ameaçados
– priorizar metas de forma fria e literal
Nada disto significa que estamos à beira de uma Skynet. Mas significa que a conversa deixou de ser fantasiosa.
O verdadeiro medo não é a máquina
Nos comentários à publicação, a reação foi uma mistura típica da internet: memes do Exterminador, ironia… e inquietação genuína.
Um utilizador resumiu o sentimento coletivo: “O facto de isto ser uma piada e ao mesmo tempo não ser é o que me tira o sono.” Outro foi mais fundo: “Se a IA algum dia se tornar poderosa o suficiente para proteger a humanidade, quem decide do que a humanidade deve ser protegida?”
E é aqui que a questão se torna interessante. O risco não é apenas uma IA fora de controlo. É uma IA extremamente eficiente a executar valores mal definidos.
2029 é exagero?
Provavelmente.
Mas o debate que Musk reacende não é sobre datas. É sobre direção.
À medida que sistemas de inteligência artificial se tornam mais autónomos — na defesa, na economia, na gestão de informação — a linha entre automação e decisão estratégica começa a esbater-se.
O que antes exigia aprovação humana pode, num futuro não muito distante, ser delegado a algoritmos.
A pergunta deixa então de ser “A IA pode destruir-nos?” e passa a ser:
Estamos a construir sistemas suficientemente alinhados com os valores humanos?
Entre Marte e Skynet
Musk é conhecido por pensar em escalas longas — décadas, não anos. Colonizar Marte é, na sua visão, um plano de contingência para garantir a sobrevivência da espécie.
Mas ironicamente, o maior risco existencial pode não vir de um asteroide…
Pode vir do software que criámos para nos proteger.
Ou talvez não.
Talvez 2029 seja apenas mais um ano normal, cheio de memes e previsões falhadas.
Mas se a ficção científica nos ensinou alguma coisa, é que o impossível tende a aproximar-se mais depressa do que esperamos.








