‘Armagedom artificial’? Estudo revela como a IA pode agora ser usada para criar vírus totalmente novos

Equipa de cientistas da Universidade de Stanford, na Califórnia, conseguiu criar vírus infecciosos gerados por inteligência artificial (IA)

Francisco Laranjeira
Outubro 11, 2025
19:30

Parece o início de um filme de ficção científica, mas é real: uma equipa de cientistas da Universidade de Stanford, na Califórnia, conseguiu criar vírus infecciosos gerados por inteligência artificial (IA). O avanço foi alcançado com a ajuda do Evo, uma ferramenta de IA capaz de gerar genomas do zero — ou seja, de conceber estruturas genéticas completas sem base em organismos pré-existentes.

Segundo o professor Brian Hie, autor principal do estudo, citado pelo tabloide britânico ‘Daily Mail’, o resultado representa um ponto de viragem na biologia computacional. “O próximo passo é a vida gerada por IA”, afirmou o investigador, sublinhando que os vírus criados não infetam humanos, mas apenas bactérias.

IA criou vírus capazes de destruir bactérias

Os vírus desenvolvidos por IA são bacteriófagos, ou seja, infetam e matam apenas bactérias específicas. No estudo, o modelo Evo foi treinado em milhões de genomas de bacteriófagos e produziu milhares de sequências genéticas novas.

Após análise, 302 vírus foram considerados viáveis, e 16 mostraram capacidade para destruir estirpes da bactéria Escherichia coli (E. coli) — uma das mais comuns causas de infeções em humanos. De acordo com Samuel King, coautor e bioengenheiro em Stanford, “foi um resultado surpreendente e muito encorajador, pois mostra que esta técnica pode ter aplicações terapêuticas no futuro”.

Potencial terapêutico e receios de uso militar

Apesar do potencial médico — nomeadamente no combate a bactérias resistentes a antibióticos —, o estudo gerou fortes preocupações entre especialistas em biotecnologia e cibersegurança. O cientista Eric Horvitz, diretor científico da Microsoft, alertou que “a IA pode ser mal utilizada para projetar biologia”, sublinhando que o design automatizado de proteínas e organismos “exige uma gestão de riscos proativa e criativa”.

O investigador Jonathan Feldman, do Instituto de Tecnologia da Geórgia, reforçou que “não há como esconder os riscos”. E o pioneiro da genómica Craig Venter, de San Diego, declarou ter “graves preocupações” sobre o que poderia acontecer “se alguém aplicasse o mesmo processo a vírus como a varíola ou o antraz”.

Ferramentas abertas e riscos de bioterrorismo

Parte da preocupação reside no facto de as ferramentas de design biológico usadas em IA serem de código aberto, o que dificulta o controlo e a implementação de salvaguardas. Um relatório citado pelo estudo lembra que modelos de IA já conseguem solicitar autonomamente equipamentos de laboratório e projetar proteínas com propriedades específicas, abrindo caminho a possíveis utilizações maliciosas.

“Não estamos preparados para um mundo em que a IA possa criar um vírus funcional”, advertiu Horvitz em declarações ao ‘Washington Post’. Já Tina Hernandez-Boussard, professora da Faculdade de Medicina de Stanford, alertou que os modelos de IA “são inteligentes o suficiente para contornar restrições de segurança” se forem expostos a grandes volumes de dados.

Biologia sintética: promessas e perigos

A investigação insere-se num campo emergente chamado biologia sintética, que combina engenharia genética, IA e ciências computacionais para criar ou modificar organismos. Segundo a ‘MIT Technology Review’, esta área oferece aplicações benéficas — desde o desenvolvimento de novos medicamentos à melhoria da produtividade agrícola —, mas também potencia riscos severos.

Modificações genéticas podem tornar vírus e bactérias mais letais num curto espaço de tempo, e alguns especialistas temem que grupos terroristas ou Estados hostis possam explorar esta tecnologia para criar armas biológicas. O ex-comandante da NATO James Stavridis descreveu a ameaça como “muito alarmante”, admitindo que uma eventual epidemia provocada artificialmente poderia ter efeitos comparáveis à gripe espanhola de 1918. Um relatório da União Europeia publicado em 2015 já alertava para tentativas de grupos extremistas, como o Estado Islâmico, de recrutar cientistas para desenvolver armas biológicas.

Stanford defende medidas de segurança reforçadas

Os autores do estudo, publicado em pré-impressão no ‘bioRxiv’, reconhecem “importantes considerações de biossegurança” e asseguram que o modelo Evo foi sujeito a múltiplos testes de controlo. Ainda assim, os investigadores admitem que a capacidade das IA para aprender de forma autónoma pode exigir regulação internacional urgente. “Estamos a entrar numa nova era da biologia — uma era em que a IA pode criar, manipular e testar a vida”, resumiu Brian Hie. “O desafio será garantir que essa capacidade é usada para curar, e não para destruir.”

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.