Parece o início de um filme de ficção científica, mas é real: uma equipa de cientistas da Universidade de Stanford, na Califórnia, conseguiu criar vírus infecciosos gerados por inteligência artificial (IA). O avanço foi alcançado com a ajuda do Evo, uma ferramenta de IA capaz de gerar genomas do zero — ou seja, de conceber estruturas genéticas completas sem base em organismos pré-existentes.
Segundo o professor Brian Hie, autor principal do estudo, citado pelo tabloide britânico ‘Daily Mail’, o resultado representa um ponto de viragem na biologia computacional. “O próximo passo é a vida gerada por IA”, afirmou o investigador, sublinhando que os vírus criados não infetam humanos, mas apenas bactérias.
IA criou vírus capazes de destruir bactérias
Os vírus desenvolvidos por IA são bacteriófagos, ou seja, infetam e matam apenas bactérias específicas. No estudo, o modelo Evo foi treinado em milhões de genomas de bacteriófagos e produziu milhares de sequências genéticas novas.
Após análise, 302 vírus foram considerados viáveis, e 16 mostraram capacidade para destruir estirpes da bactéria Escherichia coli (E. coli) — uma das mais comuns causas de infeções em humanos. De acordo com Samuel King, coautor e bioengenheiro em Stanford, “foi um resultado surpreendente e muito encorajador, pois mostra que esta técnica pode ter aplicações terapêuticas no futuro”.
Potencial terapêutico e receios de uso militar
Apesar do potencial médico — nomeadamente no combate a bactérias resistentes a antibióticos —, o estudo gerou fortes preocupações entre especialistas em biotecnologia e cibersegurança. O cientista Eric Horvitz, diretor científico da Microsoft, alertou que “a IA pode ser mal utilizada para projetar biologia”, sublinhando que o design automatizado de proteínas e organismos “exige uma gestão de riscos proativa e criativa”.
O investigador Jonathan Feldman, do Instituto de Tecnologia da Geórgia, reforçou que “não há como esconder os riscos”. E o pioneiro da genómica Craig Venter, de San Diego, declarou ter “graves preocupações” sobre o que poderia acontecer “se alguém aplicasse o mesmo processo a vírus como a varíola ou o antraz”.
Ferramentas abertas e riscos de bioterrorismo
Parte da preocupação reside no facto de as ferramentas de design biológico usadas em IA serem de código aberto, o que dificulta o controlo e a implementação de salvaguardas. Um relatório citado pelo estudo lembra que modelos de IA já conseguem solicitar autonomamente equipamentos de laboratório e projetar proteínas com propriedades específicas, abrindo caminho a possíveis utilizações maliciosas.
“Não estamos preparados para um mundo em que a IA possa criar um vírus funcional”, advertiu Horvitz em declarações ao ‘Washington Post’. Já Tina Hernandez-Boussard, professora da Faculdade de Medicina de Stanford, alertou que os modelos de IA “são inteligentes o suficiente para contornar restrições de segurança” se forem expostos a grandes volumes de dados.
Biologia sintética: promessas e perigos
A investigação insere-se num campo emergente chamado biologia sintética, que combina engenharia genética, IA e ciências computacionais para criar ou modificar organismos. Segundo a ‘MIT Technology Review’, esta área oferece aplicações benéficas — desde o desenvolvimento de novos medicamentos à melhoria da produtividade agrícola —, mas também potencia riscos severos.
Modificações genéticas podem tornar vírus e bactérias mais letais num curto espaço de tempo, e alguns especialistas temem que grupos terroristas ou Estados hostis possam explorar esta tecnologia para criar armas biológicas. O ex-comandante da NATO James Stavridis descreveu a ameaça como “muito alarmante”, admitindo que uma eventual epidemia provocada artificialmente poderia ter efeitos comparáveis à gripe espanhola de 1918. Um relatório da União Europeia publicado em 2015 já alertava para tentativas de grupos extremistas, como o Estado Islâmico, de recrutar cientistas para desenvolver armas biológicas.
Stanford defende medidas de segurança reforçadas
Os autores do estudo, publicado em pré-impressão no ‘bioRxiv’, reconhecem “importantes considerações de biossegurança” e asseguram que o modelo Evo foi sujeito a múltiplos testes de controlo. Ainda assim, os investigadores admitem que a capacidade das IA para aprender de forma autónoma pode exigir regulação internacional urgente. “Estamos a entrar numa nova era da biologia — uma era em que a IA pode criar, manipular e testar a vida”, resumiu Brian Hie. “O desafio será garantir que essa capacidade é usada para curar, e não para destruir.”














