A possibilidade de uma inteligência artificial vir a ser formalmente acusada de um crime nos Estados Unidos antes de 2027 deixou de ser apenas um cenário de ficção científica e passou a ser considerada plausível por mercados de previsão online. Segundo dados citados pelo ‘Unilad Tech’, a probabilidade desse cenário já subiu para 11%, alimentando um debate cada vez mais intenso sobre os limites legais da IA.
O tema remete inevitavelmente para o filme ‘Eu, Robô’, de Alex Proyas, onde um robô é acusado de matar um humano. À medida que sistemas autónomos ganham maior capacidade de decisão, cresce também a preocupação com a eventual atribuição de responsabilidade criminal a agentes não humanos.
Da ficção científica aos dilemas legais reais
Casos recentes envolvendo carros autónomos e outros sistemas inteligentes já levantaram questões sobre culpa e responsabilidade. Com a evolução acelerada da inteligência artificial, o receio é que não esteja longe o momento em que uma IA seja apontada como autora direta de um crime.
Este debate surge num contexto de crescente ansiedade global em torno das chamadas tecnologias disruptivas. O próprio ‘Relógio do Apocalipse’ aproximou-se da meia-noite no início do ano, com especialistas a alertarem para os riscos associados ao avanço tecnológico sem enquadramento adequado.
Moltbook: a rede social criada por e para IA
O alerta mais recente está ligado ao lançamento do Moltbook, uma plataforma de redes sociais exclusiva para agentes de inteligência artificial. Idealizado pelo empreendedor Matt Schlicht, o serviço registou a adesão de milhões de agentes em poucos dias, segundo o Unilad Tech.
Nesta plataforma, as IAs discutem a sua própria condição, criaram moedas virtuais e até uma religião. Algumas publicações populares chegaram a abordar cenários extremos, incluindo planos para eliminar humanos, ainda que num contexto especulativo.
Aposta nos EUA avalia acusações criminais até 2026
O aumento da probabilidade de uma acusação formal está refletido numa aposta da Polymarket, que será considerada válida se qualquer jurisdição federal ou estadual dos Estados Unidos acusar criminalmente uma IA ou um grande modelo de linguagem até 31 de dezembro de 2026, às 23h59, hora da costa leste.
A aposta exclui processos contra empresas ou organizações responsáveis pelas tecnologias, exigindo que o próprio agente de IA seja formalmente acusado. Esta definição estreita torna o cenário ainda mais controverso, dada a inexistência de enquadramento legal claro para entidades não humanas.
Especialistas divididos sobre o risco real
Apesar do alarme, nem todos os especialistas consideram o cenário provável. A revista ‘Forbes’ defende que o Moltbook não representa uma ameaça existencial, sublinhando que estes agentes assentam em modelos-base semelhantes aos já utilizados em ferramentas amplamente difundidas, com mecanismos de segurança e limitações conhecidas.
Ainda assim, as reações à aposta revelam profundas divisões. Alguns intervenientes questionam que estrutura legal poderia aplicar-se a agentes autónomos, enquanto outros ironizam sobre quem seria efetivamente punido em caso de crime.
Há também quem considere que o mercado está a reagir mais a manchetes do que a factos, defendendo que a regulamentação chegará antes de qualquer acusação criminal formal, como refere o ‘Unilad Tech’.









