IA no centro da guerra: Trump quer usar armas autónomas letais

Claude foi efetivamente utilizado pelo Pentágono através desta parceria numa operação militar de alto impacto: a incursão americana na Venezuela

Francisco Laranjeira

A empresa de inteligência artificial Anthropic está no centro de uma crescente controvérsia com o Departamento de Defesa dos Estados Unidos sobre o uso militar do seu modelo de IA Claude, numa disputa que expõe as tensões entre ética e poder militar no campo da tecnologia avançada, noticiou o jornal ‘El País’.

Em novembro de 2024, a Anthropic e Palantir Technologies anunciaram uma parceria que visava permitir às agências de inteligência e defesa americanas “operacionalizar a utilização de Claude na plataforma de IA da Palantir”, com o objetivo de processar rapidamente grandes volumes de dados complexos, identificar padrões e apoiar a tomada de decisões em situações críticas.



No entanto, várias notícias recentes revelam que Claude foi efetivamente utilizado pelo Pentágono através desta parceria numa operação militar de alto impacto: a incursão americana na Venezuela, que resultou na captura de Nicolás Maduro e na morte de dezenas de pessoas. Embora nunca tenha sido confirmado oficialmente pelo Departamento de Defesa dos EUA, múltiplos relatos noticiados por agências internacionais apontam que o modelo de IA foi empregado na missão de Caracas, o que tem gerado intensos debates sobre o papel da tecnologia em operações de guerra.

Crise com o Pentágono

O uso de Claude em contextos militares acelerados surge apesar da posição pública da própria Anthropic de que não permitirá que a sua IA seja aplicada para operar armas autónomas letais ou para estabelecer sistemas de vigilância em massa. Tal resistência gerou um impasse com os responsáveis do Pentágono. Fontes governamentais indicam que os EUA estão a pressionar a empresa a remover restrições e a permitir que Claude seja utilizado “para todos os fins lícitos” nas redes militares e de defesa do país — incluindo vigilância e aplicações estratégicas.

A tensão intensificou-se a ponto de o Governo americano considerar rever ou até cancelar o contrato de cerca de 200 milhões de dólares com a Anthropic, e de haver ameaças de rotular a empresa como um “risco na cadeia de abastecimento”, uma medida normalmente reservada a entidades estrangeiras de países adversários.

Membros de outras grandes empresas de IA e especialistas da indústria estiveram também a deixar as respetivas companhias em massa, citando preocupações com o rumo que a tecnologia está a tomar — incluindo demissões na xAI de Elon Musk e saídas de figuras proeminentes da Anthropic, que manifestaram receios sobre o uso militarizado da IA.

Esta batalha entre ética e exigências militares insere-se no quadro mais amplo de um debate global sobre quem deve definir as regras de utilização da inteligência artificial avançada, sobretudo quando se trata de aplicações sensíveis que podem ter consequências humanitárias significativas.

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.