Anthropic denuncia “precedente perigoso” criado por veto do Pentágono

A Anthropic, criadora do Claude, um dos modelos de inteligência artificial (IA) mais populares, considerou esta sexta-feira que a decisão do Pentágono os vetar por imporem condições ao uso da sua tecnologia “cria um precedente perigoso”.

Executive Digest com Lusa
Fevereiro 28, 2026
4:28

A Anthropic, criadora do Claude, um dos modelos de inteligência artificial (IA) mais populares, considerou esta sexta-feira que a decisão do Pentágono os vetar por imporem condições ao uso da sua tecnologia “cria um precedente perigoso”.


A Anthropic esclareceu num comunicado que está há meses a negociar com o Departamento de Defesa dos Estados Unidos para limitar o uso da sua tecnologia e receber garantias de que a mesma não será usada para vigilância massiva ou para o uso de armas totalmente autónomas.


O secretário norte-americano da Defesa, Pete Hegseth, além de excluir a empresa do processo de contratação do Pentágono, ameaçou designar a Anthropic como um “risco na cadeia de abastecimento”, o que representaria uma grande escalada no “braço-de-ferro” entre a empresa e o Estado, já que esse tipo de designação é reservado para empresas estrangeiras e de países adversários.


“Nenhum nível de intimidação ou punição por parte do Departamento de Guerra irá mudar a nossa posição sobre a vigilância massiva a nível doméstico e armas totalmente automáticas”, indicou a empresa norte-americana no comunicado, referindo-se ao Departamento de Defesa na designação adoptada pela Casa Branca.


“Acreditamos que essa designação não teria fundamento legal e estabeleceria um precedente perigoso para qualquer empresa norte-americana que negocie com o governo”, apontou a empresa.


Na sexta-feira, Hegseth ameaçou classificar as cadeias de abastecimento como “risco” nacional e afirmou que a Anthropic se comportou com “arrogância e traição”, garantindo que a sua posição nunca mudará: “o Departamento de Guerra deve ter acesso total e irrestrito” para defender o país.


O CEO da Anthropic, Dario Amodei, afirmou noutro comunicado que as ameaças de Hegseth “não mudam a posição [da empresa]: não podemos, em boa consciência, alterar as nossas exigências”.


O Presidente dos Estados Unidos, Donald Trump, juntou-se na sexta-feira à disputa entre a Anthrophic e o Pentágono e garantiu que vetará a empresa em todas as agências do governo federal, o que, juntamente com a designação de risco nacional, seria um golpe económico difícil de superar pela ‘start up’.


Trump classificou a Anthropic como uma empresa “da esquerda radical e ‘woke’ [ativista]” e disse que não permitirá que dite como as Forças Armadas devem operar para “ganhar guerras”.


O presidente executivo da OpenAI, Sam Altman, anunciou esta sexta-feira um acordo com o Departamento de Defesa, anunciando que o Pentágono poderá usar seu modelo de IA, com certas “garantias”.


“Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância em massa a nível nacional e a responsabilidade humana no uso da força, incluindo para sistemas de armas autónomos”, escreveu Altman na rede social X.


O Pentágono “aprova esses princípios, reflete-os na sua legislação e política, e nós incorporamo-los no nosso acordo”, acrescentou.


“Também implementaremos garantias técnicas para assegurar que os nossos modelos se comportem como deveriam, o que o Ministério da Guerra também desejava”, continuou o chefe da OpenAI, criador do ChatGPT, usando também a designação do Departamento de Defesa dos Estados Unidos desejada por Trump.


A empresa disponibilizará engenheiros ao Pentágono para garantir a segurança dos modelos de IA que serão implementados “apenas em redes na nuvem”.


Altman disse ter pedido ao Pentágono “para oferecer as mesmas condições a todas as empresas de IA”.


“Expressámos o nosso forte desejo de ver as coisas acalmarem, longe de ações judiciais e governamentais, para chegar a acordos razoáveis”, escreveu.


Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.