Um tribunal federal de apelações em Washington, D.C. (EUA), negou, nesta quarta-feira (8), o pedido da empresa de inteligência artificial (IA) Anthropic para suspender temporariamente sua inclusão em uma lista de restrições do Departamento de Defesa dos Estados Unidos.
A startup buscava uma decisão que interrompesse os efeitos da classificação imposta pelo Pentágono, alegando riscos financeiros e danos à reputação enquanto o processo judicial segue em andamento. A decisão ocorre após um juiz federal em São Francisco (EUA) ter concedido, no fim do mês passado, uma liminar em um caso separado, impedindo o governo de Donald Trump de aplicar uma proibição ao uso do sistema Claude.
O Departamento de Defesa classificou a Anthropic como um risco à cadeia de suprimentos no início de março, afirmando que o uso da tecnologia da empresa poderia representar uma ameaça à segurança nacional dos Estados Unidos. Com essa designação, contratados do setor de defesa precisam certificar que não utilizam os modelos de IA Claude em atividades relacionadas ao governo.
O que diz o tribunal na decisão
- Na decisão, o tribunal afirmou que o equilíbrio de interesses favorece o governo. “Em nossa visão, o equilíbrio equitativo aqui pende a favor do governo”, diz o documento;
- “De um lado, há um risco relativamente limitado de prejuízo financeiro para uma única empresa privada. Do outro, está a gestão judicial de como, e por meio de quem, o Departamento de Guerra assegura tecnologia vital de IA durante um conflito militar ativo”;
- A Anthropic argumentou que a decisão do Pentágono representa uma forma de retaliação inconstitucional, além de ser arbitrária e incompatível com os procedimentos legais exigidos. A empresa também pediu que o tribunal revisasse a classificação;
- Apesar disso, o tribunal reconheceu que a empresa “provavelmente sofrerá algum grau de dano irreparável na ausência de uma suspensão”, mas avaliou que os interesses da Anthropic são “principalmente de natureza financeira”;
- Sobre a alegação de violação da liberdade de expressão, a corte afirmou que a empresa não demonstrou que sua fala tenha sido restringida durante o andamento do processo.
A decisão do Departamento de Defesa se baseou em duas designações legais distintas, que precisam ser contestadas em tribunais diferentes. Uma delas, prevista na legislação federal 41 U.S.C. § 4713, está sob a jurisdição do tribunal de apelações em Washington.
O processo judicial teve início após semanas de tensão entre a empresa e o governo dos Estados Unidos. Em fevereiro, o secretário de Defesa, Pete Hegseth, declarou publicamente que a Anthropic representava um risco à cadeia de suprimentos. Posteriormente, o Pentágono formalizou a decisão por meio de uma notificação oficial à empresa.
Leia mais:
- Claude.AI: como usar inteligência artificial
- Claude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegue
- Anthropic lança novo modelo de IA para fortalecer cibersegurança

A Anthropic tornou-se a primeira empresa estadunidense a receber esse tipo de classificação, que historicamente era aplicada a adversários estrangeiros.
Pouco antes do anúncio, o presidente Trump publicou em sua rede, a Truth Social, uma ordem para que agências federais interrompessem imediatamente o uso da tecnologia da empresa, com um prazo de seis meses para a retirada completa.
A medida surpreendeu autoridades em Washington, já que a tecnologia da Anthropic havia sido amplamente adotada por diversas agências governamentais. A empresa foi a primeira a implementar seus modelos em redes classificadas do Departamento de Defesa e era reconhecida pela capacidade de integração com contratadas, como a Palantir.
Em julho, a Anthropic firmou um contrato de US$ 200 milhões (R$ 1 bilhão) com o Pentágono. No entanto, as negociações para expandir o uso do sistema Claude na plataforma GenAI.mil, iniciadas em setembro, não avançaram.
O impasse ocorreu porque o Departamento de Defesa exigia acesso irrestrito aos modelos para todos os usos legais, enquanto a Anthropic buscava garantias de que sua tecnologia não seria empregada em armas totalmente autônomas ou em sistemas de vigilância em massa no território doméstico. Sem acordo, a disputa acabou sendo levada à Justiça.
Anthropic vs Pentágono: linha do tempo
11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.
14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.
Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.
24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.
27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.
28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.
24 de março de 2026: Anthropic e governo foram aos tribunais pela primeira vez. Houve uma audiência em um tribunal federal da Califórnia, que deliberou sobre a validade da medida tomada pelo Pentágono.
26 de março de 2026: a juíza distrital Rita Lin barrou a decisão do Pentágono, dizendo que “nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser vista como adversária por simplesmente discordar do governo” e que a medida poderia “paralisar a Anthropic”.
2 de abril de 2026: o governo dos EUA reagiu à decisão da juíza e apelou contra sua decisão, visando manter a determinação contra a Anthropic.
8 de abril de 2026: um tribunal de apelações em Washington D.C. negou a tentativa de reversão da decisão movida pelo Pentágono contra a Anthropic, mantendo a empresa como um risco à cadeia de suprimentos nacional.
O post Anthropic: tribunal nega pedido para suspender decisão do Pentágono apareceu primeiro em Olhar Digital.