Uma juíza federal dos Estados Unidos determinou o bloqueio temporário de uma medida do Pentágono que classificava a empresa de inteligência artificial (IA) Anthropic como um “risco à cadeia de suprimentos para a segurança nacional”.
A decisão foi proferida pela juíza distrital Rita Lin, que apontou indícios de que a medida teria caráter punitivo. Segundo ela, “o registro sustenta uma inferência de que a Anthropic está sendo punida por criticar a posição de contratação do governo na imprensa”.
Na avaliação da magistrada, a ação do governo pode configurar retaliação ilegal com base na Primeira Emenda da Constituição dos Estados Unidos. “Punir a Anthropic por trazer escrutínio público à posição de contratação do governo é um caso clássico de retaliação ilegal da Primeira Emenda”, escreveu.
A decisão judicial ocorre após audiências realizadas no início desta semana e estabelece que a ordem de bloqueio temporário entre em vigor dentro de sete dias.
Leia mais:
- Claude.AI: como usar inteligência artificial
- Como migrar do ChatGPT para o Claude e levar seus dados
- Claude agora usa seu computador para executar tarefas

Anthropic vs Pentágono: linha do tempo
11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.
14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.
Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.
24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.
27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.
28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.
24 de março de 2026: Anthropic e governo foram aos tribunais pela primeira vez. Houve uma audiência em um tribunal federal da Califórnia, que deliberou sobre a validade da medida tomada pelo Pentágono.
O post Anthropic: juíza barra medida do Pentágono contra empresa apareceu primeiro em Olhar Digital.