No fim de março, uma juíza da Califórnia, nos Estados Unidos, impediu o Pentágono de classificar a Anthropic como um risco para a cadeia de suprimentos e de ordenar que agências governamentais deixassem de usar sua Inteligência Artificial. É o desdobramento da disputa, mas a questão ainda não está resolvida: o governo recorreu este mês e venceu nesta semana em um tribunal de apelação, e a Anthropic tem um segundo caso contra a classificação que ainda não foi decidido. Até lá, a empresa continua sendo persona non grata para o Pentágono.
O que está em jogo era evidente desde o início. Até que ponto o governo pode punir uma empresa por não topar seus interesses? A Anthropic atraiu muitos apoiadores de alto escalão, com alianças improváveis entre eles, incluindo ex-autores da política de IA do presidente Donald Trump.
Mas a opinião de 43 páginas da juíza Rita Lin sugere que o que é, na verdade, uma disputa contratual nunca precisou chegar a tal frenesi. Isso aconteceu porque o governo desconsiderou o processo existente de como tais disputas são regidas e alimentou o fogo com postagens em redes sociais de autoridades, o que acabaria contradizendo as posições assumidas no tribunal. O Pentágono, em outras palavras, queria uma guerra cultural, além do conflito real no Irã.
O governo usou o Claude, da Anthropic, durante grande parte de 2025 sem reclamar, de acordo com documentos do tribunal. Enquanto isso, a empresa percorria uma corda bamba na gestão de marca como uma empresa de IA focada em segurança, que também conquistou contratos de defesa. Funcionários que o acessavam por meio da Palantir eram obrigados a aceitar os termos de uma política de uso específica do governo que, segundo o cofundador da Anthropic Jared Kaplan, “proibia vigilância em massa de americanos e guerra autônoma letal”. A declaração de Kaplan ao tribunal não incluía detalhes da política. Somente quando o governo buscou contratar o serviço diretamente com a Anthropic os desacordos começaram.
O que provocou a ira da juíza é que, quando a desavença veio a público, tinha mais a ver com punição do que apenas com romper laços com a Anthropic. E eles seguiam um padrão: tuitar primeiro, recorrer a advogados depois.
A postagem de Trump, no Truth Social, em 27 de fevereiro, fez referência a “malucos de esquerda” na Anthropic e determinou que todas as agências federais deixassem de usar a IA da empresa. Isso foi ecoado pouco depois pelo secretário de Defesa Pete Hegseth, que disse que orientaria o Pentágono a classificar a Anthropic como um risco para a cadeia de suprimentos.
Fazer isso exigia que o secretário adotasse um conjunto específico de medidas, o que a juíza concluiu que Hegseth não cumpriu. Cartas enviadas a comitês do Congresso, por exemplo, afirmavam que medidas menos drásticas foram avaliadas e consideradas inviáveis, sem fornecer quaisquer detalhes adicionais. O governo também disse que a classificação como risco para a cadeia de suprimentos era necessária porque a Anthropic poderia implementar um “kill switch” (desligamento emergencial), mas seus advogados posteriormente tiveram de admitir que não tinham nenhuma evidência disso, escreveu a juíza.
A publicação de Hegseth também afirmava que “nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos pode realizar qualquer atividade comercial com a Anthropic”. Mas os próprios advogados do governo admitiram que o secretário não tem poder para fazer isso, e concordaram com a magistrada que a declaração não tinha “absolutamente nenhum efeito jurídico”.
As publicações agressivas também levaram a juíza a concluir que a Anthropic tinha base sólida ao alegar que seus direitos da Primeira Emenda foram violados. O governo, escreveu ao citar as publicações, “se propôs a punir publicamente a Anthropic por sua ‘ideologia’ e ‘retórica’, bem como por sua ‘arrogância’ ao não querer comprometer essas crenças”.
Classificar a empresa como um risco para a cadeia de suprimentos equivaleria essencialmente a identificá-la como uma “sabotadora” do governo, mas a juíza não viu evidências suficientes para isso. Ela emitiu uma ordem suspendendo a classificação, impedindo o Pentágono de aplicá-la e proibindo o governo de cumprir as promessas feitas por Hegseth e Trump. Dean Ball, que trabalhou na política de IA do governo Trump, mas escreveu um parecer em apoio à empresa, descreveu a decisão da juíza como “devastadora para o governo, concluindo que a Anthropic provavelmente prevalecerá em praticamente todas as suas teses sobre por que as ações do governo foram ilegais e inconstitucionais”.
Mas o outro caso da Anthropic, apresentado em Washington, conta com alegações semelhantes. Ele apenas se refere a um segmento diferente da lei que rege riscos na cadeia de suprimentos.
Os documentos do tribunal traçam um padrão bastante claro. As declarações públicas feitas por autoridades e pelo presidente não estavam de forma alguma alinhadas com o que a lei determina que deve acontecer em uma disputa contratual como essa, e os advogados do governo têm sido consistentemente obrigados a criar justificativas, posteriormente, para os ataques à empresa nas redes sociais.
A liderança do Pentágono e da Casa Branca sabia que recorrer à opção nuclear provocaria uma batalha judicial. A Anthropic prometeu em 27 de fevereiro contestar a classificação como risco para a cadeia de suprimentos dias antes de o governo formalizá-la em 3 de março. Ainda assim, seguir adiante significou que a alta liderança estava, para dizer o mínimo, dividida durante os primeiros cinco dias da guerra no Irã, lançando ataques enquanto também reunia provas de que a Anthropic seria uma sabotadora do governo, quando poderia ter rompido relações com a empresa por meios mais simples.
Mas, mesmo que a empresa acabe vencendo, o governo tem outros meios de afastá-la de trabalhos estatais. Contratados de defesa que desejam manter boas relações com o Pentágono, por exemplo, agora têm poucos motivos para trabalhar com a Anthropic, mesmo que ela não seja classificada como um risco para a cadeia de suprimentos.
“Acho que é seguro dizer que existem mecanismos que o governo pode usar para aplicar algum grau de pressão sem infringir a lei”, diz Charlie Bullock, pesquisador sênior do Institute for Law and AI. “Depende um pouco de quão empenhado o governo está em punir a Anthropic.”
Pelas evidências até agora, está dedicando tempo e atenção para vencer uma guerra cultural em torno da IA. Ao mesmo tempo, o Claude aparentemente é tão importante para suas operações que até o presidente Trump afirmou que o Pentágono precisaria de seis meses para deixar de utilizá-lo. A Casa Branca exige lealdade política e alinhamento ideológico das principais empresas de IA, mas o caso contra a Anthropic, ao menos por enquanto, expõe os limites desse poder de pressão.




