Um juiz bloqueou o rótulo da cadeia de abastecimento antrópica do Pentágono?

Um juiz federal suspendeu temporariamente uma disputa de abastecimento de grande visibilidade envolvendo a Anthropic, destacando as crescentes tensões entre o governo dos EUA e os principais fornecedores de IA.

Juiz suspende esforço do Pentágono para colocar Anthropic numa lista negra

Na quinta-feira, um juiz federal de Califórnia bloqueou temporariamente o Pentágono de rotular a Anthropic como um risco para a cadeia de abastecimento e de ordenar que as agências federais deixassem de usar os seus sistemas de IA. A decisão é a mais recente reviravolta numa disputa que já dura há um mês, e o assunto continua por resolver, já que o governo tem agora sete dias para recorrer.

Além disso, a Anthropic está a avançar com um segundo processo a contestar a mesma designação sob uma teoria jurídica diferente, que ainda não foi decidida. Até que esses procedimentos terminem, a empresa continua, na prática, como persona non grata em grande parte do governo federal, apesar da intervenção do juiz.

Uma disputa contratual transforma-se numa guerra cultural de IA

O que está em jogo no caso foi claro desde o início: até que ponto o governo pode ir, ao punir uma empresa que se recusa a “jogar de acordo” em questões políticas sensíveis. Ainda assim, a Anthropic atraiu uma coligação invulgarmente ampla de apoiantes seniores, incluindo antigos autores da política de IA do Presidente Donald Trump, que raramente se alinham com plataformas de Silicon Valley.

No entanto, a opinião de 43 páginas da juíza Rita Lin sugere que o problema subjacente é, essencialmente, uma disputa contratual que nunca precisava de explodir numa guerra cultural mais alargada. A juíza considerou que o governo contornou procedimentos estabelecidos para lidar com disputas desse tipo e, depois, inflamou a situação com publicações nas redes sociais que mais tarde contradisseram posições assumidas em tribunal.

O Pentágono, na prática, sinalizou que queria um confronto político sobreposto à guerra real no Irão, que começou apenas horas depois de algumas das publicações-chave terem entrado em linha. Esta interligação de agendas legais, políticas e militares pesou fortemente na avaliação do tribunal sobre o registo.

Uso da Claude dentro do Pentágono e tensões crescentes

De acordo com peças apresentadas em tribunal, o governo usou a Claude da Anthropic ao longo de 2025 sem levantar queixas significativas. Durante esse período, a empresa tentou equilibrar a sua marca enquanto desenvolvedora de IA focada na segurança com o seu papel de empreiteira de defesa, caminhando o que uma das apresentações descreveu como uma “corda bamba de marca”.

Os funcionários de defesa que acederam à Claude através da Palantir tiveram de aceitar uma política de utilização específica do governo. Num depoimento sob juramento, o cofundador da Anthropic, Jared Kaplan, disse que essa política “proibia a vigilância em massa dos americanos e a guerra autónoma letal”, embora não tenha fornecido o texto completo ao tribunal. Só quando o Pentágono tentou contratar diretamente com a Anthropic é que surgiram desacordos sérios.

Publica primeiro, justifica depois: ameaças públicas de Trump e Hegseth

O que mais enfureceu a juíza foi que, assim que a disputa se tornou pública, as ações do governo pareceram mais uma punição do que uma simples decisão de cortar relações. Além disso, houve um padrão consistente: tweet primeiro, advogado depois.

A 27 de fevereiro, o Presidente Trump publicou no Truth Social referindo-se a “Leftwing nutjobs” na Anthropic e a ordenar que cada agência federal deixasse de usar a sua IA. Pouco depois, o Secretário da Defesa Pete Hegseth fez eco dessa postura, dizendo que instruiria o Pentágono a rotular a empresa como um risco para a cadeia de abastecimento.

Designar formalmente uma empresa como tal exige que o Secretário da Defesa siga uma sequência definida de passos legais estatutários. No entanto, a juíza Lin considerou que Hegseth não concluiu esses passos. Por exemplo, cartas dirigidas a comissões do Congresso alegaram que medidas menos drásticas tinham sido avaliadas e consideradas impossíveis, mas não apresentaram qualquer detalhe factual para apoiar essa alegação.

O governo também argumentou que o rótulo de risco para a cadeia de abastecimento era necessário porque a Anthropic poderia implantar um “kill switch” para desativar os seus sistemas. Contudo, sob interrogatório, os seus advogados admitiram que não havia evidência de uma capacidade desse tipo, de acordo com a opinião. Essa contradição enfraqueceu ainda mais o caso do Pentágono.

Autoridade legal vs mensagem política

A publicação nas redes sociais de Hegseth afirmou que “nenhum empreiteiro, fornecedor ou parceiro que faça negócios com o exército dos Estados Unidos pode realizar qualquer atividade comercial com a Anthropic”. Os próprios advogados do governo acabaram por reconhecer na terça-feira que o Secretário não tem, na realidade, a autoridade para fazer uma proibição tão abrangente.

A juíza e os advogados do Departamento de Justiça concordaram que a proibição genérica de Hegseth não tinha “absolutamente nenhum efeito jurídico”. No entanto, o tom agressivo dessas publicações levou a juíza Lin a concluir que a Anthropic tinha uma queixa credível ao abrigo da Primeira Emenda. O tribunal considerou que os responsáveis tinham efetivamente pretendido punir publicamente a empresa pela sua “ideologia” e “retórica”, bem como pelo que chamaram de a sua “arrogância” por se recusar a chegar a compromissos.

Ao rotular a Anthropic como um risco para a cadeia de abastecimento, a juíza escreveu, seria o equivalente a marcá-la como uma “saboteadora” do governo dos EUA. Ela considerou que as provas eram insuficientes para suportar essa acusação e, em conformidade, emitiu, na quinta-feira passada, uma ordem que suspendeu a designação, bloqueando o Pentágono de a aplicar, e proibindo o governo de cumprir as promessas abrangentes feitas por Hegseth e Trump.

Uma decisão “devastadora” e um segundo processo em DC

Dean Ball, que ajudou a conceber a política de IA na administração Trump mas apresentou um parecer a apoiar a Anthropic, descreveu a decisão como “uma decisão devastadora para o governo”. Disse que o tribunal considerou que a Anthropic provavelmente venceria em quase todas as suas teses de que as ações do governo eram ilegais e inconstitucionais.

Espera-se amplamente que a administração recorra da decisão da Califórnia. Ao mesmo tempo, a Anthropic está a pressionar um processo separado em Washington, DC, que levanta alegações semelhantes, mas cita uma parte diferente do estatuto que rege os riscos para a cadeia de abastecimento. Em conjunto, os casos poderão definir até onde é que os funcionários federais podem ir na retaliação contra fornecedores de IA cujas opiniões não gostam.

Padrão de retórica pública e “reconstituição” jurídica

Os documentos do tribunal descrevem um padrão consistente em que declarações públicas de altos responsáveis e do Presidente não correspondiam ao que a lei exige num litígio contratual. Além disso, os advogados do governo tiveram de construir repetidamente justificações jurídicas, a posteriori, para ataques anteriores nas redes sociais à empresa.

Os líderes do Pentágono e da Casa Branca sabiam que prosseguir a opção mais extrema acabaria inevitavelmente por despoletar litígios. A 27 de fevereiro, a Anthropic prometeu publicamente contestar qualquer rótulo de risco para a cadeia de abastecimento, dias antes de o governo ter apresentado formalmente a designação a 3 de março. Esse calendário mostra que, mesmo enquanto a guerra no Irão se desencadeava, a liderança sénior escolheu avançar.

Durante os primeiros cinco dias do conflito, os responsáveis estavam simultaneamente a supervisionar ataques militares e a reunir provas para retratar a Anthropic como uma saboteadora. Contudo, a juíza assinalou que o Pentágono poderia ter simplesmente terminado o seu negócio com a empresa através de passos de contratação muito menos dramáticos e muito mais convencionais.

Consequências para a Anthropic e para o setor mais alargado de IA

Mesmo que a Anthropic vença finalmente os dois processos, a decisão deixa claro que Washington ainda tem formas informais de afastar a empresa do trabalho governamental futuro. Os empreiteiros de defesa que dependem do Pentágono para receitas têm agora pouco incentivo para fazer parceria com a Anthropic, mesmo que ela nunca seja oficialmente listada como um risco para a cadeia de abastecimento.

“Penso que é seguro dizer que existem mecanismos que o governo pode usar para aplicar algum grau de pressão sem violar a lei”, disse Charlie Bullock, investigador sénior do Institute for Law and AI. Dito isto, ele sublinhou que muito depende de o quanto a administração está empenhada em punir a Anthropic por causa desta disputa.

Pelas provas até agora, a administração está a dedicar tempo e atenção de topo para vencer o que equivale a uma guerra cultural de IA. Ao mesmo tempo, a Claude parece central o suficiente para as operações do Pentágono para que o próprio Presidente Trump tenha dito que o Departamento de Defesa precisava de seis meses para a descontinuar. Essa contradição enfraquece a narrativa de que a designação de risco para a cadeia de abastecimento da Anthropic era puramente sobre segurança.

Limites da capacidade de influência do governo sobre fornecedores de IA

O caso também destaca os esforços da Casa Branca para exigir lealdade política e alinhamento ideológico das principais empresas de IA. No entanto, o conflito com a Anthropic expõe os limites dessa influência, pelo menos quando ameaças públicas colidem com regras formais de contratação e proteções constitucionais.

Além disso, a disputa envia um sinal claro a outros fornecedores de IA que estão a construir ferramentas para agências de segurança nacional. A retórica pública agressiva pode não resistir ao escrutínio judicial se não for respaldada por evidência e por um processo formal. Os tribunais parecem dispostos a fazer cumprir essa linha com mais rigor à medida que a IA se torna essencial para as operações de defesa dos EUA.

Por agora, a Anthropic mantém-se numa posição precária: reforçada legalmente por uma decisão inicial forte, mas vulnerável comercialmente a uma lista negra silenciosa em todo o ecossistema de defesa. O resultado dos seus processos paralelos vai moldar não só o seu futuro, mas também os contornos do poder do governo na era da IA.

Se tiver informação sobre o uso de IA pelo setor militar, pode partilhá-la em segurança via Signal (username jamesodonnell.22).

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar