Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A luta pelo poder entre empresas de IA e o governo nos EUA está a entrar numa nova fase. Em março de 2026, um juiz federal suspendeu temporariamente a tentativa do Pentágono de classificar a Anthropic, uma das principais empresas de IA, como uma "ameaça à segurança nacional". A decisão não só questionou o destino de uma única empresa, mas também reabriu o debate sobre os limites das relações entre o governo e a tecnologia.
Contexto da crise: IA entra no campo de batalha
A crise decorre do desejo do Departamento de Defesa dos EUA de usar de forma mais ampla o modelo de IA da Anthropic, Claude, em operações militares. No entanto, a empresa opôs-se ao uso da sua tecnologia em vigilância em massa e sistemas de armas autónomas.
Esta postura ética agravou as tensões entre o Pentágono e a empresa. No início de março, o Departamento de Defesa declarou a Anthropic como um "risco na cadeia de abastecimento", tentando restringir tanto agências federais quanto contratantes militares de trabalharem com a empresa.
Este movimento marcou a primeira vez na história dos EUA que uma empresa tecnológica nacional foi colocada nesta categoria.
Decisão Judicial: Ênfase na "Punição"
Num caso ouvido num tribunal federal na Califórnia, a juíza Rita Lin decidiu que a decisão do Pentágono pode ser ilegal e suspendeu temporariamente a sua implementação.
Segundo a juíza Lin, a ação do governo parece mais uma retaliação à crítica pública da empresa do que uma preocupação de segurança nacional.
Uma declaração notável na decisão do tribunal pode ser resumida assim:
Não há base legal para rotular uma empresa como "potencial inimigo" simplesmente por se opor às políticas do governo.
A decisão não impede o Pentágono de deixar de trabalhar com a Anthropic; no entanto, suspende a sua rotulagem generalizada da empresa como uma "ameaça".
Impactos Económicos e Estratégicos
A Anthropic argumentou que a decisão do Pentágono poderia levar a perdas de bilhões de dólares em negócios e danos reputacionais significativos.
De facto, os modelos de IA da empresa já estavam a ser utilizados em alguns sistemas críticos do exército dos EUA. Relatórios indicam até que Claude esteve envolvido em processos sensíveis, como operações militares no Irã.
Esta situação também demonstra o quão praticamente difícil é para o Pentágono remover completamente a empresa do sistema. De facto, o Departamento de Defesa chegou a considerar fazer exceções para a tecnologia da Anthropic em alguns casos.
Dimensão legal: Disputa de direitos constitucionais
O caso da Anthropic não é apenas uma batalha comercial, mas também constitucional. A empresa afirma:
Que a liberdade de expressão foi violada (Primeira Emenda)
Que a decisão foi tomada sem garantir o direito à defesa (devido processo)
A avaliação inicial do juiz também indica que estes argumentos podem ser fortes.
O quadro mais amplo: Tensão entre Estado e empresas na era da IA
Este caso levanta uma questão fundamental sobre o uso militar da IA:
Até que ponto os Estados podem direcionar empresas privadas de tecnologia?
O Pentágono argumenta que as empresas privadas não devem limitar as necessidades militares; enquanto empresas como a Anthropic afirmam que a IA desenvolvida sem limites éticos pode representar riscos graves.
Esta tensão não se limita apenas à Anthropic. As relações entre grandes empresas de tecnologia e agências de defesa serão um fator determinante na competição global nos próximos anos.
O processo ainda não terminou.
A decisão do tribunal não é definitiva. Espera-se que o Pentágono recorra da decisão, e um processo legal separado está em andamento em Washington.
No entanto, por agora, o quadro está claro:
Um tribunal dos EUA deixou bem claro até onde o governo pode chegar ao rotular uma empresa de IA como uma "ameaça à segurança nacional".
O caso da Anthropic redefine o equilíbrio não só entre tecnologia, mas também entre lei, ética e poder do Estado na era da inteligência artificial.
Esta decisão pode ter protegido uma empresa a curto prazo. Mas, a longo prazo, o seu verdadeiro impacto residirá na resposta a esta questão:
👉 As empresas que desenvolvem IA irão traçar as linhas, ou serão os Estados? #AI