Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Détails du différend entre le Pentagone et Anthropic :
Le différend provient d’un contrat d’environ $200 millions qui a été signé par Anthropic pour utiliser son modèle d’IA Claude dans des systèmes classifiés pour l’armée américaine.
Anthropic a fixé deux « lignes rouges » clés :
- Que l’IA ne soit pas utilisée pour la surveillance de masse des citoyens américains.
- Qu’elle ne soit pas utilisée pour des **systèmes d’armes entièrement autonomes** (armes qui prennent des décisions létales sans supervision humaine)
Cependant, le Pentagone a exigé une utilisation illimitée de l’IA pour « tous les usages légitimes » et n’a pas accepté ces restrictions. Le secrétaire à la Défense Pete Hegseth a forcé l’entreprise à se conformer avant une échéance fixée à vendredi soir (26 février 2026).
Lorsque aucun accord n’a été trouvé :
- Le président Trump a ordonné à toutes les agences fédérales de **stopper immédiatement** la technologie d’Anthropic (en donnant au Pentagone une période de transition de 6 mois).
- Hegseth a déclaré qu’Anthropic représentait un « risque dans la chaîne d’approvisionnement pour la sécurité nationale »—une sanction généralement utilisée contre des menaces étrangères ; elle interdit également aux contractants militaires de faire affaire avec l’entreprise.
Anthropic a qualifié cette décision d’« invalide sur le plan juridique et créant un précédent » et a annoncé qu’elle porterait l’affaire devant la justice. Le PDG Dario Amodei a insisté sur le fait qu’il ne reviendrait pas sur sa position.
Finalement, le Pentagone a signé un nouvel accord avec OpenAI acceptant des restrictions similaires. Cet événement a marqué un tournant majeur quant à savoir qui doit fixer les limites à l’utilisation militaire de l’IA—les entreprises ou le gouvernement ?
En résumé : ce qui a commencé comme une discussion sur les préoccupations de sécurité s’est transformé en pression politique et en sanctions. Le conflit entre éthique de l’IA et sécurité nationale se poursuit.
#TrumpordersfederalbanonAnthropicAI
Le président américain Donald Trump a interdit aux agences fédérales de toutes technologies d'intelligence artificielle d'Anthropic. Dans une déclaration sur son compte Truth Social, Trump a décrit Anthropic comme une « entreprise radicale de gauche, astucieuse » et, suite à un différend avec le Pentagone, a déclaré : « Cessez immédiatement toute utilisation, nous n'en avons pas besoin, nous ne le voulons pas. »
Le Pentagone a déclaré Anthropic comme un « risque pour la sécurité nationale » après que l'entreprise a tenté de restreindre ses modèles d'IA à des fins militaires (spécifiquement, utilisation non restreinte), offrant aux agences fédérales une période de transition de six mois. Cette décision a conduit Anthropic à perdre des contrats gouvernementaux ; des entreprises rivales (telles qu'OpenAI) ont annoncé de nouveaux accords avec le Pentagone.