Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les algorithmes et l'autonomie : comment l'industrie chinoise réalise une percée dans le domaine de l'intelligence artificielle
Il y a huit ans, les opérations de la gigantesque entreprise de télécommunications ZTE ont soudainement cessé après une interdiction totale américaine. Aujourd’hui, en mars 2026, la Chine fait des pas solides vers la construction d’un système d’intelligence artificielle entièrement indépendant, sans dépendre de Nvidia ni de technologies étrangères. Cette transformation ne concerne pas seulement les puces, mais une véritable révolution au niveau des algorithmes et des stratégies.
De l’interdiction à la réponse : leçons de ZTE et débuts difficiles
Le 16 avril 2018, le ministère américain du Commerce a imposé une interdiction totale à ZTE Communications, qui employait 80 000 personnes et réalisait un chiffre d’affaires annuel supérieur à un billion de yuans. Sans puces Qualcomm, les stations de base se sont arrêtées. Sans licence Google pour Android, les téléphones ont perdu leur système d’exploitation utilisable. La société a payé un prix élevé : 1,4 milliard de dollars d’amendes, plus des pertes nettes de 7 milliards de yuans en 2018 seulement.
L’ancien PDG de ZTE a écrit dans un message interne : « Nous vivons dans une industrie complexe, fortement dépendante des chaînes d’approvisionnement mondiales. » Cette phrase exprimait une capitulation et une dépendance inévitable.
Mais huit ans plus tard, le scénario a radicalement changé.
Les algorithmes comme solution : de CUDA à l’indépendance technologique
Le vrai problème auquel font face les entreprises chinoises d’IA ne réside pas dans les puces elles-mêmes, mais dans quelque chose appelé CUDA — une plateforme de calcul développée par Nvidia en 2006. Cette plateforme contrôle 90 % du marché mondial des puces pour l’entraînement de l’IA, et constitue la base de presque tous les frameworks d’IA, de TensorFlow à PyTorch.
En 2025, Nvidia a réussi à construire un écosystème hermétique : 4,5 millions de développeurs, 3000 applications certifiées, 40 000 entreprises actives. Cela signifie que plus de 90 % des développeurs d’IA dans le monde sont liés de manière incontournable au système Nvidia.
Le vrai défi n’est donc pas d’obtenir une puce alternative, mais de reconstruire un système complet d’algorithmes, d’outils et d’environnement logiciel à partir de zéro.
La réponse de la Chine n’a pas été directe. Plutôt que de tenter de concurrencer Nvidia sur son terrain, les entreprises chinoises ont choisi une voie totalement différente : des algorithmes avancés.
La révolution des algorithmes : modèles experts hybrides
De fin 2024 à 2025, une transformation collective s’est opérée dans l’industrie chinoise de l’IA vers une nouvelle technique : les modèles experts hybrides (Mixture of Experts). Au lieu d’activer un seul modèle massif, on le divise en petits experts, et seules les parties nécessaires sont activées pour chaque tâche.
Le modèle V3 de DeepSeek illustre ce concept : 671 milliards de paramètres au total, mais seulement 37 milliards (5,5 % du total) activés lors de l’inférence. Le coût d’entraînement : 5,576 millions de dollars avec 2048 unités H800 sur 58 jours. Comparé aux 78 millions de dollars pour entraîner GPT-4.
Le résultat ? Une amélioration quantitative énorme de l’efficacité économique :
DeepSeek est 25 à 75 fois moins cher que Claude.
Cet énorme écart de prix a provoqué une véritable révolution sur le marché mondial des développeurs. En février 2026, l’utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines, dépassant pour la première fois les États-Unis. Un an auparavant, la part des modèles chinois n’était que de 2 %. Un an plus tard, elle atteignait 60 %.
Une avancée qualitative : de l’inférence à l’entraînement
Mais réduire le coût de l’inférence ne suffit pas. Le vrai défi réside dans l’entraînement — qui nécessite une puissance de calcul énorme, non accessoire.
C’est ici que les puces locales entrent en jeu.
En 2025, une toute nouvelle ligne de production a été lancée à Jiangsu, longue de 148 mètres, construite en seulement 180 jours. La base : un processeur Loongson 3C6000 (entièrement conçu localement) et une carte T100 AI de Taichu Yuanqi. La productivité : un serveur toutes les 5 minutes, avec un objectif de 100 000 unités par an.
Et surtout : ces puces ont déjà commencé à charger de véritables tâches d’entraînement massives.
En janvier 2026, Zhipu AI, en collaboration avec Huawei, a lancé le modèle GLM-Image — le premier modèle avancé de génération d’images entièrement entraîné sur des puces chinoises locales. En février, le modèle « Tours » de China Telecom (trillions de paramètres) a été entraîné sur des machines de calcul entièrement chinoises.
Cela signifie une chose : les puces locales ont dépassé la phase « inférence » pour entrer dans la phase « entraînement » — un saut qualitatif énorme.
L’environnement logiciel : le système Ascend et ses évolutions
Au cœur de ces réalisations se trouve le système Ascend de Huawei — un écosystème logiciel local alternatif à CUDA.
Fin 2025 :
Lors du MWC du 2 mars 2026, Huawei a lancé la nouvelle architecture SuperPoD pour les marchés étrangers. La puissance de traitement FP16 de l’Ascend 910B a atteint le niveau de l’A100 de Nvidia — ce n’est plus « sans solution », mais « utilisable » et « facile à utiliser ».
L’énergie : l’atout que l’Occident ne possède pas
La situation se complique davantage lorsqu’on regarde la consommation énergétique.
Au début 2026, la Virginie a annulé son approbation pour de nouveaux centres de données. Suivie par la Géorgie (jusqu’en 2027), puis l’Illinois et le Michigan. La raison : l’électricité.
La consommation des centres de données américains en 2024 : 183 térawattheures (4 % de l’électricité totale). Prévision 2030 : 426 térawattheures (12 %). Le PDG d’Arm prévoit que d’ici 2030, les centres d’IA consommeront 20-25 % de l’électricité américaine.
Le réseau électrique américain est sous tension. D’ici 2033, il manquera 175 gigawatts d’énergie — suffisant pour 130 millions de foyers. Les prix ont augmenté de 267 %.
La Chine ? Un scénario complètement opposé.
Production annuelle chinoise : 10,4 térawattheures. Américaine : 4,2 térawattheures. La Chine produit 2,5 fois plus que les États-Unis.
De plus, la consommation locale chinoise ne représente que 15 % de l’électricité totale (contre 36 % aux États-Unis), ce qui laisse une énorme capacité énergétique industrielle à orienter.
Coût de l’électricité : aux États-Unis, 0,12 à 0,15 dollar par kilowattheure. En Chine occidentale, 0,03 dollar — un quart à un cinquième du prix américain.
Des symboles plutôt que des usines : la nouvelle stratégie d’exportation
Alors que les États-Unis font face à une crise énergétique, la Chine sort « discrètement » à l’étranger — mais cette fois, ce qui sort ce ne sont pas des produits ou des usines, mais des symboles (Tokens).
Le token, unité d’information fondamentale des modèles d’IA, est devenu une nouvelle marchandise numérique. Produite dans des usines de calcul chinoises, puis transmise par câbles sous-marins à travers le monde.
Répartition des utilisateurs de DeepSeek :
Le modèle supporte 37 langues, et est fortement présent sur les marchés émergents comme le Brésil. 26 000 entreprises mondiales ont des comptes. 3 200 institutions ont déployé la version entreprise.
En 2025, 58 % des nouvelles startups en IA ont adopté DeepSeek. En Chine, la part de marché atteint 89 %. Dans les pays sous sanctions, elle oscille entre 40 et 60 %.
La leçon japonaise : la différence entre autonomie et dépendance
En 1986, le Japon a signé un accord sur les connecteurs américains-japonais sous une forte pression américaine. Les clauses : ouvrir le marché japonais à 20 % pour les puces américaines, interdire l’exportation à prix inférieur au coût, appliquer une taxe punitive de 100 % sur les exportations.
En 1988, le Japon contrôlait 51 % du marché mondial des connecteurs. Les dix plus grandes entreprises mondiales — six étaient japonaises. NEC en deuxième position, Toshiba en troisième.
Mais après la signature ? Tout a changé. Les États-Unis ont exercé une pression globale, soutenant Samsung et SK Hynix pour inonder le marché japonais à bas prix. La part du Japon dans le marché des DRAM est tombée de 80 % à 10 %. En 2017, il ne restait plus que 7 % du marché des circuits intégrés.
La leçon japonaise : ils ont accepté d’être le meilleur producteur dans un système mondial dominé par d’autres, mais ils n’ont pas construit un système indépendant. Quand la vague s’est retirée, il ne leur restait que la production.
L’histoire se répète : mais dans un scénario différent
La Chine aujourd’hui se trouve à un carrefour similaire — mais avec un choix différent.
Trois cycles de restrictions sur les puces (octobre 2022, octobre 2023, décembre 2024) avec une escalade continue. Les barrières CUDA restent élevées.
Mais cette fois, la voie est totalement différente :
Chaque étape construit un système industriel indépendant que le Japon n’a jamais possédé.
Les rapports financiers révèlent la vérité : « la taxe de la guerre »
Le 27 février 2026, trois entreprises chinoises de puces ont publié leurs rapports financiers le même jour :
Mi feu, mi eau.
Le feu : appétit démesuré du marché. Le vide laissé par Huang Renshun (PDG de Nvidia), avec 95 % de parts, se remplit peu à peu.
L’eau : pertes énormes — pas une mauvaise gestion, mais une « taxe de guerre » nécessaire. Investissements massifs en R&D, soutien logiciel, ingénieurs sur site pour résoudre les problèmes de traduction un par un.
Ces pertes sont le prix réel pour bâtir une autonomie véritable.
En résumé : de « Pouvons-nous rester ? » à « Quel prix sommes-nous prêts à payer ? »
Il y a huit ans, la question était « Pouvons-nous survivre ? ».
Aujourd’hui, la question est devenue « Quel prix devons-nous payer pour rester ? ».
Changer la question elle-même, c’est une avancée.
Par des algorithmes avancés, pas seulement par des puces. En construisant un écosystème véritablement indépendant, pas seulement un meilleur produit. En investissant à long terme dans une puissance de calcul locale, pas en dépendant des approvisionnements extérieurs.
L’industrie chinoise de l’IA n’est pas dans une phase de capitulation comme ZTE il y a huit ans. Elle est dans une phase de combat acharné, en première ligne. Mais cette fois, il existe une voie de sortie réelle.