Les algorithmes et l'autonomie : comment l'industrie chinoise réalise une percée dans le domaine de l'intelligence artificielle

Il y a huit ans, les opérations de la gigantesque entreprise de télécommunications ZTE ont soudainement cessé après une interdiction totale américaine. Aujourd’hui, en mars 2026, la Chine fait des pas solides vers la construction d’un système d’intelligence artificielle entièrement indépendant, sans dépendre de Nvidia ni de technologies étrangères. Cette transformation ne concerne pas seulement les puces, mais une véritable révolution au niveau des algorithmes et des stratégies.

De l’interdiction à la réponse : leçons de ZTE et débuts difficiles

Le 16 avril 2018, le ministère américain du Commerce a imposé une interdiction totale à ZTE Communications, qui employait 80 000 personnes et réalisait un chiffre d’affaires annuel supérieur à un billion de yuans. Sans puces Qualcomm, les stations de base se sont arrêtées. Sans licence Google pour Android, les téléphones ont perdu leur système d’exploitation utilisable. La société a payé un prix élevé : 1,4 milliard de dollars d’amendes, plus des pertes nettes de 7 milliards de yuans en 2018 seulement.

L’ancien PDG de ZTE a écrit dans un message interne : « Nous vivons dans une industrie complexe, fortement dépendante des chaînes d’approvisionnement mondiales. » Cette phrase exprimait une capitulation et une dépendance inévitable.

Mais huit ans plus tard, le scénario a radicalement changé.

Les algorithmes comme solution : de CUDA à l’indépendance technologique

Le vrai problème auquel font face les entreprises chinoises d’IA ne réside pas dans les puces elles-mêmes, mais dans quelque chose appelé CUDA — une plateforme de calcul développée par Nvidia en 2006. Cette plateforme contrôle 90 % du marché mondial des puces pour l’entraînement de l’IA, et constitue la base de presque tous les frameworks d’IA, de TensorFlow à PyTorch.

En 2025, Nvidia a réussi à construire un écosystème hermétique : 4,5 millions de développeurs, 3000 applications certifiées, 40 000 entreprises actives. Cela signifie que plus de 90 % des développeurs d’IA dans le monde sont liés de manière incontournable au système Nvidia.

Le vrai défi n’est donc pas d’obtenir une puce alternative, mais de reconstruire un système complet d’algorithmes, d’outils et d’environnement logiciel à partir de zéro.

La réponse de la Chine n’a pas été directe. Plutôt que de tenter de concurrencer Nvidia sur son terrain, les entreprises chinoises ont choisi une voie totalement différente : des algorithmes avancés.

La révolution des algorithmes : modèles experts hybrides

De fin 2024 à 2025, une transformation collective s’est opérée dans l’industrie chinoise de l’IA vers une nouvelle technique : les modèles experts hybrides (Mixture of Experts). Au lieu d’activer un seul modèle massif, on le divise en petits experts, et seules les parties nécessaires sont activées pour chaque tâche.

Le modèle V3 de DeepSeek illustre ce concept : 671 milliards de paramètres au total, mais seulement 37 milliards (5,5 % du total) activés lors de l’inférence. Le coût d’entraînement : 5,576 millions de dollars avec 2048 unités H800 sur 58 jours. Comparé aux 78 millions de dollars pour entraîner GPT-4.

Le résultat ? Une amélioration quantitative énorme de l’efficacité économique :

  • DeepSeek : 0,028 à 0,28 dollar par million de tokens (entrée), 0,42 dollar (sortie)
  • GPT-4o : 5 dollars (entrée), 15 dollars (sortie)
  • Claude Opus : 15 dollars (entrée), 75 dollars (sortie)

DeepSeek est 25 à 75 fois moins cher que Claude.

Cet énorme écart de prix a provoqué une véritable révolution sur le marché mondial des développeurs. En février 2026, l’utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines, dépassant pour la première fois les États-Unis. Un an auparavant, la part des modèles chinois n’était que de 2 %. Un an plus tard, elle atteignait 60 %.

Une avancée qualitative : de l’inférence à l’entraînement

Mais réduire le coût de l’inférence ne suffit pas. Le vrai défi réside dans l’entraînement — qui nécessite une puissance de calcul énorme, non accessoire.

C’est ici que les puces locales entrent en jeu.

En 2025, une toute nouvelle ligne de production a été lancée à Jiangsu, longue de 148 mètres, construite en seulement 180 jours. La base : un processeur Loongson 3C6000 (entièrement conçu localement) et une carte T100 AI de Taichu Yuanqi. La productivité : un serveur toutes les 5 minutes, avec un objectif de 100 000 unités par an.

Et surtout : ces puces ont déjà commencé à charger de véritables tâches d’entraînement massives.

En janvier 2026, Zhipu AI, en collaboration avec Huawei, a lancé le modèle GLM-Image — le premier modèle avancé de génération d’images entièrement entraîné sur des puces chinoises locales. En février, le modèle « Tours » de China Telecom (trillions de paramètres) a été entraîné sur des machines de calcul entièrement chinoises.

Cela signifie une chose : les puces locales ont dépassé la phase « inférence » pour entrer dans la phase « entraînement » — un saut qualitatif énorme.

L’environnement logiciel : le système Ascend et ses évolutions

Au cœur de ces réalisations se trouve le système Ascend de Huawei — un écosystème logiciel local alternatif à CUDA.

Fin 2025 :

  • 4 millions de développeurs dans le système Ascend
  • Plus de 3000 partenaires actifs
  • 43 modèles principaux entraînés
  • Plus de 200 modèles open source adaptés

Lors du MWC du 2 mars 2026, Huawei a lancé la nouvelle architecture SuperPoD pour les marchés étrangers. La puissance de traitement FP16 de l’Ascend 910B a atteint le niveau de l’A100 de Nvidia — ce n’est plus « sans solution », mais « utilisable » et « facile à utiliser ».

L’énergie : l’atout que l’Occident ne possède pas

La situation se complique davantage lorsqu’on regarde la consommation énergétique.

Au début 2026, la Virginie a annulé son approbation pour de nouveaux centres de données. Suivie par la Géorgie (jusqu’en 2027), puis l’Illinois et le Michigan. La raison : l’électricité.

La consommation des centres de données américains en 2024 : 183 térawattheures (4 % de l’électricité totale). Prévision 2030 : 426 térawattheures (12 %). Le PDG d’Arm prévoit que d’ici 2030, les centres d’IA consommeront 20-25 % de l’électricité américaine.

Le réseau électrique américain est sous tension. D’ici 2033, il manquera 175 gigawatts d’énergie — suffisant pour 130 millions de foyers. Les prix ont augmenté de 267 %.

La Chine ? Un scénario complètement opposé.

Production annuelle chinoise : 10,4 térawattheures. Américaine : 4,2 térawattheures. La Chine produit 2,5 fois plus que les États-Unis.

De plus, la consommation locale chinoise ne représente que 15 % de l’électricité totale (contre 36 % aux États-Unis), ce qui laisse une énorme capacité énergétique industrielle à orienter.

Coût de l’électricité : aux États-Unis, 0,12 à 0,15 dollar par kilowattheure. En Chine occidentale, 0,03 dollar — un quart à un cinquième du prix américain.

Des symboles plutôt que des usines : la nouvelle stratégie d’exportation

Alors que les États-Unis font face à une crise énergétique, la Chine sort « discrètement » à l’étranger — mais cette fois, ce qui sort ce ne sont pas des produits ou des usines, mais des symboles (Tokens).

Le token, unité d’information fondamentale des modèles d’IA, est devenu une nouvelle marchandise numérique. Produite dans des usines de calcul chinoises, puis transmise par câbles sous-marins à travers le monde.

Répartition des utilisateurs de DeepSeek :

  • Chine locale : 30,7 %
  • Inde : 13,6 %
  • Indonésie : 6,9 %
  • États-Unis : 4,3 %
  • France : 3,2 %

Le modèle supporte 37 langues, et est fortement présent sur les marchés émergents comme le Brésil. 26 000 entreprises mondiales ont des comptes. 3 200 institutions ont déployé la version entreprise.

En 2025, 58 % des nouvelles startups en IA ont adopté DeepSeek. En Chine, la part de marché atteint 89 %. Dans les pays sous sanctions, elle oscille entre 40 et 60 %.

La leçon japonaise : la différence entre autonomie et dépendance

En 1986, le Japon a signé un accord sur les connecteurs américains-japonais sous une forte pression américaine. Les clauses : ouvrir le marché japonais à 20 % pour les puces américaines, interdire l’exportation à prix inférieur au coût, appliquer une taxe punitive de 100 % sur les exportations.

En 1988, le Japon contrôlait 51 % du marché mondial des connecteurs. Les dix plus grandes entreprises mondiales — six étaient japonaises. NEC en deuxième position, Toshiba en troisième.

Mais après la signature ? Tout a changé. Les États-Unis ont exercé une pression globale, soutenant Samsung et SK Hynix pour inonder le marché japonais à bas prix. La part du Japon dans le marché des DRAM est tombée de 80 % à 10 %. En 2017, il ne restait plus que 7 % du marché des circuits intégrés.

La leçon japonaise : ils ont accepté d’être le meilleur producteur dans un système mondial dominé par d’autres, mais ils n’ont pas construit un système indépendant. Quand la vague s’est retirée, il ne leur restait que la production.

L’histoire se répète : mais dans un scénario différent

La Chine aujourd’hui se trouve à un carrefour similaire — mais avec un choix différent.

Trois cycles de restrictions sur les puces (octobre 2022, octobre 2023, décembre 2024) avec une escalade continue. Les barrières CUDA restent élevées.

Mais cette fois, la voie est totalement différente :

  1. Optimisation maximale des algorithmes (modèles experts hybrides)
  2. Passage des puces locales de l’inférence à l’entraînement
  3. Accumulation de 4 millions de développeurs dans le système Ascend
  4. Diffusion mondiale des symboles dans les marchés émergents

Chaque étape construit un système industriel indépendant que le Japon n’a jamais possédé.

Les rapports financiers révèlent la vérité : « la taxe de la guerre »

Le 27 février 2026, trois entreprises chinoises de puces ont publié leurs rapports financiers le même jour :

  • Kimo : revenus +453 %, premier bénéfice annuel
  • Moit Ton : revenus +243 %, perte nette de 1 milliard
  • Moxie : revenus +121 %, perte nette de 800 millions

Mi feu, mi eau.

Le feu : appétit démesuré du marché. Le vide laissé par Huang Renshun (PDG de Nvidia), avec 95 % de parts, se remplit peu à peu.

L’eau : pertes énormes — pas une mauvaise gestion, mais une « taxe de guerre » nécessaire. Investissements massifs en R&D, soutien logiciel, ingénieurs sur site pour résoudre les problèmes de traduction un par un.

Ces pertes sont le prix réel pour bâtir une autonomie véritable.

En résumé : de « Pouvons-nous rester ? » à « Quel prix sommes-nous prêts à payer ? »

Il y a huit ans, la question était « Pouvons-nous survivre ? ».

Aujourd’hui, la question est devenue « Quel prix devons-nous payer pour rester ? ».

Changer la question elle-même, c’est une avancée.

Par des algorithmes avancés, pas seulement par des puces. En construisant un écosystème véritablement indépendant, pas seulement un meilleur produit. En investissant à long terme dans une puissance de calcul locale, pas en dépendant des approvisionnements extérieurs.

L’industrie chinoise de l’IA n’est pas dans une phase de capitulation comme ZTE il y a huit ans. Elle est dans une phase de combat acharné, en première ligne. Mais cette fois, il existe une voie de sortie réelle.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler