Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Su Zifeng et sa guerre pour quitter NVIDIA
Lorsque Su Zifeng a pris la tête d’AMD en 2014, la capitalisation boursière de l’entreprise était inférieure à 3 milliards de dollars. Aujourd’hui, ce chiffre a dépassé 3150 milliards de dollars, soit une croissance de plus de cent fois.
La montée en flèche de la valeur d’AMD a commencé en 2018, après qu’une équipe de huit chercheurs de Google ait publié un article marquant une nouvelle étape dans l’intelligence artificielle, « Attention Is All You Need » — proposant l’architecture de deep learning basée sur le mécanisme d’attention, Transformer, dont la capacité de calcul parallèle a indirectement propulsé l’entreprise GPU au sommet.
Une multitude de nouvelles entreprises chinoises de GPU ont été créées durant cette période, tandis que des géants comme Google ont choisi une voie différente, en développant des ASIC (circuits intégrés spécifiques) pour optimiser le coût total de possession du calcul.
Aujourd’hui, les chips IA, en tant qu’infrastructure de calcul, ont vu la marché évoluer vers une compétition multidimensionnelle. Celle-ci ne se limite pas à la course effrénée en puissance et performance ou à l’optimisation des coûts, mais inclut aussi la dépendance à une énergie durable. Dans la chaîne d’approvisionnement cruciale, des fabricants leaders comme TSMC, Samsung, et SK Hynix déterminent l’intensité de la guerre des chips IA en fonction de leur capacité de production.
De la performance aux clients, puis à la capacité, Su Zifeng doit faire face à un défi sans précédent.
Concernant les clients, un professionnel du secteur confie : « Lisa Su est encore très active en Chine continentale pour rencontrer des clients, elle vient beaucoup plus souvent que Jensen Huang. »
Selon nos informations, en 2025, Su a prévu deux déplacements en Chine : la première en mars lors du sommet AIPC Innovation, la seconde pour rendre visite à ses partenaires, avec pour point de départs liés à Lenovo.
La nouvelle voie de Su
Pendant la majeure partie des dix dernières années, le principal rival d’AMD était Intel.
AMD a progressivement grignoté des parts de marché dans le secteur des desktops, serveurs et PC, mais le jeu de l’ère IA ne suit pas cette règle.
En 2018, AMD a fait un virage stratégique vers le cloud computing, en lançant la série Instinct de GPU pour centres de données, leur premier chip conçu pour les charges de travail IA, qui est resté un poursuivant dans cette voie pendant plusieurs années.
Lors du Computex de Taipei il y a deux ans, lorsque Su a été interrogée sur son rôle de poursuivante, elle n’a pas évité la réalité de son retard, déclarant : « Il est évident que la demande pour l’IA s’accélère rapidement, » et ajoutant : « Nous venons tout juste d’entamer un cycle super-long de dix ans pour l’IA. »
Elle a aussi mentionné un détail souvent oublié : « L’année dernière (2023), nous avons lancé la série MI300X, qui possède un avantage en inférence. »
Cela montre que Su Zifeng a très tôt perçu la valeur de l’inférence, et le résultat récent témoigne de sa vision prospective — en 2025, l’inférence est devenue un sujet central, Nvidia ayant même acquis pour 20 milliards de dollars le fournisseur de puces d’inférence Groq.
Le tournant d’AMD intervient en 2025.
En juin 2025, lors de l’événement « Advancing AI » à San José, Su a fait une annonce audacieuse : la série MI350 (notamment le modèle MI355X) commence à être livrée, avec une performance d’inférence 35 fois supérieure à la génération précédente.
Lors de cette conférence, elle a révisé ses prévisions de marché.
Elle anticipait auparavant que le marché mondial des processeurs IA atteindrait 500 milliards de dollars en 2028. Mais à mi-2025, elle prévoit que ce seuil sera franchi plus tôt.
« Beaucoup pensaient que 500 milliards de dollars était un chiffre énorme, » a-t-elle déclaré après son discours, « mais maintenant, cela semble à portée de main. »
Sa nouvelle prévision n’est pas si radicale comparée aux investissements de plus de 600 milliards de dollars que les géants de la Silicon Valley prévoient pour 2026, mais ce qui est audacieux, c’est qu’elle a affirmé que la série MI400, prévue pour 2026, surpasserait largement Nvidia.
« Lors de son lancement, cette série (MI400) mettra AMD en position de leader évident face à Nvidia. »
À cette époque, le PDG d’OpenAI, Sam Altman, était également présent, et il a déclaré que les spécifications initiales du MI400 étaient trop ambitieuses pour lui, qu’il pensait que c’était « impossible ». Il a confirmé qu’OpenAI collaborait avec AMD pour développer le chip MI450.
Non seulement ils coopèrent en R&D, mais AMD et OpenAI ont aussi noué un partenariat par échange d’actions, une opération que Su ne détaille pas ici.
Au CES 2026, Su a officiellement présenté la série MI450. Selon elle, le MI450 est une fusion du MI300X et du MI350, marquant une avancée en performance par étape — grâce à la mémoire HBM, en augmentant la capacité, la bande passante et la puissance de calcul, brisant la « barrière de mémoire » dans l’inférence IA.
Le vrai point fort est la série MI455X.
Su a annoncé que la série MI455X offre un gain de performance de 10 fois par rapport à la MI355X. Elle équipe le nouveau serveur ouvert à 72 cartes, nommé Helios.
Helios comprend 18 racks de calcul, chacun équipé d’un CPU Venice (2 nm) et de 4 GPU MI455X (3 nm). Le CPU Venice compte 4 600 cœurs, le GPU MI455X 18 000 cœurs. Le système totalise 31 To de mémoire HBM4 et 43 To/s de bande passante, offrant une puissance de calcul FP8 de 2,9 Exaflops.
AMD insiste sur le fait que Helios est une plateforme ouverte pour une extension de calcul Yotta (1 Yotta Flops = 10^24 opérations en virgule flottante par seconde).
Selon la roadmap d’AMD, en 2027, la série MI500 sera lancée, basée sur l’architecture cDNA6, utilisant la technologie de processus avancée en 2 nm, avec une mémoire HBM4e à haute vitesse. Su prévoit que le MI500 représentera une nouvelle étape majeure en performance IA, alimentant la prochaine vague de modèles multimodaux à grande échelle.
« Dans les quatre prochaines années, nous visons une augmentation de 1000 fois des performances IA, » a-t-elle déclaré, sans préciser que cette augmentation concerne uniquement l’inférence.
Plan B, Plan C
« L’avenir de l’IA ne sera pas construit par une seule entreprise ou dans un écosystème fermé, » prédit-elle, « mais par une collaboration ouverte dans toute l’industrie. »
L’incarnation la plus concrète de cette ouverture est la collaboration sectorielle.
Les opportunités viennent notamment de la diversification des stratégies d’achat de puissance de calcul par les grands modèles — de OpenAI à Google, en passant par Meta — qui ne se limitent pas à Nvidia, mais intègrent aussi AMD dans leur chaîne d’approvisionnement, voire développent leurs propres systèmes.
En octobre 2025, AMD a signé un contrat de fourniture de 6 GW de GPU pour OpenAI, utilisant plusieurs générations de GPU Instinct pour leur infrastructure IA de nouvelle génération. La première phase de 1 GW, utilisant le GPU MI450, devrait débuter au second semestre 2026.
Ce contrat est unique car, dans le cadre de l’accord, AMD a accordé à OpenAI une option d’achat de jusqu’à 160 millions d’actions AMD ordinaires, à un prix d’exercice de 0,01 dollar par action.
Les options seront acquises par tranches selon des jalons : la première à l’achèvement du déploiement de 1 GW, puis à mesure que la commande atteindra 6 GW. Leur attribution dépend aussi de la réalisation d’objectifs de performance boursière et de milestones technologiques et commerciaux.
La collaboration entre fournisseurs de puissance et grands clients de modèles est perçue comme une opération de « swap d’actions contre commandes », un financement circulaire.
Cinq mois plus tard, AMD a presque reproduit cette opération avec Meta.
En février 2026, AMD et Meta ont annoncé un accord de 6 GW pour fournir plusieurs générations de GPU Instinct pour la prochaine infrastructure IA de Meta.
Le premier déploiement de 1 GW est prévu pour la seconde moitié de 2026, utilisant le GPU AMD Instinct basé sur l’architecture MI450, avec le CPU EPYC de 6e génération « Venice » en 2 nm, fonctionnant sous ROCm, et construit sur la plateforme Helios.
AMD a également accordé à Meta une option d’achat basée sur la performance, similaire à celle d’OpenAI, pouvant atteindre 160 millions d’actions AMD, représentant environ 10 % de la société.
Ben Bajarin, analyste chez Creative Strategies, estime que cette opération vaut plusieurs milliards de dollars sur au moins quatre ans, car « déployer 6 GW prend du temps. »
Plus tard, Su a indiqué dans une interview que cette structure d’option d’achat est « gagnant-gagnant » pour les actionnaires, soutenant un plan et un modèle financier « très ambitieux ». Elle considère cette opération comme l’une des plus « transformatrices » pour AMD dans l’expansion de ses capacités IA.
Lors de la conférence Morgan Stanley du 3 mars, Su a expliqué la logique derrière l’émission de ces options : « La valeur de ces options réside aussi dans leur capacité à accélérer les achats et à renforcer l’écosystème. » La réalisation des objectifs de performance incite les deux parties à collaborer pour atteindre leurs buts.
Su insiste sur le fait que ce type d’accord accélère non seulement les achats, mais aussi le développement de l’écosystème technologique et logiciel d’AMD. Les bénéfices ne se limitent pas à la collaboration avec Meta, mais rayonnent à l’ensemble de l’écosystème AMD.
Et la prochaine cible de Su, qui sera la prochaine à recevoir cette « opération de swap d’actions contre commandes » ? Peut-être Anthropic ?
Si l’on considère AMD+OpenAI et AMD+Meta comme des « plans B » concrets, Su détient aussi un « plan C » pour l’avenir — « AMD d’investissement ».
Le département d’investissement d’AMD, AMD Ventures, a réalisé son investissement emblématique en mai 2025, en co-investissant dans la startup d’IA cloud TensorWave, à l’image de l’investissement d’Nvidia dans CoreWeave.
L’écosystème d’AMD est fréquemment étoffé par ses investissements, notamment dans le projet de modèle mondial de Fei-Fei Li, World Labs, ou dans des startups innovantes comme Liquid AI, qui développe de nouveaux modèles transformer.
Selon des sources publiques, AMD a aussi participé aux deux dernières levées de fonds de la société de puces IA D et E.
Selon le site officiel d’AMD et des sources publiques, son portefeuille d’investissements inclut aussi des sociétés comme Absci (découverte de médicaments IA), Scale AI (annotation de données), Runway (génération vidéo IA), et Luma AI (modèles multimodaux).
De la puissance brute à la couche intermédiaire, puis à la couche supérieure, en passant par les modèles de base et les modèles verticaux, Su et son plan C autour des GPU Instinct esquissent la future carte de l’écosystème AMD.
Guerre des capacités
La capacité de production est un sujet éternel dans l’industrie des semi-conducteurs, englobant à la fois la capacité de fabrication des puces et celle des composants clés.
Simplement, si le produit existe et que le client a signé, mais que la capacité n’est pas suffisante, tout est vain.
La capacité de fabrication des chips concerne principalement l’emballage avancé CoWoS. Nous avions révélé en janvier qu’en 2026, TSMC prévoit une capacité totale d’environ 1,15 million de wafers pour le CoWoS, dont AMD a réservé environ 8 %, soit environ 90 000 wafers.
Lors de la conférence Morgan Stanley en mars, un journaliste a demandé si la capacité CoWoS d’AMD était suffisante. Su a répondu : « Nous avons absolument assez de capacité CoWoS. Je sais que beaucoup vérifient cela. La meilleure réponse que je peux vous donner, c’est que nous avons la capacité, la technologie, de solides relations clients, et que les data centers ont déjà réservé de l’espace pour cela. »
En estimant une seule puce MI400 à 4800 mm², une wafer pourrait produire 8 à 10 puces. En prenant la limite haute de 10, sans considérer d’autres produits (qui ne seraient pas tous destinés au MI400), AMD prévoit de produire environ 900 000 puces MI400 en 2026, ce qui correspondrait à environ 12 500 systèmes Helios à 72 cartes.
900 000 puces MI400 nécessiteraient au moins 10,8 millions de modules HBM pour cette année.
Avec des commandes totales de 16 GW pour OpenAI et Meta, la stabilité de l’approvisionnement en HBM est cruciale pour respecter ces commandes. Le problème, c’est que Samsung, principal fournisseur de HBM, est aussi fournisseur pour Nvidia. AMD doit donc sécuriser ses capacités de production, ce qui devient plus difficile que jamais.
Dans ce contexte, Su prévoit de se rendre en Corée pour rencontrer ses clients.
Les médias sud-coréens rapportent qu’elle visitera la Corée le 18 mars, ce qui sera sa première visite depuis plus de dix ans en tant que CEO. Selon des sources, elle pourrait rencontrer le président de Samsung Electronics, Lee Jae-yong, et la CEO de Naver, Choi Su-yeon, pour discuter de collaborations dans les centres de données.
Les analystes estiment que Su demandera à Samsung d’augmenter la capacité de mémoire à haute bande passante. Samsung a annoncé le mois dernier avoir commencé la production en masse de HBM4, la première livraison mondiale de ce type de puces avancées pour accélérateurs IA.
Outre la mémoire HBM, la disponibilité de DRAM et NAND est également critique.
Dans un contexte de pénurie mondiale de puces de stockage, sécuriser la capacité pour la gamme de serveurs AMD est une priorité. Des sources indiquent que AMD et Samsung discutent aussi d’une coopération dans la fabrication de CPU EPYC Venice en 2 nm.
Lors de la même conférence Morgan Stanley, Su a aussi évoqué le marché de la mémoire.
« Nous avons planifié cela plusieurs années à l’avance. Nous avons préparé la montée en puissance du MI450 et la transition vers HBM4. Concernant l’approvisionnement en mémoire, nous sommes confiants, » a-t-elle déclaré.
Mais elle a aussi reconnu que le marché de la mémoire connaît des réactions en chaîne. La hausse des prix des modules DDR4, DDR5, et de la mémoire pour le grand public augmente le coût global des systèmes.
La rencontre avec le dirigeant de Samsung concerne la capacité, celle avec le CEO de Naver concerne le marché.
Naver poursuit une stratégie claire de « multi-fournisseurs », réduisant progressivement sa dépendance à Nvidia. En tant qu’acteur clé du marché des serveurs en Asie de l’Est, la demande de Naver offre une opportunité à AMD.
Les analystes estiment que Naver cherche à diversifier ses fournisseurs pour optimiser son infrastructure, en augmentant la part d’accélérateurs AMD dans ses futurs centres de données, tout en continuant à collaborer avec Nvidia et en testant aussi les produits d’Intel et AMD en interne. Un insider confie : « Naver veut augmenter la part d’accélérateurs AMD dans son deuxième centre de données, ce qui correspond parfaitement à la stratégie d’expansion de AMD en Corée. »
Le déplacement de Su en Corée coïncide avec le GTC 2026 de Nvidia, qui détient 90 % du marché. Su et AMD tentent de « débaucher » petit à petit, mais cela dépend aussi d’une action agile sur le « champ de bataille invisible » qu’est la chaîne d’approvisionnement.
Le choix de Su est simple : y aller en personne, rencontrer les partenaires, sécuriser la capacité.
Lors de la conférence téléphonique du 4 février 2025, Su a résumé l’année 2025 d’AMD : revenus, bénéfice net et flux de trésorerie libres ont tous atteint des records. Le chiffre d’affaires du secteur data center a augmenté de 39 %, atteignant 5,4 milliards de dollars.
« 2025 a été une année exceptionnelle pour AMD, marquant le début d’une nouvelle trajectoire de croissance, » a-t-elle déclaré, « nous entrons dans un super-cycle de demande pour la haute performance et l’IA, ce qui crée d’énormes opportunités pour nos activités. »
En novembre dernier, lors de l’Investor Day, Su a fixé un objectif : réaliser un taux de croissance annuel composé supérieur à 35 % sur 3 à 5 ans, augmenter significativement la marge opérationnelle, et atteindre un bénéfice par action supérieur à 20 dollars dans le cadre stratégique.
« Tout cela est porté par la croissance de nos divisions et l’expansion rapide de notre activité IA dans les data centers, » a-t-elle expliqué.
Inévitablement, la croissance et l’expansion seront principalement alimentées par le secteur des data centers. Pour y parvenir, AMD doit faire plusieurs choses : renforcer ses liens avec ses grands clients de Silicon Valley, investir dans l’avenir, bâtir un écosystème d’approvisionnement solide, et toujours baser ses avancées sur la performance et la stabilité de ses produits.
C’est ainsi que Su pourra conduire l’entreprise, étape par étape, dans la dédollarisation du marché des data centers.
Source : Tencent Tech
Avertissement de risque et clause de non-responsabilité
Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel, ni ne prend en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à leur situation particulière. En investissant sur cette base, ils en assument la responsabilité.