Donner 10 milliards à Nokia, Jen-Hsun Huang veut gagner 200 milliards.

Lors du GTC de 2025, Jen-Hsun Huang a révélé une information sensationnelle : Nvidia investira 1 milliard de dollars dans Nokia. Oui, c'est bien cette entreprise Nokia, célèbre pour ses téléphones Symbian il y a 20 ans.

Jen-Hsun Huang a déclaré lors de son discours que les réseaux de télécommunications sont en train de subir une transformation majeure, passant d'une architecture traditionnelle à des systèmes natifs d'IA, et que les investissements de NVIDIA accéléreront ce processus. Ainsi, NVIDIA a créé en collaboration avec Nokia une plateforme d'IA dédiée aux réseaux 6G, intégrant l'IA dans les réseaux RAN traditionnels.

La forme spécifique de l'investissement est qu'NVIDIA souscrit environ 166 millions d'actions nouvelles de Nokia à un prix de 6,01 dollars par action, ce qui fera qu'NVIDIA détiendra environ 2,9 % du capital de Nokia.

Au moment de l'annonce de la collaboration, l'action de Nokia a augmenté de 21 %, ce qui constitue la plus forte hausse depuis 2013.

01 Qu'est-ce que l'AI-RAN ?

RAN est le réseau d'accès sans fil, tandis que l'AI-RAN est une nouvelle architecture de réseau qui intègre directement la capacité de calcul AI dans les stations de base sans fil. Les systèmes RAN traditionnels sont principalement responsables de la transmission des données entre les stations de base et les appareils mobiles, tandis que l'AI-RAN ajoute des capacités de calcul en périphérie et de traitement intelligent à cela.

Permettre aux stations de base d'appliquer des algorithmes d'IA pour optimiser l'utilisation du spectre et l'efficacité énergétique, améliorer les performances globales du réseau, tout en utilisant les actifs RAN inactifs pour héberger des services d'IA en périphérie, créant ainsi de nouvelles sources de revenus pour les opérateurs.

Les opérateurs peuvent exécuter des applications AI directement sur le site de la station de base, sans avoir à renvoyer toutes les données au centre de données central pour traitement, réduisant ainsi considérablement la charge sur le réseau.

Jen-Hsun Huang a donné un exemple, presque 50 % des utilisateurs de ChatGPT accèdent par des appareils mobiles, et ce n'est pas tout, le nombre de téléchargements mensuels de ChatGPT sur mobile a dépassé 40 millions. À une époque de croissance explosive des applications d'IA, les systèmes RAN traditionnels ne peuvent pas faire face aux réseaux mobiles dominés par l'IA générative et les agents intelligents.

AI-RAN, en fournissant des capacités d'inférence AI distribuées à la périphérie, permet aux prochaines applications AI, telles que les agents intelligents et les chatbots, de répondre plus rapidement. En même temps, AI-RAN se prépare également aux applications intégrées de capteurs et de communication pour l'ère 6G.

Jen-Hsun Huang a cité les prévisions de la société d'analystes Omdia, qui prévoit que le marché RAN dépassera les 200 milliards de dollars d'ici 2030, dont la partie AI-RAN deviendra le segment à la croissance la plus rapide.

Le président et PDG de Nokia, Justin Hotard, a déclaré dans un communiqué conjoint que ce partenariat mettra les centres de données IA dans la poche de chacun, réalisant une refonte radicale du passage de la 5G à la 6G.

Il a particulièrement mentionné que Nokia collabore avec trois entreprises de types différents : NVIDIA, Dell et T-Mobile. T-Mobile, en tant que l'un des premiers partenaires, commencera des tests sur le terrain de la technologie AI-RAN à partir de 2026, en mettant l'accent sur la validation des performances et de l'efficacité. Justin a déclaré que ce test fournira des données précieuses pour l'innovation 6G, aidant les opérateurs à construire des réseaux intelligents adaptés aux besoins de l'IA.

Basé sur l'AI-RAN, le nouveau produit lancé par Nvidia s'appelle Aerial RAN Computer Pro (ARC-Pro), qui est une plateforme de calcul accéléré préparée pour la 6G. Sa configuration matérielle centrale comprend simultanément deux GPU de Nvidia : le Grace CPU et le Blackwell GPU.

Cette plateforme fonctionne grâce à NVIDIA CUDA, le logiciel RAN peut être intégré directement dans la pile technologique CUDA. Par conséquent, il peut non seulement traiter les fonctions traditionnelles des réseaux d'accès sans fil, mais également exécuter simultanément des applications AI grand public. C'est aussi la méthode centrale d'NVIDIA pour réaliser les deux lettres AI dans AI-RAN.

Étant donné l'histoire longue de CUDA, le principal avantage de cette plateforme est en fait sa programmabilité. Ce n'est pas tout, Jen-Hsun Huang a également annoncé que le cadre logiciel Aerial serait open source, et devrait être publié sur GitHub sous la licence Apache 2.0 à partir de décembre 2025.

La principale différence entre l'ARC-Pro et son prédécesseur l'ARC réside dans l'emplacement de déploiement et les scénarios d'application. L'ARC précédent était principalement utilisé pour la mise en œuvre de RAN cloud centralisé, tandis que l'ARC-Pro peut être déployé directement sur site de la station de base, ce qui permet de concrétiser véritablement les capacités de calcul en périphérie.

Le responsable des activités de télécommunications d'NVIDIA, Ronnie Vashita, a déclaré qu'auparavant, le RAN et l'IA nécessitaient deux ensembles de matériel différents, mais l'ARC-Pro peut allouer dynamiquement des ressources de calcul en fonction des besoins du réseau, permettant ainsi de prioriser les fonctions d'accès sans fil tout en exécutant des tâches d'inférence IA pendant les périodes d'inactivité.

ARC-Pro intègre également la plateforme AI Aerial de NVIDIA, qui est une pile logicielle complète comprenant un logiciel RAN accéléré par CUDA, des outils de jumeaux numériques Aerial Omniverse et un nouveau cadre Aerial. Le cadre Aerial peut convertir le code Python en code CUDA haute performance, s'exécutant sur la plateforme ARC-Pro. De plus, la plateforme prend en charge des modèles de réseaux neuronaux pilotés par l'IA pour une estimation avancée des canaux.

Jen-Hsun Huang a déclaré que les télécommunications sont le système nerveux numérique de l'économie et de la sécurité. La collaboration avec Nokia et l'écosystème des télécommunications va déclencher cette révolution, aidant les opérateurs à construire des réseaux intelligents et adaptatifs, définissant la prochaine génération de connectivité mondiale.

02 En regardant vers 2025, Nvidia a vraiment investi beaucoup d'argent.

Le 22 septembre, NVIDIA et OpenAI ont conclu un partenariat, NVIDIA prévoit d'investir progressivement 100 milliards de dollars dans OpenAI, ce qui accélérera la construction de son infrastructure.

Jen-Hsun Huang a déclaré qu'en réalité, OpenAI cherchait depuis longtemps un investissement de la part de NVIDIA, mais à l'époque, l'entreprise manquait de fonds. Il a plaisanté en disant qu'ils étaient tellement pauvres qu'ils auraient dû leur donner tout leur argent.

Jen-Hsun Huang estime que la croissance de l'inférence AI n'est pas de 100 fois ou 1000 fois, mais de 1 milliard de fois. De plus, cette collaboration ne se limite pas au matériel, mais inclut également l'optimisation logicielle pour garantir qu'OpenAI puisse utiliser efficacement les systèmes de NVIDIA.

Cela pourrait être parce qu'il craint qu'OpenAI abandonne CUDA après avoir appris la collaboration entre OpenAI et AMD. Une fois que le plus grand modèle de base d'IA au monde n'utilise pas CUDA, il est logique que d'autres fabricants de modèles importants imitent OpenAI.

Jen-Hsun Huang a prédit dans le podcast BG2 qu'OpenAI pourrait devenir la prochaine entreprise valorisée à un billion de dollars, avec un rythme de croissance qui établira un record dans l'industrie. Il a réfuté la théorie de la bulle AI, soulignant que les dépenses en capital mondiales pour les infrastructures AI atteindront 5 trillions de dollars par an.

C'est également grâce à cet investissement qu'OpenAI a annoncé le 29 octobre avoir achevé une restructuration de son capital. L'entreprise a été divisée en deux parties, l'une étant une fondation à but non lucratif et l'autre une entreprise à but lucratif.

Une fondation à but non lucratif contrôlera légalement la partie lucrative et devra tenir compte de l'intérêt public. Cependant, elle peut toujours lever des fonds ou acquérir des entreprises. La fondation détiendra 26 % des actions de cette entreprise lucrative et possédera un bon de souscription d'actions. Si l'entreprise continue de croître, la fondation pourra obtenir des actions supplémentaires.

En plus d'OpenAI, Nvidia a également investi dans xAI d'Elon Musk en 2025. La taille de ce tour de financement s'élève actuellement à 20 milliards de dollars. Environ 7,5 milliards de dollars sont levés par le biais d'équité et jusqu'à 12,5 milliards de dollars par le biais de dettes via des entités à but spécial (SPV).

Le fonctionnement de cette entité à but spécial est qu'elle utilisera les fonds levés pour acquérir des processeurs hautes performances de Nvidia, puis louera ces processeurs à xAI.

Ces processeurs seront utilisés pour le projet Colossus 2 de xAI. La première génération de Colossus est le centre de données de supercalcul situé à Memphis, dans l'État du Tennessee, de xAI. Le projet Colossus de première génération a déployé 100 000 GPU Nvidia H100, en faisant l'un des plus grands clusters d'entraînement d'IA au monde. Maintenant, le Colossus 2 en construction par xAI prévoit d'étendre le nombre de GPU à plusieurs centaines de milliers, voire plus.

Le 18 septembre, NVIDIA a également annoncé qu'elle investirait 5 milliards de dollars dans Intel et établirait une coopération stratégique profonde. NVIDIA souscrira des actions ordinaires nouvellement émises d'Intel au prix de 23,28 dollars par action, pour un investissement total de 5 milliards de dollars. Après la conclusion de la transaction, NVIDIA détiendra environ 4 % des actions d'Intel, devenant ainsi un investisseur stratégique important.

03 Bien sûr, lors de ce GTC, Jen-Hsun Huang a également dit beaucoup de choses.

Par exemple, Nvidia a lancé plusieurs familles de modèles d'IA open source, y compris Nemotron pour l'IA numérique, Cosmos pour l'IA physique, Isaac GR00T pour la robotique et Clara pour l'IA biomédicale.

En même temps, Jen-Hsun Huang a lancé la plateforme de développement de conduite autonome DRIVE AGX Hyperion 10. Il s'agit d'une plateforme destinée à la conduite autonome de niveau 4, intégrant des puces de calcul NVIDIA et un ensemble complet de capteurs, y compris des LiDAR, des caméras et des radars.

NVIDIA a également lancé le programme de certification Halos, qui est le premier système au monde destiné à évaluer et certifier la sécurité physique de l'IA, spécifiquement pour les véhicules autonomes et la robotique.

Le cœur du programme de certification Halos est le système Halos AI, qui est le premier laboratoire reconnu par le comité de certification ANSI dans l'industrie. Et l'ANSI est l'American National Standards Institute, dont la certification possède une grande autorité et crédibilité.

La mission de ce système est de vérifier si les systèmes de conduite autonome respectent les normes grâce à l'IA physique de NVIDIA. Des entreprises comme AUMOVIO, Bosch, Nuro et Wayve sont parmi les premiers membres du laboratoire d'essai du système Halos AI.

Pour promouvoir la conduite autonome de niveau 4, NVIDIA a publié un ensemble de données multimodales de conduite autonome provenant de 25 pays, comprenant 1700 heures de données provenant de caméras, de radars et de lidars.

Jen-Hsun Huang a déclaré que la valeur de cet ensemble de données réside dans sa diversité et son ampleur, car il couvre différentes conditions routières, règles de circulation et cultures de conduite, fournissant ainsi une base pour entraîner des systèmes de conduite autonome plus généraux.

Cependant, le plan de Jen-Hsun Huang ne s'arrête pas là.

Il a annoncé une série de collaborations avec des laboratoires gouvernementaux américains et des entreprises leaders sur GTC, visant à construire l'infrastructure AI des États-Unis. Jen-Hsun Huang a déclaré que nous sommes à l'aube de la révolution industrielle de l'IA, qui définira l'avenir de chaque industrie et de chaque pays.

Le point central de cette collaboration est le partenariat avec le département de l'Énergie des États-Unis. NVIDIA aide le département à construire deux centres de supercalcul, l'un au laboratoire national d'Argonne et l'autre au laboratoire national de Los Alamos.

Le laboratoire Argonne va acquérir un superordinateur nommé Solstice, équipé de 100 000 GPU Blackwell de NVIDIA. Que représentent 100 000 GPU ? Ce sera le plus grand superordinateur d'IA jamais construit par le département de l'Énergie. Il y a également un autre système appelé Equinox, équipé de 10 000 GPU Blackwell, qui devrait être opérationnel en 2026. Ensemble, ces deux systèmes pourront fournir 2200 exaflops de performance de calcul d'IA.

Le directeur des laboratoires Argonne, Paul Kearns, a déclaré que ces systèmes redéfiniront les performances, l'évolutivité et le potentiel scientifique. Que comptent-ils faire avec cette puissance de calcul ? De la science des matériaux à la modélisation climatique, en passant par l'informatique quantique et la simulation d'armes nucléaires, ce niveau de capacité de calcul est requis.

En plus des laboratoires gouvernementaux, Nvidia a également construit un centre de recherche sur les usines d'IA en Virginie. Ce qui rend ce centre spécial, c'est qu'il ne s'agit pas seulement d'un centre de données, mais d'un terrain d'expérimentation. Nvidia va y tester quelque chose appelé Omniverse DSX, qui est un plan pour construire des usines d'IA de plusieurs gigawatts.

Un centre de données ordinaire peut nécessiter seulement quelques dizaines de mégawatts d'électricité, tandis qu'un gigawatt équivaut à la production d'électricité d'une centrale nucléaire de taille moyenne.

L'idée centrale de ce blueprint Omniverse DSX est de transformer l'usine AI en un système auto-apprenant. L'agent AI surveillera en continu l'énergie, le refroidissement et la charge de travail, ajustant automatiquement les paramètres pour améliorer l'efficacité. Par exemple, lorsque la charge du réseau électrique est élevée, le système peut réduire automatiquement la consommation d'énergie ou passer à l'alimentation par batteries de stockage.

Cette gestion intelligente est essentielle pour des installations de l'ordre du gigawatt, car les coûts d'électricité et de refroidissement peuvent atteindre des sommes astronomiques.

Cette vision est grandiose, Jen-Hsun Huang a déclaré qu'il avait besoin de trois ans pour la réaliser. Les tests AI-RAN ne commenceront qu'en 2026, les voitures autonomes basées sur le DRIVE AGX Hyperion 10 ne seront sur la route qu'en 2027, et le supercalculateur du ministère de l'Énergie sera également opérationnel en 2027.

NVIDIA détient l'atout CUDA et maîtrise la norme de fait en calcul AI. De l'entraînement à l'inférence, des centres de données aux dispositifs périphériques, de la conduite autonome à la biomédecine, les GPU de NVIDIA sont omniprésents. Les investissements et collaborations annoncés lors de ce GTC renforcent davantage cette position.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)