Jensen Huang mengumumkan Vera Rubin di CES 2026: Platform komputasi AI baru yang menjadi terobosan bagi industri

Setelah 5 tahun tidak merilis kartu grafis konsumen di CES, CEO Jensen Huang dari NVIDIA berfokus pada tujuan lain - memperkenalkan platform komputasi Vera Rubin, sebuah sistem server AI seberat 2,5 ton yang dirancang untuk mempercepat pelatihan model AI generasi berikutnya. Ini bukan hanya sebuah produk perangkat keras, melainkan sebuah strategi komprehensif untuk mengubah cara perusahaan membangun dan menerapkan infrastruktur AI.

Jensen Huang muncul di tiga acara dalam waktu 48 jam, mulai dari NVIDIA Live hingga kolaborasi dengan Siemens tentang AI industri, kemudian konferensi Lenovo TechWorld. Pesan utama beliau: sumber daya komputasi senilai sekitar 10.000 miliar USD yang diinvestasikan dalam satu dekade terakhir perlu didigitalisasi secara menyeluruh.

Vera Rubin - Arsitektur 6 chip terintegrasi untuk mengungguli Blackwell

Vera Rubin melanggar aturan internal NVIDIA. Alih-alih mengubah 1-2 chip setiap generasi, kali ini perusahaan merancang ulang sekaligus 6 jenis chip berbeda, yang telah memasuki tahap produksi massal. Alasannya adalah metode peningkatan performa tradisional tidak lagi mampu mengikuti kecepatan pertumbuhan model AI yang meningkat 10 kali lipat setiap tahun, terutama saat hukum Moore mulai melambat.

Pilihan NVIDIA adalah “desain kolaborasi ekstrem” - inovasi simultan di semua tingkat chip dan seluruh platform. Prosesor Vera CPU terintegrasi 88 inti Olympus kustom dengan 176 thread, mendukung memori sistem 1,5 TB dan bandwidth LPDDR5X 1,2 TB/s - tiga kali lipat dari generasi Grace. GPU Rubin mencapai kekuatan inferensi NVFP4 sebesar 50 PFLOPS (5 kali Blackwell) dengan 336 miliar transistor, mengintegrasikan engine Transformer generasi 3 yang dapat menyesuaikan presisi secara dinamis.

Untuk menghubungkan semua komponen ini, NVIDIA meluncurkan ConnectX-9 (kartu jaringan 800 Gb/s), BlueField-4 DPU (pengolah akhir untuk penyimpanan AI), chip switching NVLink-6 (menghubungkan 18 node, mendukung hingga 72 GPU Rubin beroperasi sebagai satu kesatuan), dan chip switching optik Ethernet Spectrum-6 (512 saluran, masing-masing 200 Gbps).

Performa luar biasa: dari pelatihan hingga inferensi

Sistem Vera Rubin NVL72 menawarkan angka yang mengesankan. Dalam tugas inferensi NVFP4, performa mencapai 3,6 EFLOPS - 5 kali lipat Blackwell. Untuk pelatihan NVFP4, performa mencapai 2,5 EFLOPS, meningkat 3,5 kali. Kapasitas memori LPDDR5X mencapai 54 TB (tiga kali lipat), sementara memori HBM mencapai 20,7 TB dengan bandwidth HBM4 sebesar 1,6 PB/s (2,8 kali lipat).

Yang istimewa, meskipun performa meningkat pesat, jumlah transistor hanya bertambah 1,7 kali (menjadi 220 ribu miliar), menunjukkan kemampuan optimalisasi teknologi semikonduktor NVIDIA. Melatih model dengan 100 triliun parameter, Vera Rubin hanya membutuhkan seperempat jumlah sistem dibandingkan Blackwell, dan biaya pembuatan satu Token hanya sepersepuluhnya.

Yang paling penting, throughput (jumlah AI Token yang selesai per watt dan per dolar) meningkat 10 kali lipat dibanding Blackwell. Untuk pusat data berdaya gigawatt senilai 50 miliar USD, ini berarti kapasitas menghasilkan pendapatan akan berlipat ganda - setiap dolar investasi menghasilkan dua kali lipat nilai.

Dari 43 kabel menjadi 0 kabel: inovasi teknik perakitan

Vera Rubin juga membawa terobosan dalam desain teknik. Sebelumnya, setiap node super komputer membutuhkan 43 kabel, pemasangannya memakan waktu 2 jam dan mudah salah pasang. Sekarang, node Vera Rubin menggunakan 0 kabel, hanya tersisa 6 tabung pendingin cair, dan pemasangannya selesai dalam 5 menit.

Di belakang rak server terdapat hampir 3,2 km kabel tembaga, 5000 kabel tembaga membentuk jaringan utama NVLink yang mentransfer data dengan kecepatan 400 Gbps. Jensen Huang dengan humor mengatakan: “Mungkin seberat ratusan kilogram, Anda harus CEO yang sangat kuat untuk melakukan ini.”

KV Cache tak terbatas: Memori konteks tak lagi menjadi hambatan

Salah satu masalah besar AI adalah saat percakapan panjang, “KV Cache” (memori cache key-value - “memori tugas” AI) memenuhi memori HBM. Solusi Vera Rubin adalah mengimplementasikan BlueField-4 dalam rak server untuk mengelola KV Cache secara terpisah.

Setiap node memiliki 4 BlueField-4, masing-masing dilengkapi 150 TB memori konteks, yang dialokasikan ke GPU. Setiap GPU ditambah 16 TB memori - padahal GPU hanya memiliki sekitar 1 TB memori internal. Yang penting, bandwidth tetap 200 Gbps, tanpa mengurangi kecepatan transfer data.

Spectrum-X: Jaringan “khusus AI generatif” hemat 5 miliar USD

Agar “catatan kecil” dapat tersebar di puluhan rak server dan ratusan GPU bekerja sama seperti satu memori tunggal, jaringan harus besar, cepat, dan stabil. Spectrum-X adalah platform jaringan Ethernet end-to-end pertama di dunia yang “khusus untuk AI generatif” yang diluncurkan NVIDIA, menggunakan proses COOP dari TSMC dengan teknologi silikon fotonik, dengan kecepatan 512 saluran × 200 Gbps.

Jensen Huang memperkirakan: pusat data berdaya gigawatt senilai 50 miliar USD, Spectrum-X meningkatkan throughput sebesar 25%, menghemat sekitar 5 miliar USD. “Bisa dikatakan, sistem jaringan ini hampir ‘gratis’.”

Keamanan komputasi: Semua data dienkripsi selama transmisi

Vera Rubin mendukung Confidential Computing - semua data dienkripsi selama proses transmisi, penyimpanan, dan pengolahan, termasuk saluran PCIe, NVLink, komunikasi CPU-GPU, dan bus lainnya. Perusahaan dapat dengan tenang mengimplementasikan model mereka di sistem eksternal tanpa khawatir data bocor.

AI fisik: Dari robotika hingga mobil otonom, NVIDIA fokus pada dunia nyata

Jensen Huang menekankan arsitektur “tiga inti komputer” untuk AI fisik: komputer pelatihan yang dibangun dari GPU, komputer inferensi “otak kecil” yang ditempatkan di robot atau mobil, dan komputer simulasi (Omniverse dan Cosmos) yang menyediakan lingkungan pelatihan virtual.

Berdasarkan arsitektur ini, NVIDIA mengumumkan Alpamayo - model mengemudi otomatis pertama yang mampu berpikir dan menyimpulkan. Berbeda dari sistem mengemudi otomatis tradisional, Alpamayo adalah sistem pelatihan end-to-end yang mampu menyelesaikan “masalah ekor panjang” dari mengemudi otomatis. Saat menghadapi situasi lalu lintas kompleks yang belum pernah ditemui, Alpamayo tidak hanya menjalankan perintah secara kaku, tetapi juga menyimpulkan seperti pengemudi manusia.

Mercedes CLA yang dilengkapi teknologi Alpamayo akan resmi diluncurkan di AS pada kuartal I tahun ini, kemudian menyusul ke pasar Eropa dan Asia. Mobil ini dinilai NCAP sebagai mobil paling aman di dunia berkat desain “tumpukan keamanan ganda” yang unik - ketika model AI end-to-end tidak cukup percaya diri, sistem secara otomatis beralih ke mode keamanan tradisional yang lebih stabil.

Di panggung, Jensen Huang mengundang robot humanoid dan robot berkaki empat seperti Boston Dynamics, Agility… untuk tampil. Ia menegaskan, robot terbesar sebenarnya adalah pabrik. Semua robot akan dilengkapi komputer mini Jetson, dilatih dalam Isaac Simulator berbasis Omniverse. NVIDIA juga mengintegrasikan teknologi ini ke dalam ekosistem industri seperti Synopsys, Cadence, Siemens.

Model sumber terbuka: Strategi pilihan NVIDIA

Jensen Huang sangat memuji komunitas sumber terbuka. Ia menyatakan, terobosan DeepSeek V1 tahun lalu secara langsung mendorong gelombang pengembangan industri. Pada slide, model Kimi K2 dan DeepSeek V3.2 masing-masing adalah sumber terbuka nomor 1 dan 2.

Meskipun model sumber terbuka saat ini mungkin kalah dari model terdepan sekitar 6 bulan, tetapi setiap 6 bulan selalu muncul model baru. Kecepatan iterasi ini membuat startup, perusahaan besar, dan peneliti tidak ingin melewatkan, termasuk NVIDIA sendiri.

Kali ini, mereka tidak hanya menjual “sekop” atau kartu grafis; NVIDIA membangun superkomputer DGX Cloud, mengembangkan model canggih seperti La Proteina (penggabungan protein) dan OpenFold 3. Ekosistem model sumber terbuka NVIDIA mencakup bidang biologi, AI fisik, model agen, robot, dan mobil otonom.

Banyak model sumber terbuka dari keluarga Nemotron NVIDIA juga menjadi sorotan. Termasuk model suara, multimodal, peningkatan retrieval generatif dan keamanan, yang meraih prestasi tinggi di berbagai peringkat dan banyak digunakan perusahaan.

Masa depan: Strategi dari dunia virtual ke dunia nyata

Dulu NVIDIA membuat chip untuk dunia virtual. Sekarang, Jensen Huang jelas berfokus pada AI fisik, dengan mobil otonom dan robot humanoid sebagai perwakilan, untuk memasuki dunia fisik nyata yang kompetitif dan lebih intens.

Dalam konteks perdebatan tentang gelembung AI, selain memperkenalkan platform komputasi super Vera Rubin untuk memenuhi kebutuhan komputasi, Jensen Huang juga banyak berinvestasi dalam aplikasi dan perangkat lunak. Tujuannya adalah menunjukkan secara visual bagaimana AI akan mengubah dunia - dari mobil otonom yang lebih aman hingga robot yang mampu menyimpulkan.

Pada akhirnya, hanya ketika pertempuran berlangsung di dunia nyata, senjata baru dapat terus dijual.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan