Гуо Минчи: Интеграция в экосистему Nvidia, производство LPU вырастет в 10 раз, окажет значительное влияние на цепочку поставок PCB

robot
Генерация тезисов в процессе

Нвидиа интегрирует технологию Groq LPU в платформу Rubin, что вызывает глубокие изменения в цепочке поставок.

На конференции Nvidia GTC генеральный директор Дженсен Хуанг объявил о выпуске чипа Nvidia Groq 3 LPU, официально включив его в систему платформы Vera Rubin как ключевой компонент для ускорения вывода данных в следующем поколении AI-центров обработки данных.

Известный аналитик цепочки поставок Apple Го Миньчжжун сразу же опубликовал отчет о исследовании цепочки поставок, указывая, что после участия Nvidia в компании Groq прогнозы по отгрузкам LPU значительно повысились: ожидается, что в 2026–2027 годах совокупные отгрузки достигнут 4–5 миллионов единиц, что более чем в 10 раз превышает исторочные годовые показатели.

Го Миньчжжун считает, что за этим взрывным ростом стоят два основных драйвера: во-первых, глубокая интеграция LPU с экосистемой CUDA от Nvidia значительно снижает порог входа для разработки; во-вторых, быстрое расширение спроса на сверхнизкую задержку в сценариях реального времени, агентских AI, потребительских приложениях и физических AI. Он также отметил, что массовое производство раковин LPU/LPX окажет существенное влияние на цепочку поставок PCB, а WUS-печатные схемы (WUS Printed Circuit) могут стать ключевыми бенефициарами.

Объявление на GTC: LPU официально стал седьмым краеугольным камнем платформы Rubin

В ходе основного выступления на GTC Хуанг раскрыл, как Nvidia интегрировала технологии IP, приобретенные у Groq в прошлом году, в платформу Rubin. Nvidia Groq 3 LPU, как ускоритель для вывода данных, стал седьмым ключевым модулем после Rubin GPU, Vera CPU, коммутатора расширения NVLink 6, сетевой карты ConnectX 9, блока обработки данных Bluefield 4 и коммутатора Spectrum-X.

С точки зрения архитектуры, Groq 3 LPU явно отличается от большинства современных AI-ускорителей. Большинство из них используют HBM в качестве рабочей памяти, тогда как каждый Groq 3 LPU содержит встроенную SRAM объемом 500 МБ — такой же тип памяти, как у кэша CPU и GPU. Хотя этот объем значительно меньше 288 ГБ HBM4, используемых в Rubin GPU, пропускная способность достигает 150 ТБ/с, что в разы превышает 22 ТБ/с у HBM.

Для задач AI, чувствительных к пропускной способности, сверхвысокая пропускная способность Groq 3 дает заметное преимущество в сценариях вывода данных, особенно при развертывании передовых моделей AI, требующих большого объема, низкой задержки и высокой интерактивности.

Исследование цепочки поставок: прогноз отгрузок на 2026–2027 годы — 4–5 миллионов единиц

По последним данным Го Миньчжжуна, после участия Nvidia в Groq прогнозы по отгрузкам LPU были существенно пересмотрены вверх. Он ожидает, что в 2026–2027 годах совокупные отгрузки LPU составят 4–5 миллионов единиц, при этом в 2026 году доля достигнет 30–40%, а в 2027 году — 60–70%. По сравнению с историческими показателями это более чем в 10 раз выше.

На уровне раковин Nvidia планирует увеличить плотность LPU в каждом шкафу с 64 до 256 единиц, чтобы обеспечить сверхнизкую задержку при выводе данных и одновременно справляться с ростом требований к кэш-памяти KV из-за расширенного контекста обработки.

Го Миньчжжун прогнозирует, что новая архитектура раковин начнет массовое производство в четвертом квартале 2026 года — первом квартале 2027-го, а объем отгрузок раковин вырастет с 300–500 штук в 2026 году до 15 000–20 000 штук в 2027 году.

Ключ к успеху — интеграция технологий: три критических узла, определяющих скорость внедрения

Го Миньчжжун отмечает, что быстрый рост спроса на LPU в корне связан с его глубокой связью с экосистемой Nvidia. Интеграция с CUDA значительно снижает барьеры для разработки и развертывания приложений, позволяя разработчикам использовать вычислительные мощности LPU без необходимости перестраивать существующие рабочие процессы. В то же время, быстрое расширение спроса на сценарии с сверхнизкой задержкой, такие как агентские AI, приложения в реальном времени и физический AI, дополнительно стимулирует рост потребности в LPU.

Он выделяет три ключевых узла для отслеживания технологической интеграции: во-первых, на уровне сетевой архитектуры — сможет ли межкабельное соединение раковин через NVLink Fusion и RealScale обеспечить плавное взаимодействие; во-вторых, на уровне интерфейса для разработчиков — сможет ли Nvidia NIM позволить запускать рабочие нагрузки без различия между GPU и LPU; в-третьих, на уровне компиляторов — сможет ли TensorRT-LLM поддерживать архитектуру “предварительной компиляции” для LPU. Го Миньчжжун считает, что скорость продвижения по этим трём направлениям напрямую определит масштаб и глубину внедрения LPU.

Новый цикл для цепочки PCB: WUS-печатные схемы могут стать ключевым бенефициаром

Го Миньчжжун особо подчеркивает, что массовое производство раковин LPU/LPX существенно влияет на цепочку поставок PCB. Он отмечает, что LPU/LPX раковины представляют собой первую масштабную коммерческую реализацию материалов класса M9 (многослойных покрытых медью плат), а WUS-печатные схемы играют ключевую роль в этой цепочке.

Материалы M9 требуют очень высокой технологической точности, включая обработку кварцевого стекловолокна для изготовления многослойных плат с высоким числом слоев. Го Миньчжжун считает, что если массовое производство раковин LPU/LPX будет успешно запущено, это не только даст существенный вклад в показатели WUS в 2027 году, но и подтвердит технологические возможности компании в области высокотехнологичного производства, что может стимулировать рост всего сектора PCB.

Риски и отказ от ответственности

Рынок подвержен рискам, инвестировать следует с осторожностью. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает конкретные цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить, соответствуют ли любые мнения, взгляды или выводы их конкретной ситуации. За инвестиционные решения несет ответственность сам пользователь.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить