Обновление DeepSeek V3: новая эра вычислительной мощности и алгоритмов
Недавно DeepSeek выпустил обновление последней версии V3 — DeepSeek-V3-0324 на платформе Hugging Face. Параметры модели этой версии достигли 685 миллиардов, что значительно улучшило кодовые способности, дизайн пользовательского интерфейса и способности к выводу.
На только что завершившейся конференции GTC 2025 участники отрасли высоко оценили DeepSeek. Он отметил, что мнение рынка о том, что эффективная модель DeepSeek снизит потребность в чипах, является ошибочным, и в будущем спрос на вычислительные ресурсы только увеличится, а не уменьшится.
DeepSeek как代表 продукта,突破 алгоритма, вызвал размышления о связи между поставкой чипов и вычислительной мощностью и алгоритмом в развитии отрасли.
Вычислительная мощность и эволюция алгоритмов в симбиозе
В области ИИ повышение вычислительной мощности предоставляет базу для выполнения более сложных алгоритмов, позволяя моделям обрабатывать более объемные данные и изучать более сложные паттерны; в то время как оптимизация алгоритмов позволяет более эффективно использовать вычислительную мощность, увеличивая эффективность использования вычислительных ресурсов.
Вычислительная мощность и алгоритм имеют симбиотические отношения, которые перекраивают ландшафт AI-индустрии:
Дифференциация технических маршрутов: некоторые компании стремятся создать сверхбольшие вычислительные кластеры, в то время как другие сосредотачиваются на оптимизации эффективности алгоритмов, формируя различные технические школы.
Реконструкция цепочки поставок: гиганты по производству чипов становятся лидерами в области вычислительной мощности ИИ через экосистему, в то время как облачные сервис-провайдеры снижают барьеры для развертывания через гибкие вычислительные услуги.
Корректировка распределения ресурсов: компании ищут баланс между инвестициями в аппаратную инфраструктуру и разработкой эффективных алгоритмов.
Восход открытого сообщества: открытые модели позволяют делиться результатами инноваций алгоритмов и оптимизации вычислительной мощности, ускоряя итерации и распространение технологий.
Технические инновации DeepSeek
Успех DeepSeek неразрывно связан с его технологическими инновациями. Ниже приведено простое объяснение его основных инновационных моментов:
Оптимизация архитектуры модели
DeepSeek использует комбинационную архитектуру Transformer+MOE (Смешанная группа экспертов) и вводит механизм многоголового латентного внимания (Multi-Head Latent Attension, MLA). Эта архитектура похожа на суперкоманду, где Transformer отвечает за выполнение обычных задач, а MOE функционирует как группа экспертов в команде, каждый из которых имеет свою область экспертизы. Когда возникает конкретная проблема, ее решает наиболее квалифицированный эксперт, что значительно повышает эффективность и точность модели. Механизм MLA позволяет модели более гибко обращать внимание на различные важные детали при обработке информации, что дополнительно улучшает производительность модели.
Инновации в методах обучения
DeepSeek предложила рамки смешанной точности FP8 для обучения. Эта рамка похожа на интеллектуальный распределитель ресурсов, который может динамически выбирать подходящую вычислительную точность в зависимости от потребностей на разных этапах процесса обучения. В случае необходимости высокой точности вычислений используется более высокая точность для обеспечения точности модели; в то время как в случаях, когда допустима более низкая точность, точность понижается, что позволяет сэкономить вычислительные ресурсы, ускорить обучение и снизить использование памяти.
Повышение эффективности вывода
На этапе вывода DeepSeek внедряет технологию многотокенового прогнозирования (Multi-token Prediction, MTP). Традиционный метод вывода осуществляется поэтапно, и на каждом этапе предсказывается только один токен. В то же время, MTP-технология позволяет предсказывать несколько токенов за один раз, что значительно ускоряет процесс вывода и снижает его стоимость.
Прорыв в алгоритме обучения с подкреплением
Новый алгоритм глубокого обучения DeepSeek, GRPO (Обобщенная оптимизация с вознаграждением и наказанием), оптимизирует процесс обучения модели. Укрепляющее обучение похоже на то, что модели предоставляется тренер, который направляет ее к обучению лучшему поведению через вознаграждения и наказания. Новый алгоритм DeepSeek более эффективен и может уменьшить ненужные вычисления, обеспечивая при этом повышение производительности модели и достигая баланса между производительностью и затратами.
Эти инновации сформировали полную технологическую систему, снижающую потребность в вычислительной мощности на всех этапах - от обучения до вывода. Обычные потребительские видеокарты теперь могут запускать мощные AI-модели, значительно снизив порог входа для AI-приложений и позволив большему числу разработчиков и компаний участвовать в AI-инновациях.
Влияние на чиповую промышленность
Многие считают, что DeepSeek обошел некоторые технологические уровни, тем самым избавившись от зависимости от определенных чипов. На самом деле, DeepSeek напрямую проводит оптимизацию алгоритмов через нижний уровень PTX (Parallel Thread Execution). PTX является промежуточным языком, находящимся между высокоуровневым кодом и фактическими инструкциями GPU, и, работая с этим уровнем, DeepSeek может добиться более тонкой настройки производительности.
Влияние на чиповую индустрию двустороннее: с одной стороны, DeepSeek на самом деле более глубоко связано с аппаратным обеспечением и соответствующей экосистемой, а снижение порога доступа к AI-приложениям может расширить общий размер рынка; с другой стороны, оптимизация алгоритма DeepSeek может изменить структуру спроса на высококачественные чипы, и некоторые AI модели, которые ранее требовали высококачественных GPU для работы, теперь могут эффективно работать на средних и даже потребительских видеокартах.
Значение для китайской ИИ-индустрии
Оптимизация алгоритма DeepSeek предоставляет технический прорыв для китайской AI-индустрии. В условиях ограничений на высококачественные чипы подход "программное обеспечение вместо аппаратного обеспечения" уменьшает зависимость от ведущих импортных чипов.
На upstream эффективные алгоритмы снизили давление на потребность в вычислительной мощности, что позволило провайдерам вычислительных услуг продлить срок службы оборудования за счет программной оптимизации и повысить доходность инвестиций. На downstream оптимизированные открытые модели снизили порог для разработки AI-приложений. Многим малым и средним предприятиям не нужны большие ресурсы вычислительной мощности, и они могут разрабатывать конкурентоспособные приложения на основе модели DeepSeek, что приведет к появлению большего количества AI-решений в вертикальных областях.
Глубокое влияние Web3+AI
Децентрализованная AI инфраструктура
Оптимизация алгоритма DeepSeek предоставляет новую силу для инфраструктуры Web3 AI, инновационная архитектура, эффективные алгоритмы и низкие требования к вычислительной мощности делают возможным децентрализованное AI-вывод. Архитектура MoE естественно подходит для распределенного развертывания, различные узлы могут иметь разные сети экспертов, не требуя от единственного узла хранения полной модели, что значительно снижает требования к хранению и вычислениям для одного узла, тем самым повышая гибкость и эффективность модели.
FP8 тренировочная структура дополнительно снизила требования к высокопроизводительным вычислительным ресурсам, что позволило большему количеству вычислительных ресурсов присоединиться к узловой сети. Это не только снизило барьер для участия в децентрализованных AI вычислениях, но и повысило общую вычислительную мощность и эффективность сети.
Многоагентные системы
Оптимизация интеллектуальных торговых стратегий: с помощью совместной работы агентов анализа рыночных данных в реальном времени, агентов прогнозирования краткосрочных ценовых колебаний, агентов выполнения сделок на блокчейне, агентов мониторинга результатов сделок и т.д. помогает пользователям получать более высокую прибыль.
Автоматическое выполнение смарт-контрактов: агенты мониторинга смарт-контрактов, агенты выполнения смарт-контрактов, агенты контроля результатов выполнения и т.д. работают совместно, реализуя более сложную автоматизацию бизнес-логики.
Персонализированное управление инвестиционным портфелем: ИИ помогает пользователям в реальном времени находить лучшие возможности для стейкинга или предоставления ликвидности в соответствии с их рисковыми предпочтениями, инвестиционными целями и финансовым состоянием.
DeepSeek именно под воздействием ограничений вычислительной мощности, через инновации в алгоритмах, ищет прорывы, открывая для китайской ИИ-индустрии дифференцированные пути развития. Снижение порога применения, содействие интеграции Web3 и ИИ, уменьшение зависимости от высококачественных чипов, предоставление возможностей для финансовых инноваций — эти влияния уже меняют структуру цифровой экономики. Будущее развития ИИ больше не будет просто гонкой вычислительной мощности, а станет соревнованием по совместной оптимизации вычислительной мощности и алгоритмов. На этой новой арене инноваторы, такие как DeepSeek, переопределяют правила игры с помощью китайской мудрости.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
6
Поделиться
комментарий
0/400
DeFi_Dad_Jokes
· 07-28 17:01
Почему бы не попробовать запустить ETH?
Посмотреть ОригиналОтветить0
DAOdreamer
· 07-27 02:24
Скорость На луну! Наконец-то смог сделать это лучше, чем gpt.
Посмотреть ОригиналОтветить0
TheMemefather
· 07-26 22:17
Еще один, кто выступает под флагом Падение затрат
Посмотреть ОригиналОтветить0
0xOverleveraged
· 07-26 22:07
Отлично, отечественный ИИ должен подняться.
Посмотреть ОригиналОтветить0
RetailTherapist
· 07-26 22:04
6850 миллиардов - это действительно страшно, это настоящая Вычислительная мощность-монстр.
Посмотреть ОригиналОтветить0
GateUser-75ee51e7
· 07-26 22:03
Можно ли еще снизить требования к чипам? Понимающие, скажите.
Обновление DeepSeek V3: Вычислительная мощность и Алгоритм танцуют вместе, перестраивая ландшафт AI-индустрии
Обновление DeepSeek V3: новая эра вычислительной мощности и алгоритмов
Недавно DeepSeek выпустил обновление последней версии V3 — DeepSeek-V3-0324 на платформе Hugging Face. Параметры модели этой версии достигли 685 миллиардов, что значительно улучшило кодовые способности, дизайн пользовательского интерфейса и способности к выводу.
На только что завершившейся конференции GTC 2025 участники отрасли высоко оценили DeepSeek. Он отметил, что мнение рынка о том, что эффективная модель DeepSeek снизит потребность в чипах, является ошибочным, и в будущем спрос на вычислительные ресурсы только увеличится, а не уменьшится.
DeepSeek как代表 продукта,突破 алгоритма, вызвал размышления о связи между поставкой чипов и вычислительной мощностью и алгоритмом в развитии отрасли.
Вычислительная мощность и эволюция алгоритмов в симбиозе
В области ИИ повышение вычислительной мощности предоставляет базу для выполнения более сложных алгоритмов, позволяя моделям обрабатывать более объемные данные и изучать более сложные паттерны; в то время как оптимизация алгоритмов позволяет более эффективно использовать вычислительную мощность, увеличивая эффективность использования вычислительных ресурсов.
Вычислительная мощность и алгоритм имеют симбиотические отношения, которые перекраивают ландшафт AI-индустрии:
Технические инновации DeepSeek
Успех DeepSeek неразрывно связан с его технологическими инновациями. Ниже приведено простое объяснение его основных инновационных моментов:
Оптимизация архитектуры модели
DeepSeek использует комбинационную архитектуру Transformer+MOE (Смешанная группа экспертов) и вводит механизм многоголового латентного внимания (Multi-Head Latent Attension, MLA). Эта архитектура похожа на суперкоманду, где Transformer отвечает за выполнение обычных задач, а MOE функционирует как группа экспертов в команде, каждый из которых имеет свою область экспертизы. Когда возникает конкретная проблема, ее решает наиболее квалифицированный эксперт, что значительно повышает эффективность и точность модели. Механизм MLA позволяет модели более гибко обращать внимание на различные важные детали при обработке информации, что дополнительно улучшает производительность модели.
Инновации в методах обучения
DeepSeek предложила рамки смешанной точности FP8 для обучения. Эта рамка похожа на интеллектуальный распределитель ресурсов, который может динамически выбирать подходящую вычислительную точность в зависимости от потребностей на разных этапах процесса обучения. В случае необходимости высокой точности вычислений используется более высокая точность для обеспечения точности модели; в то время как в случаях, когда допустима более низкая точность, точность понижается, что позволяет сэкономить вычислительные ресурсы, ускорить обучение и снизить использование памяти.
Повышение эффективности вывода
На этапе вывода DeepSeek внедряет технологию многотокенового прогнозирования (Multi-token Prediction, MTP). Традиционный метод вывода осуществляется поэтапно, и на каждом этапе предсказывается только один токен. В то же время, MTP-технология позволяет предсказывать несколько токенов за один раз, что значительно ускоряет процесс вывода и снижает его стоимость.
Прорыв в алгоритме обучения с подкреплением
Новый алгоритм глубокого обучения DeepSeek, GRPO (Обобщенная оптимизация с вознаграждением и наказанием), оптимизирует процесс обучения модели. Укрепляющее обучение похоже на то, что модели предоставляется тренер, который направляет ее к обучению лучшему поведению через вознаграждения и наказания. Новый алгоритм DeepSeek более эффективен и может уменьшить ненужные вычисления, обеспечивая при этом повышение производительности модели и достигая баланса между производительностью и затратами.
Эти инновации сформировали полную технологическую систему, снижающую потребность в вычислительной мощности на всех этапах - от обучения до вывода. Обычные потребительские видеокарты теперь могут запускать мощные AI-модели, значительно снизив порог входа для AI-приложений и позволив большему числу разработчиков и компаний участвовать в AI-инновациях.
Влияние на чиповую промышленность
Многие считают, что DeepSeek обошел некоторые технологические уровни, тем самым избавившись от зависимости от определенных чипов. На самом деле, DeepSeek напрямую проводит оптимизацию алгоритмов через нижний уровень PTX (Parallel Thread Execution). PTX является промежуточным языком, находящимся между высокоуровневым кодом и фактическими инструкциями GPU, и, работая с этим уровнем, DeepSeek может добиться более тонкой настройки производительности.
Влияние на чиповую индустрию двустороннее: с одной стороны, DeepSeek на самом деле более глубоко связано с аппаратным обеспечением и соответствующей экосистемой, а снижение порога доступа к AI-приложениям может расширить общий размер рынка; с другой стороны, оптимизация алгоритма DeepSeek может изменить структуру спроса на высококачественные чипы, и некоторые AI модели, которые ранее требовали высококачественных GPU для работы, теперь могут эффективно работать на средних и даже потребительских видеокартах.
Значение для китайской ИИ-индустрии
Оптимизация алгоритма DeepSeek предоставляет технический прорыв для китайской AI-индустрии. В условиях ограничений на высококачественные чипы подход "программное обеспечение вместо аппаратного обеспечения" уменьшает зависимость от ведущих импортных чипов.
На upstream эффективные алгоритмы снизили давление на потребность в вычислительной мощности, что позволило провайдерам вычислительных услуг продлить срок службы оборудования за счет программной оптимизации и повысить доходность инвестиций. На downstream оптимизированные открытые модели снизили порог для разработки AI-приложений. Многим малым и средним предприятиям не нужны большие ресурсы вычислительной мощности, и они могут разрабатывать конкурентоспособные приложения на основе модели DeepSeek, что приведет к появлению большего количества AI-решений в вертикальных областях.
Глубокое влияние Web3+AI
Децентрализованная AI инфраструктура
Оптимизация алгоритма DeepSeek предоставляет новую силу для инфраструктуры Web3 AI, инновационная архитектура, эффективные алгоритмы и низкие требования к вычислительной мощности делают возможным децентрализованное AI-вывод. Архитектура MoE естественно подходит для распределенного развертывания, различные узлы могут иметь разные сети экспертов, не требуя от единственного узла хранения полной модели, что значительно снижает требования к хранению и вычислениям для одного узла, тем самым повышая гибкость и эффективность модели.
FP8 тренировочная структура дополнительно снизила требования к высокопроизводительным вычислительным ресурсам, что позволило большему количеству вычислительных ресурсов присоединиться к узловой сети. Это не только снизило барьер для участия в децентрализованных AI вычислениях, но и повысило общую вычислительную мощность и эффективность сети.
Многоагентные системы
Оптимизация интеллектуальных торговых стратегий: с помощью совместной работы агентов анализа рыночных данных в реальном времени, агентов прогнозирования краткосрочных ценовых колебаний, агентов выполнения сделок на блокчейне, агентов мониторинга результатов сделок и т.д. помогает пользователям получать более высокую прибыль.
Автоматическое выполнение смарт-контрактов: агенты мониторинга смарт-контрактов, агенты выполнения смарт-контрактов, агенты контроля результатов выполнения и т.д. работают совместно, реализуя более сложную автоматизацию бизнес-логики.
Персонализированное управление инвестиционным портфелем: ИИ помогает пользователям в реальном времени находить лучшие возможности для стейкинга или предоставления ликвидности в соответствии с их рисковыми предпочтениями, инвестиционными целями и финансовым состоянием.
DeepSeek именно под воздействием ограничений вычислительной мощности, через инновации в алгоритмах, ищет прорывы, открывая для китайской ИИ-индустрии дифференцированные пути развития. Снижение порога применения, содействие интеграции Web3 и ИИ, уменьшение зависимости от высококачественных чипов, предоставление возможностей для финансовых инноваций — эти влияния уже меняют структуру цифровой экономики. Будущее развития ИИ больше не будет просто гонкой вычислительной мощности, а станет соревнованием по совместной оптимизации вычислительной мощности и алгоритмов. На этой новой арене инноваторы, такие как DeepSeek, переопределяют правила игры с помощью китайской мудрости.