OpenLedger: создание модели экономии агентов с использованием данных

OpenLedger Глубина исследование: на базе OP Stack+EigenDA создать экономику интеллектуальных агентов, основанную на данных и комбинируемых моделях

Одно. Введение | Переход модели Crypto AI

Данные, модели и вычислительная мощность являются тремя основными компонентами инфраструктуры ИИ, подобно топливу (данные), двигателю (модель) и энергии (вычислительная мощность), которые не могут обойтись друг без друга. Подобно эволюции инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок временно находился под влиянием децентрализованных проектов GPU, которые в основном подчеркивали логику грубого роста «соревнуйтесь в вычислительной мощности». Однако к 2025 году внимание отрасли постепенно переместилось на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному для применения строительству на среднем уровне.

Универсальная большая модель (LLM) против специализированной модели (SLM)

Традиционные крупные языковые модели (LLM) высоко зависят от масштабных наборов данных и сложной распределенной архитектуры, объем параметров составляет от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель), как легковесный подход к тонкой настройке с возможностью повторного использования базовой модели, обычно основана на открытых моделях, сочетая небольшое количество высококачественных специализированных данных и технологии, такие как LoRA, для быстрого построения экспертных моделей с учетом знаний в определенной области, что значительно снижает затраты на обучение и технические барьеры.

Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA и RAG (усиленная генерация с помощью извлечения) и т.д. Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональную производительность за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.

Ценность и границы Crypto AI на уровне модели

Крипто AI проекты по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина в том, что

  • Технический порог слишком высок: объем данных, вычислительных ресурсов и инженерных навыков, необходимых для обучения Foundation Model, чрезвычайно велик, в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключ к реальному прорыву модели все еще сосредоточен в научных учреждениях и закрытых инженерных системах, а участие цепочных проектов на уровне основных моделей ограничено.

Однако на основе открытых моделей, проект Crypto AI все еще может осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" цепочки AI, это проявляется в двух основных направлениях:

  • Достоверный уровень верификации: через цепочечные записи путей генерации модели, вклад данных и использование, усиливается прослеживаемость и защита от подделки AI-выходов.
  • Механизм стимулирования: с помощью родного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агентов (Agent) и т.д., создание положительного цикла обучения модели и предоставления услуг.

Классификация типов AI моделей и анализ применимости блокчейна

Таким образом, можно видеть, что жизнеспособные точки приложения моделей класса Crypto AI в основном сосредоточены на легкой настройке маломасштабных SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимуляции Edge моделей. В сочетании с проверяемостью блокчейна и механизмом токенов, Crypto может предложить уникальную ценность для этих сценариев моделей со средними и низкими ресурсами, создавая дифференцированную ценность «интерфейсного слоя» AI.

Блокчейн AI цепь на основе данных и моделей может обеспечить четкую, неизменяемую запись источников вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая поведение AI в измеримую, торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, совершенствуя архитектуру децентрализованного управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два. Обзор проекта | Видение AI Chain OpenLedger

OpenLedger является одним из немногих блокчейн AI проектов на текущем рынке, сосредоточенных на механизмах стимулирования данных и моделей. Он первым предложил концепцию «Payable AI», направленную на создание справедливой, прозрачной и комбинируемой среды для работы AI, которая будет стимулировать участников данных, разработчиков моделей и строителей AI-приложений к сотрудничеству на одной платформе и получению дохода на цепочке в зависимости от фактического вклада.

OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели», а затем до «вызова распределения прибыли», его основные модули включают:

  • Модельный завод: не требуется программирование, можно использовать LoRA для настройки и обучения на основе открытого LLM и развертывания пользовательских моделей;
  • OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
  • PoA (Доказательство Атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в блокчейне;
  • Datanets: структурированные сетевые данные для вертикальных сценариев, создаваемые и проверяемые сообществом;
  • Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.

С помощью вышеуказанных модулей OpenLedger создала инфраструктуру «умной экономики» на основе данных и комбинируемых моделей, способствуя онлайнизации ценностной цепочки ИИ.

А в использовании технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для выполнения данных и контрактов для AI моделей.

  • Построено на OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие расходы на выполнение;
  • Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
  • EVM совместимость: удобно для разработчиков быстро развертывать и расширять на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.

По сравнению с такими более низкими уровнями, как NEAR, которые сосредоточены на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger более ориентирован на создание специализированных цепочек AI, направленных на стимуляцию данных и моделей, стремясь обеспечить возможность разработки и вызова моделей с реализуемым отслеживанием, совместимостью и устойчивой ценностью на цепочке. Это инфраструктура для стимуляции моделей в мире Web3, которая сочетает в себе хостинг моделей, расчет использования и интерфейсы на цепочке, способствуя реализации пути «модель как актив».

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, основные компоненты и технологическая архитектура OpenLedger

3.1 Модельный завод, не требующий кодирования

ModelFactory — это крупная платформа для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предоставляет полностью графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут дообучать модель на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения модели и развертывания, его ключевые этапы включают:

  • Контроль доступа к данным: пользователь отправляет запрос на данные, провайдер проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
  • Легкая настройка: Встроенный движок LoRA / QLoRA, отображающий прогресс обучения в реальном времени.
  • Оценка и развертывание модели: Встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования экосистемы.
  • Интерфейс проверки взаимодействия: Предоставляет чат-интерфейс, удобный для непосредственного тестирования能力 модели отвечать на вопросы.
  • Генерация RAG для отслеживания: Ответы с указанием источников, повышающие доверие и аудит.

Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, тонкую настройку модели, оценку развертывания и отслеживание RAG, создавая интегрированную платформу модельного сервиса, безопасную и контролируемую, с возможностью实时 взаимодействия и устойчивой монетизации.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

Модельный завод в настоящее время поддерживает следующие возможности больших языковых моделей:

  • Серия LLaMA: самая широкая экосистема, активное сообщество, высокая общая производительность, является одной из самых распространенных открытых базовых моделей на данный момент.
  • Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen:Выдающиеся результаты на китайских задачах, высокая综合能力, подходит для выбора отечественными разработчиками.
  • ChatGLM: выдающие результаты на китайском языке, подходит для специализированного обслуживания клиентов и локализованных сценариев.
  • Deepseek: проявляет превосходство в генерации кода и математическом выводе, подходит для инструментов помощи в интеллектуальной разработке.
  • Gemma: Легкая модель, разработанная Google, с ясной структурой, легко адаптируемая для быстрого освоения и экспериментов.
  • Falcon: Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
  • BLOOM: поддержка множества языков довольно сильная, но производительность вывода слабовата, подходит для исследований с охватом языков.
  • GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для фактического развертывания.

Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или многомодальные модели, его стратегия не устарела, а основана на «приоритетах практичности», сделанных с учетом реальных ограничений развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как безкодовая инструментальная цепочка, все модели встроены в механизм доказательства вклада, обеспечивая права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути к инкубации, распространению и доходам от модели;
  • Для платформы: формирование модели циркуляции активов и экосистемы комбинаций;
  • Для пользователей: можно комбинировать использование модели или агента, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA, активизация цепочных активов модели донастройки

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предварительно обученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранилищу. Традиционные большие языковые модели (например, LLaMA, GPT-3) обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Чтобы использовать их для конкретных задач (например, юридические вопросы, медицинские консультации), требуется тонкая настройка (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Этот метод эффективен по параметрам, быстро обучается и гибко развертывается, что делает его самым подходящим из современных методов тонкой настройки для развертывания и комбинированного вызова моделей Web3.

OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI-моделей, таких как высокая стоимость, низкая повторная использование и неэффективное использование ресурсов GPU, а также содействие реализации «оплачиваемого AI» (Payable AI).

Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые аспекты, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., обеспечивая эффективные и низкозатратные возможности развертывания и вызова нескольких моделей:

  • Модуль хранения LoRA Adapter (LoRA Adapters Storage): дообученный адаптер LoRA размещается на OpenLedger, что позволяет загружать по мере необходимости, избегая предзагрузки всех моделей в видеопамять, экономя ресурсы.
  • Моделирование хостинга и динамический слой слияния (Model Hosting & Adapter Merging Layer): все модели с доработкой используют базовую большую модель (base model), во время вывода динамический адаптер LoRA
OP-1.85%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
OffchainWinnervip
· 07-28 07:30
Этот AI проект все еще не работает.
Посмотреть ОригиналОтветить0
GateUser-a606bf0cvip
· 07-27 22:35
Кто-нибудь может объяснить, как войти в позицию? Я не очень понимаю.
Посмотреть ОригиналОтветить0
GateUser-00be86fcvip
· 07-27 22:30
Есть ли необходимость в AI?
Посмотреть ОригиналОтветить0
BearMarketBrovip
· 07-27 22:26
Старший медведь-папа Певица только смотрит Все в
Посмотреть ОригиналОтветить0
  • Закрепить