OpenLedger Глибина дослідження: на базі OP Stack+EigenDA створення економіки інтелектуальних агентів, що керується даними та має можливість комбінування моделей
Один. Вступ | Модельний рівень Crypto AI переходить
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність) — жоден з них не може бути відсутнім. Як і в традиційній індустрії ШІ, шлях еволюції інфраструктури в галузі Crypto AI також пройшов подібні етапи. На початку 2024 року ринок тимчасово був під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку грубого зростання «конкуренція обчислювальної потужності». А з початком 2025 року увага галузі поступово перемістилася на рівень моделі та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного середнього рівня будівництва.
Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних та складних розподілених архітектур, обсяг параметрів часто становить 70B-500B, а вартість одного навчання може досягати кількох мільйонів доларів. В той же час, SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки, що дозволяє використовувати базову модель повторно, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, для швидкого створення експертних моделей з певними знаннями в галузі, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування з пошуком) тощо. Ця архітектура зберігає широку охоплення LLM, одночасно покращуючи спеціалізовану продуктивність за допомогою модуля тонкої настройки, формуючи високо гнучку комбінаційну інтелектуальну систему.
Цінність і межі Crypto AI на рівні моделі
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Технічний бар'єр надто високий: обсяги даних, обчислювальні ресурси та інженерні здібності, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише технологічні гіганти, такі як США та Китай, мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже відкриті, справжній прорив у розвитку моделей все ще зосереджений у наукових установах та закритих інженерних системах, простір участі проектів на блокчейні на рівні основних моделей обмежений.
Однак на основі відкритих базових моделей проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як "периферійний інтерфейсний шар" у ланцюзі постачання AI, це проявляється у двох основних напрямках:
Достовірний рівень верифікації: шляхом запису на ланцюзі шляху генерації моделі, внеску даних та їх використання, підвищується простежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: за допомогою рідного токена, що використовується для стимулювання завантаження даних, викликів моделей, виконання агентів та інших дій, створюється позитивний цикл навчання моделей і надання послуг.
Класифікація типів AI моделей та аналіз їхньої застосовності в блокчейні
Отже, модельні проекти Crypto AI можуть бути зосереджені на легкій налаштуванні малих SLM, підключенні та верифікації даних на ланцюзі архітектури RAG, а також на локальному розгортанні та стимулюванні Edge-моделей. Об'єднуючи перевірність блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих середньо- і низькоресурсних моделей, формуючи диференційовану цінність «інтерфейсного шару» AI.
Блокчейн AI ланцюг на основі даних і моделей може забезпечити чітке, незмінне записування джерела внеску кожної дані та моделі, значно підвищуючи довіру до даних та відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, під час виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торговану токенізовану вартість, створюючи сталу систему стимулювання. Крім того, користувачі громади можуть також оцінювати продуктивність моделей за допомогою голосування токенами, брати участь у розробці та ітерації правил, удосконалюючи децентралізовану архітектуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, який зосереджується на механізмах стимулювання даних і моделей. Він першим запропонував концепцію «Payable AI», що має на меті створити справедливе, прозоре та комбінаційне середовище для роботи AI, заохочуючи учасників, що надають дані, розробників моделей та будівельників AI додатків співпрацювати на одній платформі і отримувати прибуток на ланцюзі відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкненого циклу від «надання даних» до «розгортання моделей» і до «виклику розподілу прибутку», його основні модулі включають:
Модельна фабрика: не потрібно програмування, можна використовувати LoRA для мікронастроювання, навчання та розгортання настроєних моделей на основі відкритого LLM;
OpenLoRA: підтримує спільне існування тисячі моделей, динамічна завантаження за потребою, суттєво знижує витрати на розгортання;
PoA (Proof of Attribution): через виклики в ланцюгу досягається вимірювання внеску та розподіл винагород;
Datanets:Структурована мережа даних для вертикальних сцен, створена та перевірена спільнотою;
Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаємий, платіжний ринковий простір моделей на блокчейні.
Через вищезазначені модулі OpenLedger створив «інфраструктуру економіки агентів», що базується на даних та має комбіновані моделі, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, щоб створити високо продуктивне, низьковартісне та перевірене середовище для роботи з даними та контрактами для AI моделей.
Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну спроможність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: забезпечте безпеку транзакцій і цілісність активів;
EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
EigenDA забезпечує підтримку доступності даних: значно знижує витрати на зберігання, гарантує перевірність даних.
На відміну від NEAR, який більше орієнтований на базовий рівень та підкреслює суверенітет даних і архітектуру «AI Agents on BOS», OpenLedger більш зосереджений на створенні спеціалізованого блоку ланцюга для AI, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та сталу вартісну петлю для розробки та виклику моделей на ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, що поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, просуваючи шлях реалізації «моделі як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чистий графічний інтерфейс для роботи, без необхідності в командних інструментах або інтеграції API. Користувачі можуть тонко налаштовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес, що охоплює авторизацію даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір та налаштування моделі: Підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що в режимі реального часу демонструє прогрес навчання.
Оцінка та впровадження моделі: вбудовані інструменти оцінки, підтримка експорту впровадження або екосистемного спільного використання.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі до питань і відповідей.
RAG генерація відстеження: відповіді з посиланнями на джерела, підвищення довіри та аудиторської перевірки.
Архітектура системи Model Factory складається з шести великих модулів, що охоплюють ідентифікацію особи, керування даними, мікрорегулювання моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу сервісів моделей, яка є безпечною, контрольованою, має реальний інтерактивний характер та забезпечує сталий монетизаційний процес.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Серія LLaMA: найширша екосистема, активна спільнота, сильна загальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen:Виконання завдань китайською мовою відзначається високими показниками, комплексні можливості сильні, підходить для вибору вітчизняних розробників.
ChatGLM: ефект діалогу китайською мовою видатний, підходить для специфічних клієнтських послуг та локалізованих сценаріїв.
Deepseek: Відзначається перевагою в генерації коду та математичному міркуванні, підходить для інструментів допомоги в розумній розробці.
Gemma: легка модель, розроблена Google, з чіткою структурою, яка дозволяє швидко почати роботу та експериментувати.
Falcon: Колись був еталоном продуктивності, підходить для фундаментальних досліджень або порівняльного тестування, але активність спільноти зменшилася.
BLOOM: Підтримка кількох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень з охоплення мов.
GPT-2: класична рання модель, підходить лише для навчальних та перевірочних цілей, не рекомендується для фактичного розгортання.
Хоча модельний склад OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а, навпаки, є «практичною перш за все» конфігурацією, що ґрунтується на реальних обмеженнях, пов'язаних з розгортанням в ланцюгу (витрати на висновки, адаптація RAG, сумісність LoRA, середовище EVM).
Model Factory як безкодова інструментальна ланцюг, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних і розробників моделей, має низький бар'єр, можливість монетизації та комбінування, в порівнянні з традиційними інструментами розробки моделей:
Для розробників: забезпечення повного шляху для інкубації, розподілу та доходу моделей;
Для платформи: формування моделі обігу активів та комбінованої екосистеми;
Для користувачів: ви можете комбінувати моделі або агентів так, як викликаєте API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація ончейн-активів моделі тонкої настройки
LoRA (Низькорозмірна адаптація) - це ефективний метод мікронастройки параметрів, який навчає нові завдання шляхом вставки «низькорозмірних матриць» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести мікронастройку. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найпоширенішим методом мікронастройки для розгортання та комбінованого виклику моделей Web3.
OpenLoRA - це легка інфраструктура для інференції, створена OpenLedger, спеціально розроблена для розгортання кількох моделей і спільного використання ресурсів. Її основною метою є вирішення поширених проблем, пов'язаних з високими витратами, низькою повторюваністю та марною витратою ресурсів GPU при розгортанні моделей AI, що сприяє реалізації «платоспроможного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та економічні можливості розгортання та виклику кількох моделей:
Модуль зберігання LoRA адаптерів (LoRA Adapters Storage): Після налаштування LoRA адаптер зберігається в OpenLedger, що дозволяє завантажувати за потреби, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі тонкого налаштування використовують базову велику модель (base model), під час інференції динамічний LoRA адаптер
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
6 лайків
Нагородити
6
4
Поділіться
Прокоментувати
0/400
OffchainWinner
· 8год тому
Цей проект AI знову не вдається.
Переглянути оригіналвідповісти на0
GateUser-a606bf0c
· 17год тому
Хто увійде в позицію? Не дуже розумію. Є хтось, хто пояснить?
Переглянути оригіналвідповісти на0
GateUser-00be86fc
· 17год тому
Чи є у штучного інтелекту нагальна потреба?
Переглянути оригіналвідповісти на0
BearMarketBro
· 17год тому
Експертний ведмедик Дідусь Пісняр Підписуйтесь на All in
OpenLedger: Створення моделей, що керуються даними, для комбінованої економіки інтелектуальних агентів
OpenLedger Глибина дослідження: на базі OP Stack+EigenDA створення економіки інтелектуальних агентів, що керується даними та має можливість комбінування моделей
Один. Вступ | Модельний рівень Crypto AI переходить
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність) — жоден з них не може бути відсутнім. Як і в традиційній індустрії ШІ, шлях еволюції інфраструктури в галузі Crypto AI також пройшов подібні етапи. На початку 2024 року ринок тимчасово був під контролем децентралізованих GPU проектів, які загалом підкреслювали логіку грубого зростання «конкуренція обчислювальної потужності». А з початком 2025 року увага галузі поступово перемістилася на рівень моделі та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного середнього рівня будівництва.
Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) вимагають значної залежності від великих наборів даних та складних розподілених архітектур, обсяг параметрів часто становить 70B-500B, а вартість одного навчання може досягати кількох мільйонів доларів. В той же час, SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки, що дозволяє використовувати базову модель повторно, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, для швидкого створення експертних моделей з певними знаннями в галузі, що значно знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування з пошуком) тощо. Ця архітектура зберігає широку охоплення LLM, одночасно покращуючи спеціалізовану продуктивність за допомогою модуля тонкої настройки, формуючи високо гнучку комбінаційну інтелектуальну систему.
Цінність і межі Crypto AI на рівні моделі
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Однак на основі відкритих базових моделей проекти Crypto AI все ще можуть досягати розширення вартості шляхом тонкої налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як "периферійний інтерфейсний шар" у ланцюзі постачання AI, це проявляється у двох основних напрямках:
Класифікація типів AI моделей та аналіз їхньої застосовності в блокчейні
Отже, модельні проекти Crypto AI можуть бути зосереджені на легкій налаштуванні малих SLM, підключенні та верифікації даних на ланцюзі архітектури RAG, а також на локальному розгортанні та стимулюванні Edge-моделей. Об'єднуючи перевірність блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих середньо- і низькоресурсних моделей, формуючи диференційовану цінність «інтерфейсного шару» AI.
Блокчейн AI ланцюг на основі даних і моделей може забезпечити чітке, незмінне записування джерела внеску кожної дані та моделі, значно підвищуючи довіру до даних та відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, під час виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торговану токенізовану вартість, створюючи сталу систему стимулювання. Крім того, користувачі громади можуть також оцінювати продуктивність моделей за допомогою голосування токенами, брати участь у розробці та ітерації правил, удосконалюючи децентралізовану архітектуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, який зосереджується на механізмах стимулювання даних і моделей. Він першим запропонував концепцію «Payable AI», що має на меті створити справедливе, прозоре та комбінаційне середовище для роботи AI, заохочуючи учасників, що надають дані, розробників моделей та будівельників AI додатків співпрацювати на одній платформі і отримувати прибуток на ланцюзі відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкненого циклу від «надання даних» до «розгортання моделей» і до «виклику розподілу прибутку», його основні модулі включають:
Через вищезазначені модулі OpenLedger створив «інфраструктуру економіки агентів», що базується на даних та має комбіновані моделі, що сприяє онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, щоб створити високо продуктивне, низьковартісне та перевірене середовище для роботи з даними та контрактами для AI моделей.
На відміну від NEAR, який більше орієнтований на базовий рівень та підкреслює суверенітет даних і архітектуру «AI Agents on BOS», OpenLedger більш зосереджений на створенні спеціалізованого блоку ланцюга для AI, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та сталу вартісну петлю для розробки та виклику моделей на ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, що поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, просуваючи шлях реалізації «моделі як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для тонкої настройки мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для тонкої настройки, ModelFactory пропонує чистий графічний інтерфейс для роботи, без необхідності в командних інструментах або інтеграції API. Користувачі можуть тонко налаштовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес, що охоплює авторизацію даних, навчання моделей та їх розгортання, основні етапи якого включають:
Архітектура системи Model Factory складається з шести великих модулів, що охоплюють ідентифікацію особи, керування даними, мікрорегулювання моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу сервісів моделей, яка є безпечною, контрольованою, має реальний інтерактивний характер та забезпечує сталий монетизаційний процес.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Хоча модельний склад OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а, навпаки, є «практичною перш за все» конфігурацією, що ґрунтується на реальних обмеженнях, пов'язаних з розгортанням в ланцюгу (витрати на висновки, адаптація RAG, сумісність LoRA, середовище EVM).
Model Factory як безкодова інструментальна ланцюг, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних і розробників моделей, має низький бар'єр, можливість монетизації та комбінування, в порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація ончейн-активів моделі тонкої настройки
LoRA (Низькорозмірна адаптація) - це ефективний метод мікронастройки параметрів, який навчає нові завдання шляхом вставки «низькорозмірних матриць» у попередньо навчену велику модель, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести мікронастройку. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найпоширенішим методом мікронастройки для розгортання та комбінованого виклику моделей Web3.
OpenLoRA - це легка інфраструктура для інференції, створена OpenLedger, спеціально розроблена для розгортання кількох моделей і спільного використання ресурсів. Її основною метою є вирішення поширених проблем, пов'язаних з високими витратами, низькою повторюваністю та марною витратою ресурсів GPU при розгортанні моделей AI, що сприяє реалізації «платоспроможного AI» (Payable AI).
Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та економічні можливості розгортання та виклику кількох моделей: