従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B〜500Bに達することがあり、1回のトレーニングコストは数百万ドルに上ることが一般的です。一方、SLM(Specialized Language Model)は、再利用可能なベースモデルの軽量微調整パラダイムとして、通常はオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の領域知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確かつ改ざん不可能な形でチェーン上に記録し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。また、スマートコントラクトメカニズムを通じて、データやモデルが呼び出される際に自動的に報酬の分配をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と反復に参加し、分散型ガバナンス構造を改善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
NEARのようなより基盤的で、データ主権を主眼とした「AI Agents on BOS」アーキテクチャの汎用AIチェーンに比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に集中しています。モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現経路を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
Model Factory システムアーキテクチャは、アイデンティティ認証、データアクセス権、モデル微調整、評価展開および RAG トレーサビリティを通じて、6 つの主要モジュールを含み、安全で制御可能、リアルタイムの相互作用、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
OpenLedger:データ駆動型モデルを構築する組み合わせ可能なエージェント経済
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルが組み合わさるスマートエコノミーを構築する
一、引言 | Crypto AI のモデルレイヤーの跳躍
データ、モデルと算力はAIインフラの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の類似性からも、欠かせない存在です。従来のAI業界のインフラの進化経路に似て、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時的に分散型GPUプロジェクトが主導し、「算力を競う」という粗放的成長論理が強調されました。しかし、2025年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが基盤資源の競争からより持続可能で応用価値のある中層構築へと移行することを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B〜500Bに達することがあり、1回のトレーニングコストは数百万ドルに上ることが一般的です。一方、SLM(Specialized Language Model)は、再利用可能なベースモデルの軽量微調整パラダイムとして、通常はオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の領域知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
注目すべきは、SLMはLLMの重みに統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(検索強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを向上させ、高度に柔軟なコンビネーションインテリジェントシステムを形成しています。
Crypto AI のモデル層における価値と境界
Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることは難しい。その核心的な理由は、
しかし、オープンソースの基盤モデルの上で、Crypto AI プロジェクトは、特化型言語モデル (SLM) を微調整することによって、Web3 の検証可能性とインセンティブメカニズムを組み合わせて価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2つのコア方向に反映されています:
AIモデルタイプ分類とブロックチェーン適用性分析
これにより、モデル型Crypto AIプロジェクトの実行可能なポイントは、主に小型SLMの軽量調整、RAGアーキテクチャのオンチェーンデータ接続と検証、そしてEdgeモデルのローカル展開とインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成することができます。
データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確かつ改ざん不可能な形でチェーン上に記録し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。また、スマートコントラクトメカニズムを通じて、データやモデルが呼び出される際に自動的に報酬の分配をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と反復に参加し、分散型ガバナンス構造を改善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン
OpenLedgerは、現在の市場で数少ないデータとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」という概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目的としています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの収益を得ることを奨励します。
OpenLedgerは「データ提供」から「モデルデプロイ」さらに「呼び出し分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールには以下が含まれます:
上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
NEARのようなより基盤的で、データ主権を主眼とした「AI Agents on BOS」アーキテクチャの汎用AIチェーンに比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に集中しています。モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現経路を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要モデルファクトリー
ModelFactoryはOpenLedgerエコシステムの下にある大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で完了した認可と審査のデータセットに基づいてモデルを微調整することができます。データの認可、モデルのトレーニング、デプロイメントの統合ワークフローを実現し、そのコアプロセスには以下が含まれます:
Model Factory システムアーキテクチャは、アイデンティティ認証、データアクセス権、モデル微調整、評価展開および RAG トレーサビリティを通じて、6 つの主要モジュールを含み、安全で制御可能、リアルタイムの相互作用、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
ModelFactory 現在サポートしている大規模言語モデルの能力簡易一覧は以下の通りです。
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーン展開の現実的制約(推論コスト、RAG適応、LoRA互換、EVM環境)に基づいた「実用優先」の設定がなされています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明機構が内蔵されており、データ貢献者とモデル開発者の権利を確保します。低いハードル、収益化可能、そして組み合わせ可能という利点があります。従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA、微調整モデルのオンチェーンアセット化
LoRA(Low-Rank Adaptation)は、事前学習された大規模モデルに「低ランク行列」を挿入することによって新しいタスクを学習し、元のモデルのパラメータを変更することなくトレーニングコストとストレージ要件を大幅に削減する効率的なパラメータ微調整手法です。従来の大規模言語モデル(LLaMA、GPT-3など)は、通常数十億から千億のパラメータを持っています。特定のタスク(法律相談、医療相談など)にそれらを使用するには、微調整(fine-tuning)が必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみをトレーニングする。」であり、パラメータ効率が高く、トレーニングが迅速で、デプロイが柔軟であるため、現在のWeb3モデルのデプロイや組み合わせ呼び出しに最も適した主流の微調整手法です。
OpenLoRAはOpenLedgerが構築した、マルチモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルのデプロイメントにおいて一般的な高コスト、低再利用、GPUリソースの無駄遣いといった問題を解決し、「支払い可能なAI」(Payable AI)の実現を推進することです。
OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール化設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率、低コストのマルチモデルのデプロイと呼び出し機能を実現します。