OpenLedger construit une économie d'agents intelligents pilotée par les données, intégrant l'architecture de base OP Stack et EigenDA.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, axée sur les données et modélisable, sur la base d'OP Stack + EigenDA

Introduction | La transition du niveau de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun ne peut être omis. Le domaine de la Crypto IA a suivi un parcours d'évolution similaire à celui de l'industrie de l'IA traditionnelle. Au début de 2024, le marché est dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive basée sur "l'assemblage de la puissance de calcul". Après 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.

OpenLedger Depth Report : Construire une économie d'agents intelligents axée sur les données et modulable à l'aide de la base OP Stack + EigenDA

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures complexes, ce qui entraîne des coûts élevés. Les modèles de langage spécialisés (SLM), en tant que paradigme de réglage léger, combinent des modèles open source avec une petite quantité de données professionnelles de haute qualité pour construire rapidement des modèles spécifiques à un domaine, réduisant ainsi considérablement les coûts et les barrières.

SLM collabore avec LLM à travers des appels via une architecture d'Agent, un système de plugins, le branchement à chaud de modules LoRA, RAG, etc. Cette architecture conserve la large capacité de couverture de LLM tout en renforçant la performance spécialisée grâce à des modules d'ajustement fin, formant ainsi un système intelligent modulaire et flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets Crypto AI ont du mal à améliorer directement les capacités fondamentales des LLM, en raison de :

  • Barrière technologique trop élevée : les ressources et capacités nécessaires pour entraîner un modèle fondamental sont extrêmement vastes, seules quelques grandes entreprises technologiques en disposent.
  • Limites de l'écosystème open source : la clé pour propulser réellement les percées des modèles se concentre sur les institutions de recherche et les systèmes d'ingénierie fermés.

Cependant, le projet Crypto AI peut réaliser une extension de valeur en ajustant de manière fine le SLM, en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne d'industrie de l'IA, cela se manifeste dans deux directions :

  • Couche de validation fiable : améliore la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : construire un cycle vertueux de formation et de service du modèle.

Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain

Les points de faisabilité des projets Crypto AI de type modèle se concentrent principalement sur le réglage fin des petits SLM, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. Crypto peut apporter une valeur unique à ces scénarios de modèles à ressources moyennes à faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer la source des contributions de données et de modèles sur la chaîne, améliorant ainsi la crédibilité et la traçabilité. Grâce à un mécanisme de contrat intelligent, des récompenses sont automatiquement déclenchées lors de l'appel, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable. Les utilisateurs de la communauté peuvent évaluer les performances des modèles par le biais de votes en tokens et participer à l'élaboration des règles, améliorant ainsi la structure de gouvernance décentralisée.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents axée sur les données et modélisable, basée sur OP Stack + EigenDA

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est un projet blockchain AI axé sur les mécanismes d'incitation des données et des modèles. Il propose le concept de "Payable AI" pour construire un environnement d'exécution AI équitable, transparent et combinable, incitant les parties à collaborer sur la même plateforme et à obtenir des revenus on-chain.

OpenLedger offre une boucle fermée complète allant de "la fourniture de données" à "le déploiement de modèles" jusqu'à "l'appel de partage des profits", les modules principaux comprennent :

  • Modèle d'Usine : entraînez et déployez des modèles personnalisés basés sur LLM open source sans programmation
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement.
  • PoA (Proof of Attribution) : réaliser la mesure de contribution et la distribution des récompenses
  • Datanets : Réseau de données structurées orienté vers des scénarios verticaux
  • Plateforme de proposition de modèles : marché de modèles on-chain combinables, appelables et payables

OpenLedger construit un environnement d'exécution de données et de contrats haute performance, à faible coût et vérifiable pour les modèles d'IA, en utilisant OP Stack + EigenDA comme base.

  • Basé sur OP Stack : prend en charge un haut débit et des frais d'exécution bas
  • Règlement sur le réseau principal Ethereum : assurer la sécurité des transactions et l'intégrité des actifs
  • Compatible EVM : permet aux développeurs de déployer et d'étendre rapidement
  • EigenDA fournit un support de disponibilité des données : réduction des coûts de stockage, garantie de la vérifiabilité des données.

Comparé à des chaînes AI généralistes de niveau inférieur comme NEAR, OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur les données et les incitations de modèle, s'efforçant de rendre le développement et l'appel de modèles réalisables sur la chaîne avec un cycle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation de modèle dans le monde Web3, combinant hébergement de modèles, facturation d'utilisation et interfaces combinables sur la chaîne, favorisant le chemin vers la réalisation de "modèle en tant qu'actif".

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, axée sur les données et modulable, sur la base de OP Stack + EigenDA

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle Usine, modèle d'usine sans code

ModelFactory est une plateforme de micro-ajustement LLM sous l'écosystème OpenLedger. Elle propose une interface entièrement graphique, sans nécessiter de ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement des modèles sur la base de jeux de données autorisés et vérifiés, réalisant ainsi un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement. Les processus clés incluent :

  • Contrôle d'accès aux données
  • Sélection et configuration du modèle
  • Ajustement léger
  • Évaluation et déploiement du modèle
  • Interface de vérification interactive
  • Génération de traçabilité RAG

L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, d'interaction en temps réel et de monétisation durable.

ModelFactory prend actuellement en charge de grands modèles de langage tels que LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, etc. Bien qu'il n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, il a fait une configuration "priorité à l'utilisation" basée sur les contraintes réelles de déploiement sur la chaîne.

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité.

OpenLedger Depth Report : Construire une économie d'agents intelligents, pilotée par les données et modulable, sur la base de OP Stack + EigenDA

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA est une méthode efficace de réglage fin des paramètres, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage.

OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement multi-modèles et au partage de ressources. Il résout les problèmes de coût élevé, de faible réutilisation et de gaspillage de ressources GPU dans le déploiement des modèles d'IA actuels, favorisant l'exécution de l'"IA payante".

Les composants clés de l'architecture système OpenLoRA comprennent :

  • Module de stockage LoRA Adapter
  • Hébergement de modèles et couche de fusion dynamique
  • Moteur d'inférence
  • Module de routage des requêtes et de sortie en flux

Le processus d'inférence d'OpenLoRA comprend le chargement du modèle de base, la recherche dynamique de LoRA, l'activation de la fusion d'adaptateurs, l'exécution de l'inférence et la sortie en flux, la fin de l'inférence et la libération des ressources.

OpenLoRA améliore considérablement l'efficacité du déploiement et de l'inférence de plusieurs modèles grâce à une série d'optimisations de bas niveau. Son cœur comprend le chargement dynamique d'adaptateurs LoRA, le parallélisme de tenseurs et l'attention paginée, la fusion de plusieurs modèles, l'attention Flash, les noyaux CUDA précompilés et les techniques de quantification.

OpenLoRA ne se limite pas à être un cadre d'inférence LoRA efficace, mais intègre également profondément l'inférence de modèles et le mécanisme d'incitation Web3, avec pour objectif de transformer le modèle LoRA en un actif Web3 appelable, combinable et partageable. Il réalise :

  1. Le modèle est un actif
  2. Fusion dynamique LoRA multiple + Attribution des revenus
  3. Prise en charge de l'"inférence partagée multi-locataires" pour les modèles à longue traîne

OpenLedger prévoit que les indicateurs de performance futurs d'OpenLoRA seront nettement supérieurs à ceux des déploiements de modèles à paramètres complets traditionnels, mais ces indicateurs sont plus proches de la "performance maximale" et doivent être considérés comme "un plafond idéal" plutôt que comme "une stabilité quotidienne".

OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligents, axée sur les données et modélisable, sur la base d'OP Stack + EigenDA

3.3 Datanets (réseaux de données), de la souveraineté des données à l'intelligence des données

Datanets est l'infrastructure d'OpenLedger pour "les données sont des actifs", utilisée pour collecter et gérer des ensembles de données dans des domaines spécifiques. Chaque Datanet est comme un entrepôt de données structuré, où les contributeurs téléchargent des données, et où un mécanisme d'attribution sur la chaîne garantit que les données sont traçables et dignes de confiance.

Comparé aux projets axés sur la souveraineté des données, OpenLedger étend la valeur des données à l'entraînement des modèles et aux appels sur la chaîne à travers trois modules : Datanets, Model Factory et OpenLoRA, construisant ainsi un "boucle complète de données à l'intelligence". OpenLedger se concentre sur "comment les données sont entraînées, appelées et récompensées", occupant une position clé dans le chemin de monétisation des données au sein de l'écosystème Web3 AI.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisée de manière combinatoire

3.4 Preuve d'attribution (贡献证明) : remodeler la couche d'incitation à la distribution des bénéfices

La preuve d'attribution (PoA) est le mécanisme central d'OpenLedger pour réaliser l'attribution des données et la distribution des incitations. Son processus d'attribution des données et d'incitation comprend :

  • Soumission des données
  • Évaluation de l'impact
  • Validation de l'entraînement
  • Répartition des incitations
  • Gouvernance de la qualité

Le PoA n'est pas seulement un outil de distribution d'incitations, mais également un cadre axé sur la transparence, le suivi des sources et l'attribution multi-niveaux. Il enregistre l'ensemble du processus de téléchargement des données, d'appel de modèles et d'exécution d'agents sur la chaîne, réalisant ainsi un chemin de valeur vérifiable de bout en bout.

RAG Attribution est un mécanisme d'attribution et d'incitation des données établi par OpenLedger dans le cadre du scénario RAG, garantissant que le contenu produit par le modèle est traçable et vérifiable, et que les contributeurs peuvent être incités. Son processus comprend :

  1. Utilisateur pose une question → Recherche de données
  2. Les données sont appelées et génèrent des réponses
  3. Les contributeurs reçoivent des récompenses
  4. Générer des résultats avec citation

La RAG Attribution d'OpenLedger permet de retracer chaque réponse de l'IA à une source de données réelle, et les contributeurs sont incités en fonction de la fréquence des citations, réalisant ainsi "la connaissance a une source, l'appel peut être monétisé". Ce mécanisme améliore la transparence des sorties du modèle et construit un cercle d'incitation durable pour la contribution de données de haute qualité.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, pilotée par les données et modulable, sur la base d'OP Stack + EigenDA

Quatre, Progrès du projet OpenLedger et coopération écologique

OpenLedger a lancé son réseau de test, la couche d'intelligence des données est la première phase, visant à construire un entrepôt de données Internet alimenté par des nœuds communautaires. Les membres de la communauté peuvent faire fonctionner des nœuds d'appareils en périphérie, participer à la collecte et au traitement des données, et obtenir des récompenses en points en fonction de leur niveau d'activité et de l'achèvement des tâches.

Le réseau de test offre trois types de mécanismes de rendement :

  • Data Mining
  • Validation des transactions
  • Participation à la tâche

Le réseau de test Epoch 2 a mis en avant le mécanisme de réseau de données Datanets, réservé aux utilisateurs sur liste blanche, couvrant des tâches telles que la validation et la classification des données.

La feuille de route à long terme d'OpenLedger comprend :

  • Phase 1 · Couche d'intelligence des données
  • Phase 2 ·
OP-1.99%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
StableGeniusDegenvip
· Il y a 9h
Ne racontez pas d'histoires, L2 va créer une économie AI?
Voir l'originalRépondre0
CAACTrainingInstitutionvip
· Il y a 10h
Il est inévitable que la situation retombe à zéro.
Voir l'originalRépondre0
WalletInspectorvip
· Il y a 17h
On dirait que c'est très profond !
Voir l'originalRépondre0
PanicSellervip
· Il y a 17h
La puissance de calcul va encore connaître un big pump.
Voir l'originalRépondre0
GasGuzzlervip
· Il y a 17h
Une nouvelle vague de concepts pour se faire prendre pour des cons arrive.
Voir l'originalRépondre0
ChainDoctorvip
· Il y a 17h
Il y a quelque chose. Qui peut mieux comprendre l'IA que moi ?
Voir l'originalRépondre0
SchroedingerGasvip
· Il y a 17h
Encore un nouveau jeton ? Vite, chute à zéro
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)