OpenLedger : construire une économie d'agents intelligents modulaires basée sur les données

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable.

I. Introduction | La transition des couches de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul) qui sont tous indispensables. Comme pour l'évolution de l'infrastructure dans l'industrie traditionnelle de l'IA, le domaine de la Crypto AI a également connu des étapes similaires. Début 2024, le marché était en grande partie dominé par des projets GPU décentralisés, mettant l'accent sur la logique de croissance extensive «拼算力». Cependant, à partir de 2025, les points d'intérêt de l'industrie se sont progressivement déplacés vers les couches de modèle et de données, marquant la transition de la Crypto AI d'une compétition pour les ressources de base à une construction intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, les échelles de paramètres allant de 70B à 500B, et le coût d'une formation peut souvent atteindre plusieurs millions de dollars. Le SLM (Modèle de Langage Spécialisé), en tant que paradigme de réglage léger de modèle de base réutilisable, est généralement basé sur des modèles open source, combinant un petit nombre de données professionnelles de haute qualité et des techniques telles que LoRA, pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières technologiques.

Il est à noter que le SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plugins de routage dynamique, un module LoRA à chaud et RAG (génération améliorée par la recherche). Cette architecture conserve la large capacité de couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné très flexible.

La valeur et les limites de Crypto AI au niveau du modèle

Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités centrales des modèles de langage (LLM), la raison principale étant que

  • Barrière technologique trop élevée : l'échelle de données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et seules des géants technologiques comme les États-Unis et la Chine disposent actuellement de ces capacités.
  • Limites de l'écosystème open source : bien que des modèles de base grand public tels que LLaMA et Mixtral soient open source, la clé pour faire progresser les modèles reste concentrée sur les instituts de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles centraux est limité.

Cependant, sur la base de modèles fondamentaux open source, le projet Crypto AI peut encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions principales :

  • Couche de validation fiable : enregistrement sur la chaîne des chemins de génération de modèles, des contributions de données et de leur utilisation, renforçant la traçabilité et la résistance à la falsification des sorties d'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents (Agent), etc., construire un cycle vertueux de formation et de service des modèles.

Classification des types de modèles AI et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'ancrage viables des projets de type Crypto AI se concentrent principalement sur l'allègement et le réglage fin des SLM de petite taille, l'intégration et la validation des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des jetons, Crypto peut offrir une valeur unique à ces scénarios de modèles à ressources faibles ou modérées, créant une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur les données et les modèles de blockchain permet d'enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant les comportements AI en une valeur tokenisée mesurable et échangeable, construisant ainsi un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Rapport d'étude : construire une économie d'agents intelligents, pilotée par les données et modélisable, sur la base d'OP Stack + EigenDA

II. Aperçu du projet | Vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation basés sur les données et les modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur une même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » puis à « appel de partage des bénéfices », dont les modules principaux comprennent :

  • Usine de Modèles : Pas besoin de programmation, vous pouvez utiliser LoRA pour l'ajustement fin de l'entraînement et le déploiement de modèles personnalisés basés sur LLM open-source ;
  • OpenLoRA : supporte la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : Mesure de contribution et distribution de récompenses réalisée par l'enregistrement des appels sur la chaîne.
  • Datanets : réseaux de données structurées orientés vers des scénarios verticaux, construits et validés par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain combinables, appelables et payables.

Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique des agents intelligents" basée sur les données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base, créant un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Basé sur la pile OP : Basé sur la technologie Optimism, prenant en charge un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Facilite le déploiement et l'extension rapides pour les développeurs basés sur Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur le niveau inférieur et mettent l'accent sur la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées orientées vers les incitations basées sur les données et les modèles. Il s'engage à rendre le développement et l'appel des modèles sur la chaîne traçables, combinables et durables, créant ainsi une boucle de valeur. C'est une infrastructure d'incitation aux modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, afin de promouvoir la réalisation du concept « modèle en tant qu'actif ».

OpenLedger Depth Research Report : construire une économie d'agents intelligente, pilotée par des données et modulable, basée sur OP Stack + EigenDA

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle Usine, sans code modèle usine

ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner le modèle sur la base des ensembles de données autorisés et vérifiés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement du modèle et le déploiement, dont les étapes clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM populaires (comme LLaMA, Mistral), configuration des hyperparamètres via GUI.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement du modèle : Outils d'évaluation intégrés, supportant l'exportation pour déploiement ou l'appel de partage écologique.
  • Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec références de source, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le fine-tuning des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.

OpenLedgerDepth Rapport d'étude : Construire une économie d'agents intelligents data-driven et modélisés avec OP Stack + EigenDA comme base

Le tableau ci-dessous présente un aperçu des capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : l'écosystème le plus large, une communauté active et de solides performances générales, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performances d'inférence excellentes, adaptée aux déploiements flexibles et aux ressources limitées.
  • Qwen : Excellente performance dans les tâches en chinois, capacités globales fortes, idéal pour les développeurs domestiques en première option.
  • ChatGLM : Excellente performance des dialogues en chinois, adaptée aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Autrefois une référence en termes de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un soutien multilingue fort, mais des performances d'inférence faibles, adapté à la recherche axée sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, son utilisation en déploiement réel n'est pas recommandée.

Bien que le modèle combiné d'OpenLedger n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes réelles de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles. Il présente des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Report : Construire une économie d'agents intelligents, pilotée par les données et modélable, sur la base d'OP Stack + EigenDA

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode d'ajustement de paramètres efficace qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser dans des tâches spécifiques (comme les questions juridiques ou les consultations médicales), un ajustement est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée. » Ses paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode d'ajustement la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèle et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de promouvoir l'exécution de l'« AI payable ».

Composants clés de l'architecture système OpenLoRA, basés sur une conception modulaire, couvrant le stockage de modèles, l'exécution d'inférence, le routage des demandes et d'autres étapes critiques, réalisant des capacités de déploiement et d'appel multi-modèle efficaces et à faible coût :

  • Module de stockage de LoRA Adapter (LoRA Adapters Storage) : Le LoRA adapter affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer) : tous les modèles ajustés partagent le modèle de base (base model), et lors de l'inférence, l'adaptateur LoRA est dynamique.
OP3.55%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
OffchainWinnervip
· Il y a 14h
Ce projet d'IA n'est toujours pas bon.
Voir l'originalRépondre0
GateUser-a606bf0cvip
· Il y a 23h
Qui peut entrer dans une position ? Je ne comprends pas très bien, quelqu'un peut-il expliquer ?
Voir l'originalRépondre0
GateUser-00be86fcvip
· Il y a 23h
Y a-t-il une demande essentielle pour l'IA ?
Voir l'originalRépondre0
BearMarketBrovip
· Il y a 23h
Vieux maître Ours, idole de la chanson, ne regarde que All in
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)