OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, axée sur les données et modélisable, sur la base d'OP Stack + EigenDA
Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun ne peut être omis. Le domaine de la Crypto IA a suivi un parcours d'évolution similaire à celui de l'industrie de l'IA traditionnelle. Au début de 2024, le marché est dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive basée sur "l'assemblage de la puissance de calcul". Après 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures complexes, ce qui entraîne des coûts élevés. Les modèles de langage spécialisés (SLM), en tant que paradigme de réglage léger, combinent des modèles open source avec une petite quantité de données professionnelles de haute qualité pour construire rapidement des modèles spécifiques à un domaine, réduisant ainsi considérablement les coûts et les barrières.
SLM collabore avec LLM à travers des appels via une architecture d'Agent, un système de plugins, le branchement à chaud de modules LoRA, RAG, etc. Cette architecture conserve la large capacité de couverture de LLM tout en renforçant la performance spécialisée grâce à des modules d'ajustement fin, formant ainsi un système intelligent modulaire et flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont du mal à améliorer directement les capacités fondamentales des LLM, en raison de :
Barrière technologique trop élevée : les ressources et capacités nécessaires pour entraîner un modèle fondamental sont extrêmement vastes, seules quelques grandes entreprises technologiques en disposent.
Limites de l'écosystème open source : la clé pour propulser réellement les percées des modèles se concentre sur les institutions de recherche et les systèmes d'ingénierie fermés.
Cependant, le projet Crypto AI peut réaliser une extension de valeur en ajustant de manière fine le SLM, en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne d'industrie de l'IA, cela se manifeste dans deux directions :
Couche de validation fiable : améliore la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : construire un cycle vertueux de formation et de service du modèle.
Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain
Les points de faisabilité des projets Crypto AI de type modèle se concentrent principalement sur le réglage fin des petits SLM, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. Crypto peut apporter une valeur unique à ces scénarios de modèles à ressources moyennes à faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer la source des contributions de données et de modèles sur la chaîne, améliorant ainsi la crédibilité et la traçabilité. Grâce à un mécanisme de contrat intelligent, des récompenses sont automatiquement déclenchées lors de l'appel, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable. Les utilisateurs de la communauté peuvent évaluer les performances des modèles par le biais de votes en tokens et participer à l'élaboration des règles, améliorant ainsi la structure de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est un projet blockchain AI axé sur les mécanismes d'incitation des données et des modèles. Il propose le concept de "Payable AI" pour construire un environnement d'exécution AI équitable, transparent et combinable, incitant les parties à collaborer sur la même plateforme et à obtenir des revenus on-chain.
OpenLedger offre une boucle fermée complète allant de "la fourniture de données" à "le déploiement de modèles" jusqu'à "l'appel de partage des profits", les modules principaux comprennent :
Modèle d'Usine : entraînez et déployez des modèles personnalisés basés sur LLM open source sans programmation
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement.
PoA (Proof of Attribution) : réaliser la mesure de contribution et la distribution des récompenses
Datanets : Réseau de données structurées orienté vers des scénarios verticaux
Plateforme de proposition de modèles : marché de modèles on-chain combinables, appelables et payables
OpenLedger construit un environnement d'exécution de données et de contrats haute performance, à faible coût et vérifiable pour les modèles d'IA, en utilisant OP Stack + EigenDA comme base.
Basé sur OP Stack : prend en charge un haut débit et des frais d'exécution bas
Règlement sur le réseau principal Ethereum : assurer la sécurité des transactions et l'intégrité des actifs
Compatible EVM : permet aux développeurs de déployer et d'étendre rapidement
EigenDA fournit un support de disponibilité des données : réduction des coûts de stockage, garantie de la vérifiabilité des données.
Comparé à des chaînes AI généralistes de niveau inférieur comme NEAR, OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur les données et les incitations de modèle, s'efforçant de rendre le développement et l'appel de modèles réalisables sur la chaîne avec un cycle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation de modèle dans le monde Web3, combinant hébergement de modèles, facturation d'utilisation et interfaces combinables sur la chaîne, favorisant le chemin vers la réalisation de "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle Usine, modèle d'usine sans code
ModelFactory est une plateforme de micro-ajustement LLM sous l'écosystème OpenLedger. Elle propose une interface entièrement graphique, sans nécessiter de ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement des modèles sur la base de jeux de données autorisés et vérifiés, réalisant ainsi un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement. Les processus clés incluent :
Contrôle d'accès aux données
Sélection et configuration du modèle
Ajustement léger
Évaluation et déploiement du modèle
Interface de vérification interactive
Génération de traçabilité RAG
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, d'interaction en temps réel et de monétisation durable.
ModelFactory prend actuellement en charge de grands modèles de langage tels que LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, etc. Bien qu'il n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, il a fait une configuration "priorité à l'utilisation" basée sur les contraintes réelles de déploiement sur la chaîne.
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA est une méthode efficace de réglage fin des paramètres, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement multi-modèles et au partage de ressources. Il résout les problèmes de coût élevé, de faible réutilisation et de gaspillage de ressources GPU dans le déploiement des modèles d'IA actuels, favorisant l'exécution de l'"IA payante".
Les composants clés de l'architecture système OpenLoRA comprennent :
Module de stockage LoRA Adapter
Hébergement de modèles et couche de fusion dynamique
Moteur d'inférence
Module de routage des requêtes et de sortie en flux
Le processus d'inférence d'OpenLoRA comprend le chargement du modèle de base, la recherche dynamique de LoRA, l'activation de la fusion d'adaptateurs, l'exécution de l'inférence et la sortie en flux, la fin de l'inférence et la libération des ressources.
OpenLoRA améliore considérablement l'efficacité du déploiement et de l'inférence de plusieurs modèles grâce à une série d'optimisations de bas niveau. Son cœur comprend le chargement dynamique d'adaptateurs LoRA, le parallélisme de tenseurs et l'attention paginée, la fusion de plusieurs modèles, l'attention Flash, les noyaux CUDA précompilés et les techniques de quantification.
OpenLoRA ne se limite pas à être un cadre d'inférence LoRA efficace, mais intègre également profondément l'inférence de modèles et le mécanisme d'incitation Web3, avec pour objectif de transformer le modèle LoRA en un actif Web3 appelable, combinable et partageable. Il réalise :
Le modèle est un actif
Fusion dynamique LoRA multiple + Attribution des revenus
Prise en charge de l'"inférence partagée multi-locataires" pour les modèles à longue traîne
OpenLedger prévoit que les indicateurs de performance futurs d'OpenLoRA seront nettement supérieurs à ceux des déploiements de modèles à paramètres complets traditionnels, mais ces indicateurs sont plus proches de la "performance maximale" et doivent être considérés comme "un plafond idéal" plutôt que comme "une stabilité quotidienne".
3.3 Datanets (réseaux de données), de la souveraineté des données à l'intelligence des données
Datanets est l'infrastructure d'OpenLedger pour "les données sont des actifs", utilisée pour collecter et gérer des ensembles de données dans des domaines spécifiques. Chaque Datanet est comme un entrepôt de données structuré, où les contributeurs téléchargent des données, et où un mécanisme d'attribution sur la chaîne garantit que les données sont traçables et dignes de confiance.
Comparé aux projets axés sur la souveraineté des données, OpenLedger étend la valeur des données à l'entraînement des modèles et aux appels sur la chaîne à travers trois modules : Datanets, Model Factory et OpenLoRA, construisant ainsi un "boucle complète de données à l'intelligence". OpenLedger se concentre sur "comment les données sont entraînées, appelées et récompensées", occupant une position clé dans le chemin de monétisation des données au sein de l'écosystème Web3 AI.
3.4 Preuve d'attribution (贡献证明) : remodeler la couche d'incitation à la distribution des bénéfices
La preuve d'attribution (PoA) est le mécanisme central d'OpenLedger pour réaliser l'attribution des données et la distribution des incitations. Son processus d'attribution des données et d'incitation comprend :
Soumission des données
Évaluation de l'impact
Validation de l'entraînement
Répartition des incitations
Gouvernance de la qualité
Le PoA n'est pas seulement un outil de distribution d'incitations, mais également un cadre axé sur la transparence, le suivi des sources et l'attribution multi-niveaux. Il enregistre l'ensemble du processus de téléchargement des données, d'appel de modèles et d'exécution d'agents sur la chaîne, réalisant ainsi un chemin de valeur vérifiable de bout en bout.
RAG Attribution est un mécanisme d'attribution et d'incitation des données établi par OpenLedger dans le cadre du scénario RAG, garantissant que le contenu produit par le modèle est traçable et vérifiable, et que les contributeurs peuvent être incités. Son processus comprend :
Utilisateur pose une question → Recherche de données
Les données sont appelées et génèrent des réponses
Les contributeurs reçoivent des récompenses
Générer des résultats avec citation
La RAG Attribution d'OpenLedger permet de retracer chaque réponse de l'IA à une source de données réelle, et les contributeurs sont incités en fonction de la fréquence des citations, réalisant ainsi "la connaissance a une source, l'appel peut être monétisé". Ce mécanisme améliore la transparence des sorties du modèle et construit un cercle d'incitation durable pour la contribution de données de haute qualité.
Quatre, Progrès du projet OpenLedger et coopération écologique
OpenLedger a lancé son réseau de test, la couche d'intelligence des données est la première phase, visant à construire un entrepôt de données Internet alimenté par des nœuds communautaires. Les membres de la communauté peuvent faire fonctionner des nœuds d'appareils en périphérie, participer à la collecte et au traitement des données, et obtenir des récompenses en points en fonction de leur niveau d'activité et de l'achèvement des tâches.
Le réseau de test offre trois types de mécanismes de rendement :
Data Mining
Validation des transactions
Participation à la tâche
Le réseau de test Epoch 2 a mis en avant le mécanisme de réseau de données Datanets, réservé aux utilisateurs sur liste blanche, couvrant des tâches telles que la validation et la classification des données.
La feuille de route à long terme d'OpenLedger comprend :
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
7
Partager
Commentaire
0/400
StableGeniusDegen
· Il y a 9h
Ne racontez pas d'histoires, L2 va créer une économie AI?
Voir l'originalRépondre0
CAACTrainingInstitution
· Il y a 10h
Il est inévitable que la situation retombe à zéro.
Voir l'originalRépondre0
WalletInspector
· Il y a 17h
On dirait que c'est très profond !
Voir l'originalRépondre0
PanicSeller
· Il y a 17h
La puissance de calcul va encore connaître un big pump.
Voir l'originalRépondre0
GasGuzzler
· Il y a 17h
Une nouvelle vague de concepts pour se faire prendre pour des cons arrive.
Voir l'originalRépondre0
ChainDoctor
· Il y a 17h
Il y a quelque chose. Qui peut mieux comprendre l'IA que moi ?
OpenLedger construit une économie d'agents intelligents pilotée par les données, intégrant l'architecture de base OP Stack et EigenDA.
OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, axée sur les données et modélisable, sur la base d'OP Stack + EigenDA
Introduction | La transition du niveau de modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, aucun ne peut être omis. Le domaine de la Crypto IA a suivi un parcours d'évolution similaire à celui de l'industrie de l'IA traditionnelle. Au début de 2024, le marché est dominé par des projets de GPU décentralisés, mettant l'accent sur la logique de croissance extensive basée sur "l'assemblage de la puissance de calcul". Après 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures complexes, ce qui entraîne des coûts élevés. Les modèles de langage spécialisés (SLM), en tant que paradigme de réglage léger, combinent des modèles open source avec une petite quantité de données professionnelles de haute qualité pour construire rapidement des modèles spécifiques à un domaine, réduisant ainsi considérablement les coûts et les barrières.
SLM collabore avec LLM à travers des appels via une architecture d'Agent, un système de plugins, le branchement à chaud de modules LoRA, RAG, etc. Cette architecture conserve la large capacité de couverture de LLM tout en renforçant la performance spécialisée grâce à des modules d'ajustement fin, formant ainsi un système intelligent modulaire et flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont du mal à améliorer directement les capacités fondamentales des LLM, en raison de :
Cependant, le projet Crypto AI peut réaliser une extension de valeur en ajustant de manière fine le SLM, en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne d'industrie de l'IA, cela se manifeste dans deux directions :
Analyse de la classification des types de modèles d'IA et de leur applicabilité à la blockchain
Les points de faisabilité des projets Crypto AI de type modèle se concentrent principalement sur le réglage fin des petits SLM, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. Crypto peut apporter une valeur unique à ces scénarios de modèles à ressources moyennes à faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer la source des contributions de données et de modèles sur la chaîne, améliorant ainsi la crédibilité et la traçabilité. Grâce à un mécanisme de contrat intelligent, des récompenses sont automatiquement déclenchées lors de l'appel, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable. Les utilisateurs de la communauté peuvent évaluer les performances des modèles par le biais de votes en tokens et participer à l'élaboration des règles, améliorant ainsi la structure de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est un projet blockchain AI axé sur les mécanismes d'incitation des données et des modèles. Il propose le concept de "Payable AI" pour construire un environnement d'exécution AI équitable, transparent et combinable, incitant les parties à collaborer sur la même plateforme et à obtenir des revenus on-chain.
OpenLedger offre une boucle fermée complète allant de "la fourniture de données" à "le déploiement de modèles" jusqu'à "l'appel de partage des profits", les modules principaux comprennent :
OpenLedger construit un environnement d'exécution de données et de contrats haute performance, à faible coût et vérifiable pour les modèles d'IA, en utilisant OP Stack + EigenDA comme base.
Comparé à des chaînes AI généralistes de niveau inférieur comme NEAR, OpenLedger se concentre davantage sur la construction de chaînes AI spécialisées axées sur les données et les incitations de modèle, s'efforçant de rendre le développement et l'appel de modèles réalisables sur la chaîne avec un cycle de valeur traçable, combinable et durable. C'est une infrastructure d'incitation de modèle dans le monde Web3, combinant hébergement de modèles, facturation d'utilisation et interfaces combinables sur la chaîne, favorisant le chemin vers la réalisation de "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle Usine, modèle d'usine sans code
ModelFactory est une plateforme de micro-ajustement LLM sous l'écosystème OpenLedger. Elle propose une interface entièrement graphique, sans nécessiter de ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un micro-ajustement des modèles sur la base de jeux de données autorisés et vérifiés, réalisant ainsi un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement. Les processus clés incluent :
L'architecture du système Model Factory comprend six grands modules, englobant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, d'interaction en temps réel et de monétisation durable.
ModelFactory prend actuellement en charge de grands modèles de langage tels que LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, etc. Bien qu'il n'inclut pas les derniers modèles MoE haute performance ou les modèles multimodaux, il a fait une configuration "priorité à l'utilisation" basée sur les contraintes réelles de déploiement sur la chaîne.
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA est une méthode efficace de réglage fin des paramètres, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement destiné au déploiement multi-modèles et au partage de ressources. Il résout les problèmes de coût élevé, de faible réutilisation et de gaspillage de ressources GPU dans le déploiement des modèles d'IA actuels, favorisant l'exécution de l'"IA payante".
Les composants clés de l'architecture système OpenLoRA comprennent :
Le processus d'inférence d'OpenLoRA comprend le chargement du modèle de base, la recherche dynamique de LoRA, l'activation de la fusion d'adaptateurs, l'exécution de l'inférence et la sortie en flux, la fin de l'inférence et la libération des ressources.
OpenLoRA améliore considérablement l'efficacité du déploiement et de l'inférence de plusieurs modèles grâce à une série d'optimisations de bas niveau. Son cœur comprend le chargement dynamique d'adaptateurs LoRA, le parallélisme de tenseurs et l'attention paginée, la fusion de plusieurs modèles, l'attention Flash, les noyaux CUDA précompilés et les techniques de quantification.
OpenLoRA ne se limite pas à être un cadre d'inférence LoRA efficace, mais intègre également profondément l'inférence de modèles et le mécanisme d'incitation Web3, avec pour objectif de transformer le modèle LoRA en un actif Web3 appelable, combinable et partageable. Il réalise :
OpenLedger prévoit que les indicateurs de performance futurs d'OpenLoRA seront nettement supérieurs à ceux des déploiements de modèles à paramètres complets traditionnels, mais ces indicateurs sont plus proches de la "performance maximale" et doivent être considérés comme "un plafond idéal" plutôt que comme "une stabilité quotidienne".
3.3 Datanets (réseaux de données), de la souveraineté des données à l'intelligence des données
Datanets est l'infrastructure d'OpenLedger pour "les données sont des actifs", utilisée pour collecter et gérer des ensembles de données dans des domaines spécifiques. Chaque Datanet est comme un entrepôt de données structuré, où les contributeurs téléchargent des données, et où un mécanisme d'attribution sur la chaîne garantit que les données sont traçables et dignes de confiance.
Comparé aux projets axés sur la souveraineté des données, OpenLedger étend la valeur des données à l'entraînement des modèles et aux appels sur la chaîne à travers trois modules : Datanets, Model Factory et OpenLoRA, construisant ainsi un "boucle complète de données à l'intelligence". OpenLedger se concentre sur "comment les données sont entraînées, appelées et récompensées", occupant une position clé dans le chemin de monétisation des données au sein de l'écosystème Web3 AI.
3.4 Preuve d'attribution (贡献证明) : remodeler la couche d'incitation à la distribution des bénéfices
La preuve d'attribution (PoA) est le mécanisme central d'OpenLedger pour réaliser l'attribution des données et la distribution des incitations. Son processus d'attribution des données et d'incitation comprend :
Le PoA n'est pas seulement un outil de distribution d'incitations, mais également un cadre axé sur la transparence, le suivi des sources et l'attribution multi-niveaux. Il enregistre l'ensemble du processus de téléchargement des données, d'appel de modèles et d'exécution d'agents sur la chaîne, réalisant ainsi un chemin de valeur vérifiable de bout en bout.
RAG Attribution est un mécanisme d'attribution et d'incitation des données établi par OpenLedger dans le cadre du scénario RAG, garantissant que le contenu produit par le modèle est traçable et vérifiable, et que les contributeurs peuvent être incités. Son processus comprend :
La RAG Attribution d'OpenLedger permet de retracer chaque réponse de l'IA à une source de données réelle, et les contributeurs sont incités en fonction de la fréquence des citations, réalisant ainsi "la connaissance a une source, l'appel peut être monétisé". Ce mécanisme améliore la transparence des sorties du modèle et construit un cercle d'incitation durable pour la contribution de données de haute qualité.
Quatre, Progrès du projet OpenLedger et coopération écologique
OpenLedger a lancé son réseau de test, la couche d'intelligence des données est la première phase, visant à construire un entrepôt de données Internet alimenté par des nœuds communautaires. Les membres de la communauté peuvent faire fonctionner des nœuds d'appareils en périphérie, participer à la collecte et au traitement des données, et obtenir des récompenses en points en fonction de leur niveau d'activité et de l'achèvement des tâches.
Le réseau de test offre trois types de mécanismes de rendement :
Le réseau de test Epoch 2 a mis en avant le mécanisme de réseau de données Datanets, réservé aux utilisateurs sur liste blanche, couvrant des tâches telles que la validation et la classification des données.
La feuille de route à long terme d'OpenLedger comprend :