De données froides à des données chaudes : l'évolution du stockage décentralisé

Évolution du stockage décentralisé : de Filecoin à Shelby

Le stockage a été l'un des secteurs les plus populaires de l'industrie de la blockchain. Filecoin, en tant que projet phare de la dernière bulle, a vu sa capitalisation boursière dépasser les dix milliards de dollars à un moment donné. Arweave, grâce à son concept de stockage permanent, a atteint une capitalisation boursière maximale de 3,5 milliards de dollars. Cependant, avec la remise en question de la praticité du stockage de données froides, la nécessité du stockage permanent a également été contestée, rendant l'avenir du stockage décentralisé incertain.

Récemment, l'apparition de Walrus a apporté une nouvelle dynamique à un secteur du stockage longtemps silencieux. Le projet Shelby, lancé par Aptos en collaboration avec Jump Crypto, vise à propulser le stockage décentralisé dans le domaine des données chaudes vers de nouveaux sommets. Alors, le stockage décentralisé peut-il renaître et soutenir une large gamme de cas d'utilisation ? Ou s'agit-il simplement d'un nouveau tour de spéculation conceptuelle ? Cet article analysera l'évolution du stockage décentralisé à partir des parcours de développement des quatre projets que sont Filecoin, Arweave, Walrus et Shelby, et explorera la possibilité de la généralisation du stockage décentralisé.

De FIL, Arweave à Walrus, Shelby : quel est le chemin restant pour la popularisation du stockage décentralisé ?

FIL : stockage de surface, en réalité minage

Filecoin est l'un des premiers projets de Décentralisation à émerger, son orientation de développement s'articule autour de la Décentralisation, ce qui est une caractéristique commune des premiers projets de blockchain. Filecoin combine le stockage et la Décentralisation, cherchant à résoudre le problème de confiance des fournisseurs de services de stockage de données centralisés. Cependant, certains aspects sacrifiés pour réaliser la Décentralisation sont devenus les points de douleur que des projets ultérieurs comme Arweave ou Walrus tentent de résoudre.

IPFS: Limites de l'architecture de la Décentralisation

Le système de fichiers interplanétaire (IPFS) ( a été lancé en 2015, visant à révolutionner le protocole HTTP traditionnel grâce à l'adressage par contenu. Cependant, le principal inconvénient d'IPFS est sa lenteur d'accès. À une époque où les services de données traditionnels peuvent atteindre des temps de réponse en millisecondes, obtenir un fichier via IPFS prend encore une dizaine de secondes, ce qui rend difficile sa promotion dans des applications pratiques.

Le protocole P2P sous-jacent d'IPFS est principalement adapté aux "données froides", c'est-à-dire aux contenus statiques qui ne changent pas souvent. Cependant, lors du traitement des données chaudes, comme les pages web dynamiques, les jeux en ligne ou les applications IA, le protocole P2P n'a pas d'avantage significatif par rapport aux CDN traditionnels.

Bien qu'IPFS ne soit pas une blockchain en soi, son concept de design basé sur le graphe acyclique dirigé )DAG( s'aligne parfaitement avec de nombreuses blockchains et protocoles Web3, ce qui le rend naturellement adapté à être une base de construction pour les blockchains. Ainsi, même s'il lui manque une valeur pratique, il est déjà suffisant en tant que cadre sous-jacent pour porter le récit blockchain.

) L'essence du minage sous l'habit de stockage

Le design d'IPFS a pour but de permettre aux utilisateurs de stocker des données tout en devenant également une partie du réseau de stockage. Cependant, sans incitation économique, il est difficile pour les utilisateurs d'utiliser ce système de manière volontaire, encore moins de devenir des nœuds de stockage actifs. Cela signifie que la plupart des utilisateurs ne vont stocker des fichiers que sur IPFS, sans contribuer leur propre espace de stockage ou stocker les fichiers des autres. C'est dans ce contexte que FIL a vu le jour.

Dans le modèle économique des tokens de Filecoin, il y a principalement trois rôles : les utilisateurs sont responsables du paiement des frais pour le stockage des données ; les mineurs de stockage reçoivent des incitations en tokens pour le stockage des données des utilisateurs ; les mineurs de récupération fournissent des données lorsque les utilisateurs en ont besoin et obtiennent des incitations.

Ce modèle présente un potentiel d'espace pour la fraude. Les mineurs de stockage peuvent remplir des données inutiles après avoir fourni de l'espace de stockage afin d'obtenir des récompenses. Étant donné que ces données inutiles ne seront pas récupérées, même en cas de perte, cela ne déclenchera pas de mécanisme de pénalité. Cela permet aux mineurs de stockage de supprimer des données inutiles et de répéter ce processus. Le consensus de preuve de réplication de Filecoin ne peut garantir que les données des utilisateurs n'ont pas été supprimées illicitement, mais ne peut empêcher les mineurs de remplir des données inutiles.

Le fonctionnement de Filecoin dépend en grande partie de l'investissement continu des mineurs dans l'économie des jetons, plutôt que de la demande réelle des utilisateurs finaux pour le stockage décentralisé. Bien que le projet soit toujours en cours d'itération, à ce stade, la construction de l'écosystème de Filecoin correspond davantage à la "logique de minage" qu'à la définition d'un projet de stockage "piloté par l'application".

Arweave : Avantages et limites du long terme

Comparé à Filecoin qui tente de construire une "cloud de données" décentralisé et incitatif, Arweave va dans une autre direction extrême en matière de stockage : fournir la capacité de stockage permanent des données. Arweave ne cherche pas à construire une plateforme de calcul décentralisée, son système entier repose sur une hypothèse centrale : les données importantes devraient être stockées une fois pour toutes et rester éternellement sur le réseau. Ce long-termisme extrême fait qu'Arweave est fondamentalement différent de Filecoin, tant au niveau des mécanismes que des modèles d'incitation, des exigences matérielles à la perspective narrative.

Arweave prend le Bitcoin comme objet d'étude, tentant d'optimiser constamment son réseau de stockage permanent sur de longues périodes comptées en années. Arweave ne se soucie pas du marketing, ni des concurrents ou des tendances du marché. Il avance simplement sur le chemin de l'itération de l'architecture du réseau, même si personne ne s'y intéresse, car c'est là l'essence de l'équipe de développement d'Arweave : le long-termisme. Grâce au long-termisme, Arweave a été chaudement salué lors du dernier marché haussier ; et à cause du long-termisme, même en tombant au plus bas, Arweave pourrait encore survivre à plusieurs cycles de marchés haussiers et baissiers. Mais l'avenir du stockage décentralisé a-t-il une place pour Arweave ? La valeur d'existence du stockage permanent ne peut être prouvée que par le temps.

Le réseau principal d'Arweave est passé de la version 1.5 à la version 2.9. Bien qu'il ait perdu l'attention du marché, il s'est toujours engagé à permettre à un plus large éventail de mineurs de participer au réseau à moindre coût et à encourager les mineurs à stocker un maximum de données, ce qui améliore continuellement la robustesse de l'ensemble du réseau. Arweave est conscient de ne pas correspondre aux préférences du marché et a adopté une approche prudente, ne s'alliant pas avec les groupes de mineurs. L'écosystème est complètement stagnant, avec des mises à niveau du réseau principal à moindre coût, tout en continuant à réduire le seuil matériel sans compromettre la sécurité du réseau.

Retour sur le chemin de mise à niveau de 1,5 à 2,9

La version 1.5 d'Arweave a révélé une vulnérabilité permettant aux mineurs de s'appuyer sur l'accumulation de GPU plutôt que sur un stockage réel pour optimiser les chances de créer des blocs. Pour freiner cette tendance, la version 1.7 introduit l'algorithme RandomX, limitant l'utilisation de la puissance de calcul spécialisée et exigeant la participation de CPU génériques au minage, afin de réduire la centralisation de la puissance de traitement.

Dans la version 2.0, Arweave utilise le SPoA, transformant la preuve de données en un chemin succinct structuré en arbre de Merkle, et introduit les transactions de format 2 pour réduire la charge de synchronisation. Cette architecture atténue la pression sur la bande passante du réseau, renforçant considérablement la capacité de collaboration des nœuds. Cependant, certains mineurs peuvent encore échapper à la responsabilité réelle de possession des données grâce à des stratégies de pools de stockage centralisés à haute vitesse.

Pour corriger ce biais, la version 2.4 a introduit le mécanisme SPoRA, qui intègre un index global et un accès aléatoire par hachage lent, obligeant les mineurs à réellement posséder des blocs de données pour participer à la production de blocs valides, réduisant ainsi l'effet d'accumulation de puissance de calcul de manière mécanique. En conséquence, les mineurs ont commencé à se concentrer sur la vitesse d'accès au stockage, favorisant l'utilisation de SSD et d'appareils de lecture/écriture à haute vitesse. La version 2.6 a introduit une chaîne de hachage pour contrôler le rythme de production des blocs, équilibrant les rendements marginaux des équipements hautes performances, offrant ainsi un espace de participation équitable pour les petits et moyens mineurs.

Les versions ultérieures renforcent davantage les capacités de collaboration réseau et la diversité du stockage : la version 2.7 ajoute le minage collaboratif et le mécanisme de pool, améliorant la compétitivité des petits mineurs ; la version 2.8 introduit un mécanisme de packaging composite, permettant aux dispositifs à grande capacité et à faible vitesse de participer de manière flexible ; la version 2.9 introduit un nouveau processus de packaging au format replica_2_9, améliorant considérablement l'efficacité et réduisant la dépendance au calcul, complétant le modèle de minage orienté données.

Dans l'ensemble, la feuille de route de mise à niveau d'Arweave présente clairement sa stratégie à long terme axée sur le stockage : tout en continuant à résister à la tendance de concentration de la puissance de calcul, elle abaisse continuellement les barrières à l'entrée pour garantir la possibilité du fonctionnement à long terme du protocole.

Walrus: Une nouvelle tentative de stockage de données chaudes

La conception de Walrus est complètement différente de celle de Filecoin et Arweave. Le point de départ de Filecoin est de créer un système de stockage décentralisé et vérifiable, au prix d'un stockage de données froides ; le point de départ d'Arweave est de créer une bibliothèque d'Alexandrie sur chaîne capable de stocker des données de manière permanente, au prix d'un nombre de scénarios trop réduit ; le point de départ de Walrus est d'optimiser les coûts de stockage du protocole de stockage de données chaudes.

RedStuff : L'application innovante des codes de correction d'erreurs

En ce qui concerne la conception des coûts de stockage, Walrus considère que les frais de stockage de Filecoin et d'Arweave ne sont pas raisonnables. Les deux derniers adoptent une architecture de réplication complète, dont l'avantage principal réside dans le fait que chaque nœud détient une copie complète, offrant ainsi une forte tolérance aux pannes et une indépendance entre les nœuds. Ce type d'architecture garantit que même si certains nœuds sont hors ligne, le réseau reste disponible pour les données. Cependant, cela signifie également que le système nécessite une redondance par copies multiples pour maintenir la robustesse, ce qui augmente les coûts de stockage. En particulier dans la conception d'Arweave, le mécanisme de consensus lui-même encourage le stockage redondant des nœuds pour renforcer la sécurité des données. En revanche, Filecoin est plus flexible en matière de contrôle des coûts, mais cela signifie que certains stockages à faible coût peuvent présenter un risque de perte de données plus élevé. Walrus tente de trouver un équilibre entre les deux, son mécanisme contrôlant les coûts de réplication tout en renforçant la disponibilité par des méthodes de redondance structurée, établissant ainsi une nouvelle voie de compromis entre la disponibilité des données et l'efficacité des coûts.

La technologie RedStuff, créée par Walrus, est essentielle pour réduire la redondance des nœuds, elle provient du codage Reed-Solomon ### RS (. Le codage RS est un algorithme de code de correction d'erreur très traditionnel, le code de correction d'erreur est une technique qui permet de doubler un ensemble de données en ajoutant des segments redondants, ce qui peut être utilisé pour reconstruire les données originales. De CD-ROM à la communication par satellite en passant par les codes QR, il est fréquemment utilisé dans la vie quotidienne.

Les codes de correction d'erreurs permettent aux utilisateurs d'obtenir un bloc, par exemple de 1 Mo, puis de le "grossir" à 2 Mo, où le Mo supplémentaire est constitué de données spéciales appelées codes de correction d'erreurs. Si un byte du bloc est perdu, l'utilisateur peut facilement récupérer ces bytes grâce aux codes. Même si jusqu'à 1 Mo du bloc est perdu, le bloc entier peut être récupéré. La même technique permet aux ordinateurs de lire toutes les données sur un CD-ROM, même si celui-ci est endommagé.

Le code RS est actuellement le plus couramment utilisé. La méthode de mise en œuvre consiste à commencer avec k blocs d'information, à construire des polynômes associés et à les évaluer à différents x pour obtenir des blocs codés. En utilisant le code de correction d'erreurs RS, la probabilité de perdre de grands blocs de données par échantillonnage aléatoire est très faible.

La principale caractéristique de RedStuff est qu'en améliorant l'algorithme de codage de correction d'erreurs, Walrus peut coder rapidement et de manière robuste des blocs de données non structurées en morceaux plus petits, qui seront stockés de manière distribuée dans un réseau de nœuds de stockage. Même si jusqu'à deux tiers des morceaux sont perdus, il est possible de reconstruire rapidement le bloc de données original à partir de morceaux partiels. Cela devient possible tout en maintenant un facteur de réplication de seulement 4 à 5 fois.

Il est donc raisonnable de définir Walrus comme un protocole léger de redondance et de récupération redessiné autour des scènes de décentralisation. Contrairement aux codes de correction d'erreurs traditionnels ) tels que Reed-Solomon (, RedStuff ne cherche plus à atteindre une cohérence mathématique stricte, mais fait des compromis réalistes sur la distribution des données, la vérification du stockage et les coûts de calcul. Ce modèle abandonne le mécanisme de décodage instantané requis par la planification centralisée, et opte plutôt pour la vérification des preuves sur la chaîne pour confirmer si les nœuds détiennent des copies spécifiques des données, s'adaptant ainsi à une structure de réseau plus dynamique et marginalisée.

Le cœur du design de RedStuff est de diviser les données en deux catégories : les tranches principales et les tranches secondaires. Les tranches principales sont utilisées pour restaurer les données d'origine, leur génération et leur distribution étant soumises à des contraintes strictes, le seuil de restauration étant de f+1, et nécessitant 2f+1 signatures comme garantie de disponibilité ; les tranches secondaires sont générées par des opérations simples telles que la combinaison XOR, leur rôle étant d'offrir une tolérance aux pannes élastique et d'améliorer la robustesse globale du système. Cette structure réduit essentiellement les exigences en matière de cohérence des données - permettant à différents nœuds de stocker temporairement différentes versions des données, mettant l'accent sur la "cohérence finale" comme voie pratique. Bien qu'elle ait obtenu un certain effet en réduisant la charge sur le réseau, similaire aux exigences assouplies sur les blocs de retour dans des systèmes comme Arweave, cela a également affaibli la garantie de disponibilité immédiate et d'intégrité des données.

Il ne faut pas négliger que, bien que RedStuff ait réalisé un stockage efficace dans des environnements à faible puissance de calcul et faible bande passante, il reste essentiellement une "variante" d'un système de codes correcteurs. Il sacrifie une partie de la détermination de la lecture des données pour obtenir un contrôle des coûts et une scalabilité dans un environnement décentralisé. Cependant, au niveau de l'application, il reste à voir si cette architecture peut soutenir des scénarios de données à grande échelle et à haute fréquence. De plus, RedStuff n'a pas vraiment réussi à surmonter les calculs d'encodage qui existent depuis longtemps dans les codes correcteurs.

FIL1.04%
AR2.1%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
DeFiDoctorvip
· 08-01 08:13
Observation clinique : les données chaudes ne sont que les vieux problèmes revêtus d'une nouvelle apparence.
Voir l'originalRépondre0
AirdropCollectorvip
· 08-01 08:12
Le vieux fil va être éliminé, n'est-ce pas ?
Voir l'originalRépondre0
TokenAlchemistvip
· 08-01 08:10
vecteur inefficace détecté... toujours haussier sur fil mais le récit de stockage à froid est mort fr
Voir l'originalRépondre0
MrRightClickvip
· 08-01 08:00
On a fait un tour et on revient à fil, n'est-ce pas ?
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)