Descentralización almacenamiento: desarrollo y perspectivas futuras
La Descentralización del almacenamiento fue una de las rutas más populares en la industria blockchain. Filecoin, como el proyecto líder de la última corrida alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares. Arweave, gracias al concepto de almacenamiento permanente, alcanzó un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que se cuestiona la disponibilidad del almacenamiento de datos fríos, la necesidad de almacenamiento permanente también se ve desafiada, y el futuro del almacenamiento descentralizado se encuentra en la incertidumbre.
Recientemente, la aparición de Walrus ha traído nueva atención a un sector de almacenamiento que había estado en silencio durante mucho tiempo. El proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, intenta impulsar el desarrollo de almacenamiento descentralizado en el ámbito del almacenamiento de datos en caliente. Entonces, ¿puede el almacenamiento descentralizado resurgir y proporcionar soluciones para escenarios de aplicación más amplios? ¿O será otra ronda de efímera especulación conceptual? Este artículo analizará la evolución narrativa del almacenamiento descentralizado, a partir de las trayectorias de desarrollo de cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, y explorará las perspectivas y desafíos en su camino hacia la popularización.
Filecoin es uno de los proyectos de criptomonedas alternativas que surgió temprano, y su dirección de desarrollo gira en torno a la Descentralización. Esta es una característica común de las criptomonedas alternativas tempranas: buscar el significado de la Descentralización en diversos campos tradicionales. Filecoin combina almacenamiento con Descentralización, señalando los riesgos de confianza que presentan los proveedores de servicios de almacenamiento de datos centralizados, y propone una solución de almacenamiento descentralizado.
Sin embargo, algunos aspectos que Filecoin sacrificó para lograr la Descentralización se convirtieron en puntos críticos que proyectos posteriores como Arweave o Walrus intentaron resolver. Para entender por qué Filecoin es esencialmente solo un proyecto de minería, es necesario comprender las limitaciones objetivas de su tecnología subyacente, IPFS, en el manejo de datos calientes.
IPFS: Descentralización arquitectura limitada por cuellos de botella en la transmisión
IPFS(, el sistema de archivos interplanetario, se lanzó alrededor de 2015 con el objetivo de revolucionar el protocolo HTTP tradicional a través de la búsqueda de contenido. La mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los servicios de datos tradicionales pueden lograr una respuesta en milisegundos, obtener un archivo a través de IPFS todavía puede tardar más de diez segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos blockchain, es poco adoptado en industrias tradicionales.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos" - contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no tiene ventajas significativas en comparación con un CDN tradicional.
A pesar de que IPFS no es una blockchain en sí misma, su diseño basado en un gráfico acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que la hace naturalmente adecuada como un marco de construcción subyacente para blockchain. Por lo tanto, incluso careciendo de valor práctico, como marco subyacente que sostiene la narrativa de blockchain, ya es suficiente. Los proyectos de imitación tempranos solo necesitaban un marco funcional para plasmar una gran visión, pero cuando Filecoin alcanzó cierto nivel de desarrollo, las limitaciones que traía IPFS comenzaron a obstaculizar su avance.
) Lógica de las criptomonedas bajo el almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, en ausencia de incentivos económicos, es difícil para los usuarios utilizar este sistema de manera proactiva, y mucho menos convertirse en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Es en este contexto que Filecoin surge.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas por almacenar datos; los mineros de almacenamiento obtienen incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y reciben incentivos.
Este modelo presenta un potencial espacio para el mal comportamiento. Los mineros de almacenamiento podrían llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización para los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos de los usuarios no sean eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. Aunque el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se alinea más con la definición de un proyecto de almacenamiento basado en "lógica de minería" que en "impulsado por aplicaciones".
Arweave: las ganancias y pérdidas del largo plazo
Si el objetivo de diseño de Filecoin es construir una "nube de datos" descentralizada que sea incentivada y demostrable, entonces Arweave se dirige hacia el extremo opuesto en el almacenamiento: proporcionando la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una hipótesis central: los datos importantes deben ser almacenados de una sola vez y permanecer para siempre en la red. Este extremo de largo plazo hace que Arweave, desde sus mecanismos hasta su modelo de incentivos, desde los requisitos de hardware hasta la narrativa, se diferencie enormemente de Filecoin.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos períodos medidos en años. Arweave no se preocupa por el marketing, ni le importan los competidores o las tendencias del mercado. Simplemente avanza en el camino de la iteración de su arquitectura de red, sin importar si recibe atención o no, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también por el largo plazo, incluso si cae a su punto más bajo, Arweave podría sobrevivir a varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
La mainnet de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido la atención del mercado, ha estado comprometida a permitir que un mayor número de mineros participe en la red con el menor costo posible, y a incentivar a los mineros a almacenar datos al máximo, mejorando continuamente la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, adopta un enfoque conservador, no abraza a la comunidad de mineros, su ecosistema está completamente estancado, actualiza la mainnet con el mínimo costo, y sigue reduciendo la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar del almacenamiento real para optimizar las probabilidades de minado. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, que limita el uso de potencia de cálculo especializada y exige la participación de CPU genéricas en la minería, debilitando así la Descentralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de mantener datos reales a través de estrategias de grupos de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, 2.4 lanzó el mecanismo SPoRA, que introduce un índice global y acceso aleatorio de hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando mecánicamente el efecto de apilamiento de potencia de cálculo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso a almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introdujo una cadena de hash para controlar el ritmo de producción de bloques, equilibrando la utilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justa para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: la 2.7 aumenta la minería colaborativa y el mecanismo de piscina de minería, mejorando la competitividad de los pequeños mineros; la 2.8 introduce un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: mientras resiste continuamente la tendencia de concentración de poder computacional, reduce constantemente las barreras de participación, asegurando la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una exageración o hay un gran secreto detrás?
La filosofía de diseño de Walrus es completamente diferente a la de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener pocos escenarios; el punto de partida de Walrus es optimizar el costo de almacenamiento de los protocolos de almacenamiento de datos calientes.
Modificación mágica de códigos de borrado: ¿innovación en costos o un nuevo envase para el viejo vino?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irracionales, ya que ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red aún mantiene la disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí alienta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a expensas de que algunos almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre los dos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de un enfoque de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional, el código de borrado es una técnica que permite duplicar conjuntos de datos mediante la adición de fragmentos redundantes)erasure code(, que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
Los códigos de corrección permiten a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional se denomina datos especiales de corrección. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar el bloque completo. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si está dañado.
Actualmente, el más común es el código RS. La forma de implementación es comenzar con k bloques de información, construir el polinomio correspondiente y evaluarlo en diferentes coordenadas x para obtener los bloques codificados. Al usar códigos de borrado RS, la probabilidad de muestreo aleatorio de perder grandes bloques de datos es muy baja.
¿Cuál es la característica más destacada de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar bloques de datos no estructurados en fragmentos más pequeños de manera rápida y robusta, y estos fragmentos se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una consistencia matemática estricta, sino que ha realizado compromisos realistas en relación con la distribución de datos, la verificación de almacenamiento y los costos de cálculo. Este modelo renuncia al mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos mediante la validación de Proof, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1 y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos y mejorar la robustez del sistema en general. Esta estructura, en esencia, reduce la exigencia de consistencia de los datos - permite que diferentes nodos almacenen temporalmente diferentes versiones de los datos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
6
Republicar
Compartir
Comentar
0/400
SignatureVerifier
· hace17h
Hmm... el stack de validación de walrus parece sospechosamente poco desarrollado, hay potenciales vectores de ataque por todas partes.
Ver originalesResponder0
NFTRegretful
· 08-16 17:23
¿Qué almacenamiento permanente hay? Todo es aire.
Ver originalesResponder0
RunWithRugs
· 08-16 17:17
Almacenamiento👎 he pasado por demasiados proyectos que han fracasado.
Ver originalesResponder0
PanicSeller
· 08-16 17:14
Otra ola de tontos ha llegado.
Ver originalesResponder0
Ser_APY_2000
· 08-16 17:09
FIL todavía quiere tomar a la gente por tonta nueva.
Ver originalesResponder0
DeepRabbitHole
· 08-16 17:05
Manteniendo la moneda durante 4 años... caída tonta
Descentralización almacenamiento evolución: de FIL a Walrus, la transformación tecnológica y los desafíos futuros
Descentralización almacenamiento: desarrollo y perspectivas futuras
La Descentralización del almacenamiento fue una de las rutas más populares en la industria blockchain. Filecoin, como el proyecto líder de la última corrida alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares. Arweave, gracias al concepto de almacenamiento permanente, alcanzó un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que se cuestiona la disponibilidad del almacenamiento de datos fríos, la necesidad de almacenamiento permanente también se ve desafiada, y el futuro del almacenamiento descentralizado se encuentra en la incertidumbre.
Recientemente, la aparición de Walrus ha traído nueva atención a un sector de almacenamiento que había estado en silencio durante mucho tiempo. El proyecto Shelby, lanzado en colaboración entre Aptos y Jump Crypto, intenta impulsar el desarrollo de almacenamiento descentralizado en el ámbito del almacenamiento de datos en caliente. Entonces, ¿puede el almacenamiento descentralizado resurgir y proporcionar soluciones para escenarios de aplicación más amplios? ¿O será otra ronda de efímera especulación conceptual? Este artículo analizará la evolución narrativa del almacenamiento descentralizado, a partir de las trayectorias de desarrollo de cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, y explorará las perspectivas y desafíos en su camino hacia la popularización.
Filecoin: Almacenamiento superficial, minería sustancial
Filecoin es uno de los proyectos de criptomonedas alternativas que surgió temprano, y su dirección de desarrollo gira en torno a la Descentralización. Esta es una característica común de las criptomonedas alternativas tempranas: buscar el significado de la Descentralización en diversos campos tradicionales. Filecoin combina almacenamiento con Descentralización, señalando los riesgos de confianza que presentan los proveedores de servicios de almacenamiento de datos centralizados, y propone una solución de almacenamiento descentralizado.
Sin embargo, algunos aspectos que Filecoin sacrificó para lograr la Descentralización se convirtieron en puntos críticos que proyectos posteriores como Arweave o Walrus intentaron resolver. Para entender por qué Filecoin es esencialmente solo un proyecto de minería, es necesario comprender las limitaciones objetivas de su tecnología subyacente, IPFS, en el manejo de datos calientes.
IPFS: Descentralización arquitectura limitada por cuellos de botella en la transmisión
IPFS(, el sistema de archivos interplanetario, se lanzó alrededor de 2015 con el objetivo de revolucionar el protocolo HTTP tradicional a través de la búsqueda de contenido. La mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En una era donde los servicios de datos tradicionales pueden lograr una respuesta en milisegundos, obtener un archivo a través de IPFS todavía puede tardar más de diez segundos, lo que dificulta su promoción en aplicaciones prácticas y explica por qué, aparte de algunos proyectos blockchain, es poco adoptado en industrias tradicionales.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos" - contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al tratar con datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no tiene ventajas significativas en comparación con un CDN tradicional.
A pesar de que IPFS no es una blockchain en sí misma, su diseño basado en un gráfico acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que la hace naturalmente adecuada como un marco de construcción subyacente para blockchain. Por lo tanto, incluso careciendo de valor práctico, como marco subyacente que sostiene la narrativa de blockchain, ya es suficiente. Los proyectos de imitación tempranos solo necesitaban un marco funcional para plasmar una gran visión, pero cuando Filecoin alcanzó cierto nivel de desarrollo, las limitaciones que traía IPFS comenzaron a obstaculizar su avance.
) Lógica de las criptomonedas bajo el almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, en ausencia de incentivos económicos, es difícil para los usuarios utilizar este sistema de manera proactiva, y mucho menos convertirse en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, pero no contribuirán con su espacio de almacenamiento ni almacenarán los archivos de otros. Es en este contexto que Filecoin surge.
En el modelo de economía de tokens de Filecoin, hay tres roles principales: los usuarios son responsables de pagar tarifas por almacenar datos; los mineros de almacenamiento obtienen incentivos en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y reciben incentivos.
Este modelo presenta un potencial espacio para el mal comportamiento. Los mineros de almacenamiento podrían llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización para los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos de los usuarios no sean eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de almacenamiento distribuido por parte de los usuarios finales. Aunque el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se alinea más con la definición de un proyecto de almacenamiento basado en "lógica de minería" que en "impulsado por aplicaciones".
Arweave: las ganancias y pérdidas del largo plazo
Si el objetivo de diseño de Filecoin es construir una "nube de datos" descentralizada que sea incentivada y demostrable, entonces Arweave se dirige hacia el extremo opuesto en el almacenamiento: proporcionando la capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; su sistema entero se desarrolla en torno a una hipótesis central: los datos importantes deben ser almacenados de una sola vez y permanecer para siempre en la red. Este extremo de largo plazo hace que Arweave, desde sus mecanismos hasta su modelo de incentivos, desde los requisitos de hardware hasta la narrativa, se diferencie enormemente de Filecoin.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos períodos medidos en años. Arweave no se preocupa por el marketing, ni le importan los competidores o las tendencias del mercado. Simplemente avanza en el camino de la iteración de su arquitectura de red, sin importar si recibe atención o no, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy apreciado en el último mercado alcista; y también por el largo plazo, incluso si cae a su punto más bajo, Arweave podría sobrevivir a varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
La mainnet de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido la atención del mercado, ha estado comprometida a permitir que un mayor número de mineros participe en la red con el menor costo posible, y a incentivar a los mineros a almacenar datos al máximo, mejorando continuamente la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, adopta un enfoque conservador, no abraza a la comunidad de mineros, su ecosistema está completamente estancado, actualiza la mainnet con el mínimo costo, y sigue reduciendo la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permite a los mineros depender de la apilación de GPU en lugar del almacenamiento real para optimizar las probabilidades de minado. Para frenar esta tendencia, la versión 1.7 introduce el algoritmo RandomX, que limita el uso de potencia de cálculo especializada y exige la participación de CPU genéricas en la minería, debilitando así la Descentralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión sobre el ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de mantener datos reales a través de estrategias de grupos de almacenamiento centralizados de alta velocidad.
Para corregir esta tendencia, 2.4 lanzó el mecanismo SPoRA, que introduce un índice global y acceso aleatorio de hash lento, lo que obliga a los mineros a poseer realmente bloques de datos para participar en la producción efectiva de bloques, debilitando mecánicamente el efecto de apilamiento de potencia de cálculo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso a almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. 2.6 introdujo una cadena de hash para controlar el ritmo de producción de bloques, equilibrando la utilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justa para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: la 2.7 aumenta la minería colaborativa y el mecanismo de piscina de minería, mejorando la competitividad de los pequeños mineros; la 2.8 introduce un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: mientras resiste continuamente la tendencia de concentración de poder computacional, reduce constantemente las barreras de participación, asegurando la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una exageración o hay un gran secreto detrás?
La filosofía de diseño de Walrus es completamente diferente a la de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el punto de partida de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener pocos escenarios; el punto de partida de Walrus es optimizar el costo de almacenamiento de los protocolos de almacenamiento de datos calientes.
Modificación mágica de códigos de borrado: ¿innovación en costos o un nuevo envase para el viejo vino?
En términos de diseño de costos de almacenamiento, Walrus considera que los costos de almacenamiento de Filecoin y Arweave son irracionales, ya que ambos utilizan una arquitectura de replicación completa, cuya principal ventaja es que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y la independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red aún mantiene la disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez eleva los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí alienta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a expensas de que algunos almacenamiento de bajo costo puede tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre los dos, su mecanismo controla los costos de replicación mientras mejora la disponibilidad a través de un enfoque de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional, el código de borrado es una técnica que permite duplicar conjuntos de datos mediante la adición de fragmentos redundantes)erasure code(, que se puede utilizar para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
Los códigos de corrección permiten a los usuarios obtener un bloque, por ejemplo de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional se denomina datos especiales de corrección. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar el bloque completo. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si está dañado.
Actualmente, el más común es el código RS. La forma de implementación es comenzar con k bloques de información, construir el polinomio correspondiente y evaluarlo en diferentes coordenadas x para obtener los bloques codificados. Al usar códigos de borrado RS, la probabilidad de muestreo aleatorio de perder grandes bloques de datos es muy baja.
¿Cuál es la característica más destacada de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar bloques de datos no estructurados en fragmentos más pequeños de manera rápida y robusta, y estos fragmentos se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con los códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una consistencia matemática estricta, sino que ha realizado compromisos realistas en relación con la distribución de datos, la verificación de almacenamiento y los costos de cálculo. Este modelo renuncia al mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, verifica en la cadena si los nodos tienen copias específicas de datos mediante la validación de Proof, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1 y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, su función es proporcionar tolerancia a fallos y mejorar la robustez del sistema en general. Esta estructura, en esencia, reduce la exigencia de consistencia de los datos - permite que diferentes nodos almacenen temporalmente diferentes versiones de los datos.