¿Qué tan lejos está el camino hacia la popularización del almacenamiento Descentralización?
El almacenamiento ha sido una de las pistas más populares en la industria de la blockchain. Filecoin, como el proyecto líder de la última carrera alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares en un momento. Arweave se enfoca en el almacenamiento permanente, alcanzando un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad del almacenamiento de datos fríos se pone en duda, el futuro desarrollo del almacenamiento descentralizado también se ve cuestionado. Recientemente, la aparición de Walrus ha traído una nueva atención a la pista de almacenamiento que había estado en silencio durante mucho tiempo, mientras que el proyecto Shelby, lanzado por Aptos y Jump Crypto, intenta hacer avances en el almacenamiento de datos calientes. Este artículo analizará la evolución narrativa del almacenamiento descentralizado a partir de las trayectorias de desarrollo de los cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, y explorará su dirección futura.
Filecoin: la esencia de la moneda minera bajo la apariencia del almacenamiento
Filecoin es uno de los proyectos de criptomonedas que surgieron en las primeras etapas, su dirección de desarrollo gira en torno a la Descentralización. Filecoin intenta combinar el almacenamiento con la Descentralización, resolviendo el problema de confianza hacia los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, algunos compromisos realizados para lograr la Descentralización se convirtieron en puntos críticos que los proyectos posteriores intentaron resolver. Para entender que Filecoin es esencialmente un proyecto de minería, es necesario conocer las limitaciones de su tecnología subyacente IPFS en el procesamiento de datos calientes.
IPFS: Descentralización arquitectura de los cuellos de botella de transmisión
IPFS(, el Sistema de Archivos Interplanetario, surgió alrededor de 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la direccionamiento por contenido. Sin embargo, el mayor problema de IPFS es que la velocidad de obtención es extremadamente lenta. En una era donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo con IPFS todavía requiere decenas de segundos, lo que dificulta su promoción en aplicaciones prácticas. A excepción de unos pocos proyectos de blockchain, IPFS rara vez es adoptado por las industrias tradicionales.
El protocolo P2P subyacente de IPFS se aplica principalmente a "datos fríos", es decir, contenido estático que no cambia con frecuencia. En el manejo de datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS no es una cadena de bloques en sí misma, su diseño de gráfico acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo hace intrínsecamente adecuado como marco subyacente para la cadena de bloques. Por lo tanto, incluso careciendo de valor práctico, IPFS ya es suficiente como marco subyacente para llevar la narrativa de la cadena de bloques. Los primeros proyectos clonados solo necesitaban un marco funcional para iniciar un gran plan, pero a medida que Filecoin ha evolucionado, los problemas que trae IPFS también han comenzado a obstaculizar su avance.
) Lógica de monedas mineras bajo la capa de almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, en ausencia de incentivos económicos, es difícil que los usuarios utilicen este sistema de forma voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, sin contribuir con su propio espacio de almacenamiento o almacenar archivos de otros. Es en este contexto que Filecoin surge.
El modelo económico del token de Filecoin incluye tres roles principales: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento reciben recompensas en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen recompensas.
Este modelo presenta un espacio potencial para el mal uso. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no han sido eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de los usuarios finales por el almacenamiento descentralizado. A pesar de que el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se ajusta más a la "lógica de minería" que a la orientación de proyectos de almacenamiento "impulsados por aplicaciones".
Arweave: nacida del largo plazo, derrotada por el largo plazo
Si el objetivo de Filecoin es construir un marco de "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave ha tomado un camino completamente opuesto en términos de almacenamiento: proporcionar capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer en la red para siempre. Este extremo enfoque en el largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma como objeto de estudio el Bitcoin, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos períodos medidos en años. Arweave no se preocupa por el marketing, ni por los competidores ni por las tendencias del mercado. Solo avanza en el camino de iterar la arquitectura de la red, sin importar que nadie esté interesado, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy aclamado durante el último mercado alcista; y también por el largo plazo, incluso si cae a un mínimo, Arweave podría resistir varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor existente del almacenamiento permanente solo puede ser probado por el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido atención del mercado, ha estado trabajando para permitir que un rango más amplio de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando así la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, ha tomado un enfoque conservador, no abrazando a la comunidad minera, con un ecosistema completamente estancado, actualizando la red principal al menor costo posible, y constantemente reduciendo la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5 a 2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la acumulación de GPU en lugar de almacenamiento real para optimizar la probabilidad de creación de bloques. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de potencia informática especializada y exigiendo la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, transformando la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión de ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de piscinas de almacenamiento centralizadas de alta velocidad.
Para corregir este sesgo, la versión 2.4 introdujo el mecanismo SPoRA, que incorpora un índice global y acceso aleatorio a hashes lentos, haciendo que los mineros deban poseer realmente los bloques de datos para participar en la creación de bloques válidos, debilitando así el efecto de acumulación de potencia de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. La versión 2.6 introdujo una cadena de hashes para controlar el ritmo de creación de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: la 2.7 añade minería colaborativa y un mecanismo de pools, mejorando la competitividad de los pequeños mineros; la 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: al resistir continuamente la tendencia de concentración de poder de cálculo, se reduce constantemente la barrera de entrada para garantizar la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una moda pasajera o tiene un significado más profundo?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa de almacenar datos fríos; el punto de partida de Arweave es crear una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos casos de uso; el punto de partida de Walrus, en cambio, es optimizar el costo de almacenamiento del protocolo de almacenamiento de datos calientes.
Modificación mágica de códigos de corrección y eliminación: ¿innovación de costos o vino viejo en botellas nuevas?
En cuanto al diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irracionales. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y una independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez aumenta los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante por parte de los nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que algunos almacenamiento de bajo costo puede presentar un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de un enfoque de redundancia estructurada, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff, creada por Walrus, es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional; el código de borrado es una técnica que permite duplicar un conjunto de datos al agregar fragmentos redundantes, lo que puede utilizarse para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
El código de corrección de errores permite a los usuarios obtener un bloque, por ejemplo, de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional son datos especiales llamados código de corrección de errores. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes mediante el código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si ha sido dañado.
Actualmente, el código RS es el más utilizado. La forma de implementación consiste en comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de corrección de errores RS, la probabilidad de perder grandes bloques de datos mediante muestreo aleatorio es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Con conservar cualquiera de las 6 partes, se puede recuperar completamente los datos originales.
Ventajas: alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos )RAID(, así como en sistemas de almacenamiento en la nube ) como Azure Storage, Facebook F4(.
Desventajas: la decodificación es compleja y tiene un alto costo; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, se utiliza generalmente para la recuperación y programación de datos en entornos de centralización fuera de la cadena.
En una arquitectura de Descentralización, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante - el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la característica más destacada de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una estricta coherencia matemática, sino que ha hecho compromisos realistas en cuanto a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, utiliza la verificación de Proof en la cadena para comprobar si los nodos tienen copias específicas de datos, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff consiste en dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están sujetas a estrictas limitaciones, el umbral de recuperación es de f+1, y se requiere la firma de 2f+1 como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como la combinación XOR, y su función es proporcionar tolerancia a fallos y mejorar la robustez del sistema en su conjunto.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 me gusta
Recompensa
11
6
Compartir
Comentar
0/400
MayTheAncestorsBless
· hace3h
Basura, cómplice
Ver originalesResponder0
Xswl
· hace5h
La moneda basura se acabó.
Ver originalesResponder0
Make$1MillionBy2025
· hace6h
Decir esas cosas inútiles es una tontería, ¡ar es el futuro del almacenamiento descentralizado! Es mucho mejor que ser miembro mensual y pagar cada mes, ¡la televisión murió porque los miembros mensuales la mataron! ¿No es mejor pagar una vez y estar tranquilo para siempre y además que sea más barato?
Ver originalesResponder1
MidnightSnapHunter
· hace7h
fil no es tan bueno como aws
Ver originalesResponder0
ZenChainWalker
· hace7h
¿fil está muerto o aún no?
Ver originalesResponder0
FOMOSapien
· hace8h
¿No estarán todos esos expertos que en su día tiraron servidores para correr fil en pérdidas?
Análisis de la narrativa de almacenamiento descentralizado: comparación de las rutas tecnológicas de Filecoin, Arweave, Walrus y Shelby
¿Qué tan lejos está el camino hacia la popularización del almacenamiento Descentralización?
El almacenamiento ha sido una de las pistas más populares en la industria de la blockchain. Filecoin, como el proyecto líder de la última carrera alcista, tuvo un valor de mercado que superó los 10 mil millones de dólares en un momento. Arweave se enfoca en el almacenamiento permanente, alcanzando un valor de mercado máximo de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad del almacenamiento de datos fríos se pone en duda, el futuro desarrollo del almacenamiento descentralizado también se ve cuestionado. Recientemente, la aparición de Walrus ha traído una nueva atención a la pista de almacenamiento que había estado en silencio durante mucho tiempo, mientras que el proyecto Shelby, lanzado por Aptos y Jump Crypto, intenta hacer avances en el almacenamiento de datos calientes. Este artículo analizará la evolución narrativa del almacenamiento descentralizado a partir de las trayectorias de desarrollo de los cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, y explorará su dirección futura.
Filecoin: la esencia de la moneda minera bajo la apariencia del almacenamiento
Filecoin es uno de los proyectos de criptomonedas que surgieron en las primeras etapas, su dirección de desarrollo gira en torno a la Descentralización. Filecoin intenta combinar el almacenamiento con la Descentralización, resolviendo el problema de confianza hacia los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, algunos compromisos realizados para lograr la Descentralización se convirtieron en puntos críticos que los proyectos posteriores intentaron resolver. Para entender que Filecoin es esencialmente un proyecto de minería, es necesario conocer las limitaciones de su tecnología subyacente IPFS en el procesamiento de datos calientes.
IPFS: Descentralización arquitectura de los cuellos de botella de transmisión
IPFS(, el Sistema de Archivos Interplanetario, surgió alrededor de 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la direccionamiento por contenido. Sin embargo, el mayor problema de IPFS es que la velocidad de obtención es extremadamente lenta. En una era donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo con IPFS todavía requiere decenas de segundos, lo que dificulta su promoción en aplicaciones prácticas. A excepción de unos pocos proyectos de blockchain, IPFS rara vez es adoptado por las industrias tradicionales.
El protocolo P2P subyacente de IPFS se aplica principalmente a "datos fríos", es decir, contenido estático que no cambia con frecuencia. En el manejo de datos calientes, como páginas web dinámicas, juegos en línea o aplicaciones de IA, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS no es una cadena de bloques en sí misma, su diseño de gráfico acíclico dirigido )DAG( se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo hace intrínsecamente adecuado como marco subyacente para la cadena de bloques. Por lo tanto, incluso careciendo de valor práctico, IPFS ya es suficiente como marco subyacente para llevar la narrativa de la cadena de bloques. Los primeros proyectos clonados solo necesitaban un marco funcional para iniciar un gran plan, pero a medida que Filecoin ha evolucionado, los problemas que trae IPFS también han comenzado a obstaculizar su avance.
) Lógica de monedas mineras bajo la capa de almacenamiento
El diseño original de IPFS es permitir que los usuarios, al almacenar datos, también se conviertan en parte de la red de almacenamiento. Sin embargo, en ausencia de incentivos económicos, es difícil que los usuarios utilicen este sistema de forma voluntaria, y mucho menos que se conviertan en nodos de almacenamiento activos. Esto significa que la mayoría de los usuarios solo almacenarán archivos en IPFS, sin contribuir con su propio espacio de almacenamiento o almacenar archivos de otros. Es en este contexto que Filecoin surge.
El modelo económico del token de Filecoin incluye tres roles principales: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento reciben recompensas en tokens por almacenar los datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen recompensas.
Este modelo presenta un espacio potencial para el mal uso. Los mineros de almacenamiento pueden llenar datos basura después de proporcionar espacio de almacenamiento para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización de los mineros de almacenamiento. Esto permite a los mineros de almacenamiento eliminar los datos basura y repetir este proceso. El consenso de prueba de replicación de Filecoin solo puede asegurar que los datos del usuario no han sido eliminados sin autorización, pero no puede evitar que los mineros llenen datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, en lugar de basarse en la demanda real de los usuarios finales por el almacenamiento descentralizado. A pesar de que el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se ajusta más a la "lógica de minería" que a la orientación de proyectos de almacenamiento "impulsados por aplicaciones".
Arweave: nacida del largo plazo, derrotada por el largo plazo
Si el objetivo de Filecoin es construir un marco de "nube de datos" descentralizada que sea incentivada y verificable, entonces Arweave ha tomado un camino completamente opuesto en términos de almacenamiento: proporcionar capacidad de almacenamiento permanente para los datos. Arweave no intenta construir una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados de una sola vez y permanecer en la red para siempre. Este extremo enfoque en el largo plazo hace que Arweave sea muy diferente de Filecoin en términos de mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma como objeto de estudio el Bitcoin, intentando optimizar continuamente su red de almacenamiento permanente a lo largo de largos períodos medidos en años. Arweave no se preocupa por el marketing, ni por los competidores ni por las tendencias del mercado. Solo avanza en el camino de iterar la arquitectura de la red, sin importar que nadie esté interesado, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy aclamado durante el último mercado alcista; y también por el largo plazo, incluso si cae a un mínimo, Arweave podría resistir varias rondas de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento descentralizado? El valor existente del almacenamiento permanente solo puede ser probado por el tiempo.
La red principal de Arweave ha pasado de la versión 1.5 a la reciente 2.9. A pesar de haber perdido atención del mercado, ha estado trabajando para permitir que un rango más amplio de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando así la robustez de toda la red. Arweave es consciente de que no se ajusta a las preferencias del mercado, ha tomado un enfoque conservador, no abrazando a la comunidad minera, con un ecosistema completamente estancado, actualizando la red principal al menor costo posible, y constantemente reduciendo la barrera de hardware sin comprometer la seguridad de la red.
Revisión del camino de actualización de 1.5 a 2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la acumulación de GPU en lugar de almacenamiento real para optimizar la probabilidad de creación de bloques. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de potencia informática especializada y exigiendo la participación de CPU genéricas en la minería, debilitando así la centralización de la potencia de cálculo.
En la versión 2.0, Arweave adopta SPoA, transformando la prueba de datos en una ruta simplificada de estructura de árbol de Merkle, e introduce transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión de ancho de banda de la red, mejorando significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de piscinas de almacenamiento centralizadas de alta velocidad.
Para corregir este sesgo, la versión 2.4 introdujo el mecanismo SPoRA, que incorpora un índice global y acceso aleatorio a hashes lentos, haciendo que los mineros deban poseer realmente los bloques de datos para participar en la creación de bloques válidos, debilitando así el efecto de acumulación de potencia de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a centrarse en la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura y escritura de alta velocidad. La versión 2.6 introdujo una cadena de hashes para controlar el ritmo de creación de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en red y la diversidad de almacenamiento: la 2.7 añade minería colaborativa y un mecanismo de pools, mejorando la competitividad de los pequeños mineros; la 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de gran capacidad y baja velocidad participen de manera flexible; la 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave presenta claramente su estrategia a largo plazo orientada al almacenamiento: al resistir continuamente la tendencia de concentración de poder de cálculo, se reduce constantemente la barrera de entrada para garantizar la viabilidad del funcionamiento del protocolo a largo plazo.
Walrus: ¿Abrazar los datos calientes es una moda pasajera o tiene un significado más profundo?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa de almacenar datos fríos; el punto de partida de Arweave es crear una biblioteca de Alejandría en la cadena que pueda almacenar datos de forma permanente, a costa de tener muy pocos casos de uso; el punto de partida de Walrus, en cambio, es optimizar el costo de almacenamiento del protocolo de almacenamiento de datos calientes.
Modificación mágica de códigos de corrección y eliminación: ¿innovación de costos o vino viejo en botellas nuevas?
En cuanto al diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irracionales. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y una independencia entre nodos. Este tipo de arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red aún tiene disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que a su vez aumenta los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí mismo fomenta el almacenamiento redundante por parte de los nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que algunos almacenamiento de bajo costo puede presentar un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras que, a través de un enfoque de redundancia estructurada, mejora la disponibilidad, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
La tecnología Redstuff, creada por Walrus, es clave para reducir la redundancia de nodos, y proviene de la codificación Reed-Solomon###RS(. La codificación RS es un algoritmo de código de borrado muy tradicional; el código de borrado es una técnica que permite duplicar un conjunto de datos al agregar fragmentos redundantes, lo que puede utilizarse para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones por satélite y códigos QR, se utiliza con frecuencia en la vida diaria.
El código de corrección de errores permite a los usuarios obtener un bloque, por ejemplo, de 1MB, y luego "ampliarlo" a 2MB, donde el 1MB adicional son datos especiales llamados código de corrección de errores. Si se pierde algún byte en el bloque, el usuario puede recuperar fácilmente esos bytes mediante el código. Incluso si se pierde un bloque de hasta 1MB, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos en un CD-ROM, incluso si ha sido dañado.
Actualmente, el código RS es el más utilizado. La forma de implementación consiste en comenzar con k bloques de información, construir un polinomio relacionado y evaluarlo en diferentes coordenadas x para obtener bloques codificados. Al usar códigos de corrección de errores RS, la probabilidad de perder grandes bloques de datos mediante muestreo aleatorio es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Con conservar cualquiera de las 6 partes, se puede recuperar completamente los datos originales.
Ventajas: alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos )RAID(, así como en sistemas de almacenamiento en la nube ) como Azure Storage, Facebook F4(.
Desventajas: la decodificación es compleja y tiene un alto costo; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, se utiliza generalmente para la recuperación y programación de datos en entornos de centralización fuera de la cadena.
En una arquitectura de Descentralización, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante - el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la característica más destacada de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en una red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. En comparación con códigos de borrado tradicionales ) como Reed-Solomon (, RedStuff ya no persigue una estricta coherencia matemática, sino que ha hecho compromisos realistas en cuanto a la distribución de datos, la verificación de almacenamiento y los costos computacionales. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar, utiliza la verificación de Proof en la cadena para comprobar si los nodos tienen copias específicas de datos, adaptándose así a una estructura de red más dinámica y marginalizada.
El núcleo del diseño de RedStuff consiste en dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están sujetas a estrictas limitaciones, el umbral de recuperación es de f+1, y se requiere la firma de 2f+1 como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como la combinación XOR, y su función es proporcionar tolerancia a fallos y mejorar la robustez del sistema en su conjunto.