Informe de investigación profunda de OpenLedger: Construir una economía de agentes impulsada por datos y modelada de manera combinable sobre la base de OP Stack+EigenDA
I. Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y son indispensables. El campo de Crypto AI ha seguido una trayectoria evolutiva similar a la de la industria de IA tradicional. A principios de 2024, el mercado está dominado por proyectos de GPU descentralizados, que enfatizan la lógica de crecimiento extensivo de "competir en potencia de cálculo". Después de 2025, el enfoque de la industria se desplazará gradualmente hacia la capa de modelos y datos, lo que marcará la transición de Crypto AI de la competencia por recursos de base a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas complejas, lo que genera costos elevados. Los modelos de lenguaje especializados (SLM), como un paradigma de ajuste fino ligero, construyen rápidamente modelos de dominio específico a partir de modelos de código abierto combinados con una pequeña cantidad de datos profesionales de alta calidad, lo que reduce significativamente los costos y las barreras de entrada.
SLM colabora y funciona con LLM a través de la arquitectura de agentes, el sistema de plugins, la conmutación en caliente de módulos LoRA, RAG, entre otros. Esta arquitectura conserva la amplia capacidad de LLM y, a través de módulos de ajuste fino, mejora el rendimiento profesional, formando un sistema inteligente modular y flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI tienen dificultad para mejorar directamente la capacidad central de LLM, y la razón es:
La barrera técnica es demasiado alta: los recursos y capacidades necesarios para entrenar un Modelo Base son extremadamente grandes, y solo unos pocos gigantes tecnológicos los poseen.
Limitaciones del ecosistema de código abierto: la clave para impulsar verdaderamente los avances del modelo se concentra en las instituciones de investigación y los sistemas de ingeniería de código cerrado.
Sin embargo, el proyecto Crypto AI puede lograr la extensión de valor a través de la afinación del SLM, combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones:
Capa de verificación confiable: mejora la trazabilidad y la resistencia a la manipulación de las salidas de la IA.
Mecanismo de incentivos: construir un ciclo positivo de entrenamiento de modelos y servicios.
Análisis de la clasificación de tipos de modelos de IA y la aplicabilidad de blockchain
Los puntos de enfoque viables para los proyectos de Crypto AI de tipo modelo se concentran principalmente en el ajuste fino SLM de pequeño tamaño, la integración y verificación de datos en cadena con arquitectura RAG, y el despliegue local de modelos Edge y su incentivación. Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, creando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar en la cadena la fuente de contribución de datos y modelos, mejorando la credibilidad y la trazabilidad. A través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas al invocarse, convirtiendo el comportamiento de la IA en un valor tokenizado, medible y comerciable. Los usuarios de la comunidad pueden votar con tokens para evaluar el rendimiento del modelo y participar en la formulación de reglas, perfeccionando así la estructura de gobernanza descentralizada.
II. Descripción del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es un proyecto de IA blockchain enfocado en mecanismos de incentivos de datos y modelos. Propone el concepto de "Payable AI", construyendo un entorno operativo de IA justo, transparente y combinable, incentivando a todas las partes a colaborar en la misma plataforma y obtener beneficios en la cadena.
OpenLedger ofrece un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", los módulos centrales incluyen:
Fábrica de Modelos: ajuste fino y despliegue de modelos personalizados basados en LLM de código abierto sin necesidad de programación.
OpenLoRA: admite la coexistencia de miles de modelos, carga dinámica según sea necesario, reduce significativamente los costos de implementación.
PoA (Prueba de Atribución): implementación de medición de contribuciones y distribución de recompensas
Datanets: Red de datos estructurados orientada a escenarios verticales
Plataforma de propuestas de modelos: mercado de modelos en cadena que es combinable, llamable y pagable.
OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: soporta alta profundidad y ejecución de bajos costos
Liquidación en la red principal de Ethereum: garantizar la seguridad de las transacciones y la integridad de los activos
Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente
EigenDA proporciona soporte de disponibilidad de datos: reduce los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA generales como NEAR, que son más de nivel base, OpenLedger se centra más en construir cadenas específicas de IA orientadas a datos y modelos incentivados, dedicándose a hacer que el desarrollo y la invocación de modelos logren un ciclo de valor que sea trazable, combinable y sostenible en la cadena. Es la infraestructura de incentivos para modelos en el mundo Web3, combinando el alojamiento de modelos, la facturación por uso y las interfaces combinables en la cadena, promoviendo el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura tecnológica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de LLM bajo el ecosistema de OpenLedger. Ofrece una operación completamente gráfica, sin necesidad de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos autorizados y revisados, logrando un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue. Los procesos clave incluyen:
Control de acceso a datos
Selección y configuración del modelo
Ajuste ligero
Evaluación y despliegue de modelos
Interfaz de verificación interactiva
Generación de trazabilidad RAG
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicio de modelo integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
ModelFactory actualmente admite modelos de lenguaje grande como LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, entre otros. Aunque no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, ha hecho una configuración de "prioridad práctica" basada en las restricciones reales de implementación en la cadena.
Model Factory como herramienta sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Aborda los problemas actuales de alto costo, baja reutilización y desperdicio de recursos GPU en el despliegue de modelos de IA, impulsando la ejecución de "IA pagable".
Los componentes centrales de la arquitectura del sistema OpenLoRA incluyen:
Módulo de almacenamiento LoRA Adapter
Alojamiento de modelos y capa de fusión dinámica
Motor de inferencia
Módulo de enrutamiento de solicitudes y salida en flujo
El proceso de inferencia de OpenLoRA incluye la carga del modelo base, la recuperación dinámica de LoRA, la activación de la fusión de adaptadores, la ejecución de la inferencia y la salida en flujo, el final de la inferencia y la liberación de recursos.
OpenLoRA mejora significativamente la eficiencia del despliegue y la inferencia de múltiples modelos a través de una serie de optimizaciones subyacentes. Su núcleo incluye la carga dinámica de adaptadores LoRA, paralelismo de tensores y atención paginada, fusión de múltiples modelos, atención Flash, núcleos CUDA precompilados y técnicas de cuantificación.
OpenLoRA no solo es un marco de inferencia LoRA eficiente, sino que también fusiona profundamente la inferencia de modelos con mecanismos de incentivos Web3, con el objetivo de convertir los modelos LoRA en activos Web3 que sean invocables, combinables y que generen beneficios. Ha logrado:
El modelo es un activo
Más fusión dinámica de LoRA + asignación de beneficios
Soporte para "inferencia compartida multiarrendatario" del modelo de cola larga
OpenLedger prevé que los indicadores de rendimiento futuros de OpenLoRA superen significativamente a los modelos de parámetros completos tradicionales, pero estos indicadores se acercan más al "rendimiento máximo" y deben ser considerados como "límite ideal" en lugar de "estabilidad diaria".
3.3 Datanets (redes de datos), de la soberanía de datos a la inteligencia de datos
Datanets es la infraestructura de OpenLedger para "datos como activos", utilizada para recopilar y gestionar conjuntos de datos en campos específicos. Cada Datanet es como un almacén de datos estructurado, donde los contribuyentes suben datos y se asegura la trazabilidad y confianza de los datos a través de un mecanismo de pertenencia en la cadena.
En comparación con los proyectos que se centran en la soberanía de los datos, OpenLedger extiende el valor de los datos a través de tres módulos: Datanets, Model Factory y OpenLoRA, construyendo un "circuito cerrado completo de datos a inteligencia". OpenLedger se centra en "cómo se entrenan, se llaman y se recompensan los datos", ocupando una posición clave en la ruta de monetización de datos dentro del ecosistema Web3 AI.
3.4 Prueba de Atribución(贡献证明):redefiniendo la capa de incentivos para la distribución de beneficios
Proof of Attribution (PoA) es el mecanismo central de OpenLedger para la atribución de datos y la distribución de incentivos. Su proceso de atribución de datos y de incentivos incluye:
Envío de datos
Evaluación de impacto
Validación de entrenamiento
Distribución de incentivos
Gobernanza de calidad
PoA no solo es una herramienta de distribución de incentivos, sino que también es un marco orientado a la transparencia, el seguimiento de fuentes y la pertenencia en múltiples etapas. Registra en cadena todo el proceso de carga de datos, invocación de modelos y ejecución de agentes, logrando un camino de valor verificable de extremo a extremo.
RAG Attribution es el mecanismo de atribución y incentivo de datos establecido por OpenLedger en el escenario RAG, que asegura que el contenido producido por el modelo sea trazable y verificable, y que los contribuyentes puedan ser incentivados. Su proceso incluye:
El usuario pregunta → Buscar datos
Los datos son llamados y generan respuestas
Los contribuyentes reciben recompensas
Generar resultados con referencia
La atribución RAG de OpenLedger permite que cada respuesta de IA sea rastreable hasta la fuente de datos real, y los contribuyentes reciben incentivos según la frecuencia de cita, logrando "conocimiento con origen, uso monetizable". Este mecanismo aumenta la transparencia de las salidas del modelo y construye un bucle de incentivos sostenible para la contribución de datos de alta calidad.
Cuatro, Progreso del Proyecto OpenLedger y Cooperación Ecológica
OpenLedger ha lanzado la red de prueba, la capa de inteligencia de datos es la primera fase, con el objetivo de construir un almacén de datos de Internet impulsado por nodos de la comunidad. Los miembros de la comunidad pueden ejecutar nodos de dispositivos de borde, participar en la recolección y procesamiento de datos, y obtener recompensas en puntos según su nivel de actividad y la finalización de tareas.
La red de pruebas ofrece tres tipos de mecanismos de ingresos:
Minería de datos
Validación de transacciones
Participación en la tarea
La red de prueba Epoch 2 lanzó el mecanismo de red de datos Datanets, limitado a usuarios en la lista blanca, abarcando tareas como la validación y clasificación de datos.
La planificación del roadmap a largo plazo de OpenLedger incluye:
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
7
Compartir
Comentar
0/400
StableGeniusDegen
· hace9h
¿De verdad se puede crear una economía de IA solo con L2?
Ver originalesResponder0
CAACTrainingInstitution
· hace10h
Es solo cuestión de tiempo que vuelva a 0.
Ver originalesResponder0
WalletInspector
· hace17h
¡Parece que tiene mucha Profundidad!
Ver originalesResponder0
PanicSeller
· hace17h
La potencia computacional va a tener un gran aumento.
Ver originalesResponder0
GasGuzzler
· hace17h
Ya ha llegado un nuevo concepto de Ser engañados.
Ver originalesResponder0
ChainDoctor
· hace17h
Hay algo. ¿Quién puede entender la IA mejor que yo?
OpenLedger construye una economía de agentes inteligentes impulsada por datos, integrando la arquitectura subyacente de OP Stack y EigenDA.
Informe de investigación profunda de OpenLedger: Construir una economía de agentes impulsada por datos y modelada de manera combinable sobre la base de OP Stack+EigenDA
I. Introducción | La transición de la capa de modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y son indispensables. El campo de Crypto AI ha seguido una trayectoria evolutiva similar a la de la industria de IA tradicional. A principios de 2024, el mercado está dominado por proyectos de GPU descentralizados, que enfatizan la lógica de crecimiento extensivo de "competir en potencia de cálculo". Después de 2025, el enfoque de la industria se desplazará gradualmente hacia la capa de modelos y datos, lo que marcará la transición de Crypto AI de la competencia por recursos de base a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas complejas, lo que genera costos elevados. Los modelos de lenguaje especializados (SLM), como un paradigma de ajuste fino ligero, construyen rápidamente modelos de dominio específico a partir de modelos de código abierto combinados con una pequeña cantidad de datos profesionales de alta calidad, lo que reduce significativamente los costos y las barreras de entrada.
SLM colabora y funciona con LLM a través de la arquitectura de agentes, el sistema de plugins, la conmutación en caliente de módulos LoRA, RAG, entre otros. Esta arquitectura conserva la amplia capacidad de LLM y, a través de módulos de ajuste fino, mejora el rendimiento profesional, formando un sistema inteligente modular y flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI tienen dificultad para mejorar directamente la capacidad central de LLM, y la razón es:
Sin embargo, el proyecto Crypto AI puede lograr la extensión de valor a través de la afinación del SLM, combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones:
Análisis de la clasificación de tipos de modelos de IA y la aplicabilidad de blockchain
Los puntos de enfoque viables para los proyectos de Crypto AI de tipo modelo se concentran principalmente en el ajuste fino SLM de pequeño tamaño, la integración y verificación de datos en cadena con arquitectura RAG, y el despliegue local de modelos Edge y su incentivación. Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, creando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar en la cadena la fuente de contribución de datos y modelos, mejorando la credibilidad y la trazabilidad. A través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas al invocarse, convirtiendo el comportamiento de la IA en un valor tokenizado, medible y comerciable. Los usuarios de la comunidad pueden votar con tokens para evaluar el rendimiento del modelo y participar en la formulación de reglas, perfeccionando así la estructura de gobernanza descentralizada.
II. Descripción del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es un proyecto de IA blockchain enfocado en mecanismos de incentivos de datos y modelos. Propone el concepto de "Payable AI", construyendo un entorno operativo de IA justo, transparente y combinable, incentivando a todas las partes a colaborar en la misma plataforma y obtener beneficios en la cadena.
OpenLedger ofrece un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", los módulos centrales incluyen:
OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA generales como NEAR, que son más de nivel base, OpenLedger se centra más en construir cadenas específicas de IA orientadas a datos y modelos incentivados, dedicándose a hacer que el desarrollo y la invocación de modelos logren un ciclo de valor que sea trazable, combinable y sostenible en la cadena. Es la infraestructura de incentivos para modelos en el mundo Web3, combinando el alojamiento de modelos, la facturación por uso y las interfaces combinables en la cadena, promoviendo el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura tecnológica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de LLM bajo el ecosistema de OpenLedger. Ofrece una operación completamente gráfica, sin necesidad de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos autorizados y revisados, logrando un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue. Los procesos clave incluyen:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicio de modelo integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
ModelFactory actualmente admite modelos de lenguaje grande como LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, entre otros. Aunque no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, ha hecho una configuración de "prioridad práctica" basada en las restricciones reales de implementación en la cadena.
Model Factory como herramienta sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Aborda los problemas actuales de alto costo, baja reutilización y desperdicio de recursos GPU en el despliegue de modelos de IA, impulsando la ejecución de "IA pagable".
Los componentes centrales de la arquitectura del sistema OpenLoRA incluyen:
El proceso de inferencia de OpenLoRA incluye la carga del modelo base, la recuperación dinámica de LoRA, la activación de la fusión de adaptadores, la ejecución de la inferencia y la salida en flujo, el final de la inferencia y la liberación de recursos.
OpenLoRA mejora significativamente la eficiencia del despliegue y la inferencia de múltiples modelos a través de una serie de optimizaciones subyacentes. Su núcleo incluye la carga dinámica de adaptadores LoRA, paralelismo de tensores y atención paginada, fusión de múltiples modelos, atención Flash, núcleos CUDA precompilados y técnicas de cuantificación.
OpenLoRA no solo es un marco de inferencia LoRA eficiente, sino que también fusiona profundamente la inferencia de modelos con mecanismos de incentivos Web3, con el objetivo de convertir los modelos LoRA en activos Web3 que sean invocables, combinables y que generen beneficios. Ha logrado:
OpenLedger prevé que los indicadores de rendimiento futuros de OpenLoRA superen significativamente a los modelos de parámetros completos tradicionales, pero estos indicadores se acercan más al "rendimiento máximo" y deben ser considerados como "límite ideal" en lugar de "estabilidad diaria".
3.3 Datanets (redes de datos), de la soberanía de datos a la inteligencia de datos
Datanets es la infraestructura de OpenLedger para "datos como activos", utilizada para recopilar y gestionar conjuntos de datos en campos específicos. Cada Datanet es como un almacén de datos estructurado, donde los contribuyentes suben datos y se asegura la trazabilidad y confianza de los datos a través de un mecanismo de pertenencia en la cadena.
En comparación con los proyectos que se centran en la soberanía de los datos, OpenLedger extiende el valor de los datos a través de tres módulos: Datanets, Model Factory y OpenLoRA, construyendo un "circuito cerrado completo de datos a inteligencia". OpenLedger se centra en "cómo se entrenan, se llaman y se recompensan los datos", ocupando una posición clave en la ruta de monetización de datos dentro del ecosistema Web3 AI.
3.4 Prueba de Atribución(贡献证明):redefiniendo la capa de incentivos para la distribución de beneficios
Proof of Attribution (PoA) es el mecanismo central de OpenLedger para la atribución de datos y la distribución de incentivos. Su proceso de atribución de datos y de incentivos incluye:
PoA no solo es una herramienta de distribución de incentivos, sino que también es un marco orientado a la transparencia, el seguimiento de fuentes y la pertenencia en múltiples etapas. Registra en cadena todo el proceso de carga de datos, invocación de modelos y ejecución de agentes, logrando un camino de valor verificable de extremo a extremo.
RAG Attribution es el mecanismo de atribución y incentivo de datos establecido por OpenLedger en el escenario RAG, que asegura que el contenido producido por el modelo sea trazable y verificable, y que los contribuyentes puedan ser incentivados. Su proceso incluye:
La atribución RAG de OpenLedger permite que cada respuesta de IA sea rastreable hasta la fuente de datos real, y los contribuyentes reciben incentivos según la frecuencia de cita, logrando "conocimiento con origen, uso monetizable". Este mecanismo aumenta la transparencia de las salidas del modelo y construye un bucle de incentivos sostenible para la contribución de datos de alta calidad.
Cuatro, Progreso del Proyecto OpenLedger y Cooperación Ecológica
OpenLedger ha lanzado la red de prueba, la capa de inteligencia de datos es la primera fase, con el objetivo de construir un almacén de datos de Internet impulsado por nodos de la comunidad. Los miembros de la comunidad pueden ejecutar nodos de dispositivos de borde, participar en la recolección y procesamiento de datos, y obtener recompensas en puntos según su nivel de actividad y la finalización de tareas.
La red de pruebas ofrece tres tipos de mecanismos de ingresos:
La red de prueba Epoch 2 lanzó el mecanismo de red de datos Datanets, limitado a usuarios en la lista blanca, abarcando tareas como la validación y clasificación de datos.
La planificación del roadmap a largo plazo de OpenLedger incluye: