OpenLedger: Construir un modelo de economía de agentes inteligentes combinables impulsado por datos

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), el motor (modelo) y la energía (potencia de cálculo), todos ellos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido trasladando gradualmente hacia las capas de modelo y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a la construcción de una capa media con más sostenibilidad y valor aplicado.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero de un modelo base reutilizable, que normalmente se basa en modelos de código abierto, combinando una pequeña cantidad de datos especializados de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos de dominio, reduciendo significativamente los costos de entrenamiento y las barreras tecnológicas.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de Agentes, el enrutamiento dinámico del sistema de plugins, la conectividad en caliente de módulos LoRA y RAG (Generación Aumentada por Recuperación). Esta arquitectura mantiene la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular de alta flexibilidad.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal radica en

  • La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundamental son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China poseen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos base como LLaMA y Mixtral están abiertos, la clave para impulsar los avances de los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en la capa del modelo central es limitado.

Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se manifiesta en dos direcciones clave:

  • Capa de verificación confiable: A través del registro en la cadena del camino de generación de modelos, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: Utilizando el Token nativo, para incentivar la carga de datos, la invocación de modelos, la ejecución de agentes (Agent), se construye un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain

Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la afinación ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la "capa de interfaz" de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invoca un dato o modelo, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo así un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del proyecto | La visión de la cadena de OpenLedger basada en IA

OpenLedger es uno de los pocos proyectos de IA en blockchain en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de operación de IA justo, transparente y combinable, incentivando a los contribuidores de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en la cadena según su contribución real.

OpenLedger ofrece un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y "llamada a la distribución de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: No se necesita programación, se puede utilizar LoRA para el ajuste fino del entrenamiento y el despliegue de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica según demanda, reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través de registros de llamadas en la cadena;
  • Datanets: Red de datos estructurados orientada a escenarios verticales, construida y verificada por colaboración comunitaria;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, invocable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelable, promoviendo la cadena de valor de la IA en la cadena.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila tecnológica de Optimism, admite una alta profundidad de ejecución y bajos costos.
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • EVM compatible: facilita a los desarrolladores implementar y expandir rápidamente con Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA más generales como NEAR, que se centran en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA especializadas orientadas a incentivos de datos y modelos, dedicándose a lograr que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos, la facturación por uso y interfaces combinables en la cadena, promoviendo el camino hacia la realización de "modelos como activos".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de fábrica, no se necesita código modelo de fábrica

ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz de operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo en función de los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyos procesos centrales incluyen:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de uso común (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: Herramienta de evaluación incorporada, que admite la exportación para despliegue o llamadas compartidas en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat que facilita la prueba directa de la capacidad de respuesta del modelo.
  • Generación de trazabilidad RAG: Respuestas con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino del modelo, implementación de evaluaciones y trazabilidad RAG, creando una plataforma de servicio de modelo integral que es segura y controlable, interactiva en tiempo real y sostenible para monetizar.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory actualmente admite:

  • LLaMA Serie: el ecosistema más amplio, comunidad activa, rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
  • Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuada para escenarios de implementación flexibles y con recursos limitados.
  • Qwen: Desempeño sobresaliente en tareas en chino, con habilidades integrales fuertes, adecuado como primera opción para desarrolladores nacionales.
  • ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente específica y escenarios de localización.
  • Deepseek: destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: Modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Antes fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda para uso en producción.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en una configuración "prioritaria en la práctica" hecha según las restricciones reales de implementación en la cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).

Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, garantizando los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos de modelo;
  • Para los usuarios: se pueden combinar modelos o Agentes como si se estuviera llamando a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método de ajuste fino de parámetros eficiente que aprende nuevas tareas al insertar «matrices de bajo rango» en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener miles de millones o incluso billones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino. La estrategia central de LoRA es: «congelar los parámetros del modelo grande original y solo entrenar la nueva matriz de parámetros insertada». Su eficiencia en parámetros, entrenamiento rápido y despliegue flexible la convierte en el método de ajuste fino más adecuado para el despliegue de modelos Web3 y llamadas combinadas.

OpenLoRA es un marco de inferencia ligero desarrollado por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la implementación de "IA Pagable" (Payable AI).

OpenLoRA arquitectura del sistema componentes centrales, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento de adaptadores LoRA (Almacenamiento de adaptadores LoRA): el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
  • Alojamiento de Modelos y Capa de Fusión Dinámica (Alojamiento de Modelos & Capa de Fusión de Adaptadores): todos los modelos ajustados comparten el modelo base (base model), durante la inferencia el adaptador LoRA es dinámico.
OP3.55%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
OffchainWinnervip
· hace14h
Este proyecto de IA de este año no está bien.
Ver originalesResponder0
GateUser-a606bf0cvip
· hace23h
¿Quién viene a introducir una posición? No lo entiendo muy bien. ¿Alguien que sepa podría explicar?
Ver originalesResponder0
GateUser-00be86fcvip
· hace23h
¿Hay una necesidad urgente de la inteligencia artificial?
Ver originalesResponder0
BearMarketBrovip
· hace23h
Veterano abuelo oso Cantante polvo solo mira Todo dentro
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)