Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, sendo todos essenciais. O campo da Crypto AI passou por um caminho de evolução semelhante ao da indústria tradicional de IA. No início de 2024, o mercado é liderado por projetos de GPU descentralizados, enfatizando a lógica de crescimento extensivo de "competição de poder de cálculo". Após 2025, o foco da indústria se desloca gradualmente para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de meio mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas complexas, com custos elevados. Os modelos de linguagem especializados (SLM), como um paradigma de ajuste fino leve, baseiam-se em modelos de código aberto combinados com uma pequena quantidade de dados profissionais de alta qualidade, permitindo a construção rápida de modelos para domínios específicos, reduzindo significativamente custos e barreiras.
SLM colabora com LLM através de chamadas de arquitetura Agent, sistema de plugins, plug-and-play de módulos LoRA, RAG, entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente modular e flexível.
O valor e os limites da Crypto AI no nível do modelo
Os projetos de IA Crypto têm dificuldade em melhorar diretamente as capacidades centrais do LLM, devido a:
Barreiras tecnológicas muito altas: os recursos e capacidades necessários para treinar um Modelo Fundamental são extremamente grandes, apenas alguns gigantes da tecnologia possuem.
Limitações do ecossistema de código aberto: a verdadeira chave para impulsionar a quebra de modelos concentra-se em instituições de pesquisa e sistemas de engenharia de código fechado.
No entanto, os projetos de Crypto AI podem realizar a extensão de valor através do ajuste fino do SLM, combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções:
Camada de verificação confiável: aumenta a rastreabilidade e a resistência à adulteração das saídas de IA.
Mecanismo de incentivo: construir um ciclo positivo de treino de modelos e serviços.
Análise da aplicabilidade de tipos de modelos de IA e blockchain
Os pontos viáveis dos projetos de Crypto AI do tipo modelo concentram-se principalmente na afinação SLM de pequeno porte, na integração e validação de dados em cadeia da arquitetura RAG, e na implantação local e incentivo de modelos Edge. O Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar a origem das contribuições de dados e modelos na blockchain, aumentando a confiabilidade e a rastreabilidade. Através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada no momento da chamada, transformando o comportamento da IA em um valor tokenizado mensurável e negociável. Os usuários da comunidade podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação de regras e aperfeiçoar a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Rede AI da OpenLedger
OpenLedger é um projeto de blockchain AI focado em mecanismos de incentivo para dados e modelos. Propõe o conceito de "Payable AI", construindo um ambiente de execução de AI justo, transparente e combinável, incentivando todas as partes a colaborar na mesma plataforma e obter rendimentos em chain.
A OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamadas de compartilhamento de lucros", com os módulos principais incluindo:
Fábrica de Modelos: ajuste e treine modelos personalizados com base em LLM de código aberto sem necessidade de programação.
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduz significativamente os custos de implementação
PoA (Prova de Atribuição): implementar medição de contribuição e distribuição de recompensas
Datanets: Rede de dados estruturados voltada para cenários verticais
Plataforma de proposta de modelos: mercado de modelos on-chain que é combinável, chamável e pagável
OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na OP Stack: suporta alta profundidade e execução de baixas taxas.
Liquidação na rede principal Ethereum: garantir a segurança das transações e a integridade dos ativos
Compatível com EVM: facilita a rápida implementação e expansão para os desenvolvedores
EigenDA fornece suporte à disponibilidade de dados: reduzindo os custos de armazenamento e garantindo a verificabilidade dos dados.
Comparado a cadeias de IA genéricas de camada inferior como NEAR, a OpenLedger está mais focada em construir uma cadeia de IA dedicada à motivação de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos realizáveis na cadeia com um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de motivação de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, impulsionando o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de LLM dentro do ecossistema OpenLedger. Oferece uma interface gráfica puramente operacional, sem necessidade de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados autorizados e auditados, realizando um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação. Os processos principais incluem:
Controle de Acesso a Dados
Seleção e configuração do modelo
Ajuste leve
Avaliação e Desdobramento do Modelo
Interface de verificação interativa
Geração de RAG e rastreamento
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação, implantação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e monetização sustentável.
O ModelFactory atualmente suporta grandes modelos de linguagem, incluindo LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, entre outros. Embora não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, uma configuração de "prioridade prática" foi feita com base nas restrições reais de implantação em cadeia.
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens como baixo nível de entrada, capacidade de monetização e combinabilidade.
3.2 OpenLoRA, a assetização em cadeia de modelos de ajuste fino
LoRA é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em um modelo grande pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para implantação de múltiplos modelos e compartilhamento de recursos. Resolve problemas como altos custos, baixa reutilização e desperdício de recursos de GPU na implantação de modelos de IA atuais, promovendo a execução prática da "IA pagável".
Os componentes principais da arquitetura do sistema OpenLoRA incluem:
Módulo de Armazenamento LoRA Adapter
Hospedagem de Modelo e Camada de Fusão Dinâmica
Motor de inferência
Módulo de roteamento de solicitações e saída em fluxo
O processo de inferência do OpenLoRA inclui o carregamento do modelo base, a recuperação dinâmica do LoRA, a ativação de fusão do adaptador, a execução da inferência e a saída em fluxo, o término da inferência e a liberação de recursos.
OpenLoRA, através de uma série de otimizações subjacentes, melhorou significativamente a eficiência do deployment e da inferência de múltiplos modelos. Seu núcleo inclui carregamento dinâmico de adaptadores LoRA, paralelismo de tensores e Atenção Paginada, fusão de múltiplos modelos, Atenção Rápida, núcleos CUDA pré-compilados e técnicas de quantização.
OpenLoRA é uma estrutura de inferência LoRA eficiente que integra profundamente a inferência de modelos com um mecanismo de incentivo Web3, com o objetivo de transformar o modelo LoRA em um ativo Web3 que pode ser chamado, combinado e partilhado. Ele implementa:
Modelo é ativo
Várias fusões dinâmicas LoRA + Atribuição de lucro
Suporte a "inferência compartilhada multi-inquilino" para modelos de cauda longa
OpenLedger antecipa que o desempenho futuro do OpenLoRA será significativamente superior ao dos modelos de parâmetros completos tradicionais, mas esses indicadores estão mais próximos do "desempenho ideal", devendo ser vistos como "limite ideal" em vez de "estabilidade diária".
3.3 Datanets (redes de dados), da soberania de dados à inteligência de dados
Datanets é a infraestrutura de "dados são ativos" da OpenLedger, utilizada para coletar e gerenciar conjuntos de dados em áreas específicas. Cada Datanet é como um armazém de dados estruturado, onde os contribuidores fazem o upload dos dados e garantem a rastreabilidade e a confiabilidade dos dados através de um mecanismo de atribuição na cadeia.
Comparado a projetos que focam na soberania dos dados, a OpenLedger, através dos três módulos Datanets, Model Factory e OpenLoRA, estende o valor dos dados ao treinamento de modelos e chamadas em cadeia, construindo um ciclo completo de "dos dados à inteligência". A OpenLedger foca em "como os dados são treinados, chamados e recompensados", ocupando uma posição chave no caminho de monetização de dados no ecossistema Web3 AI.
3.4 Prova de Atribuição(贡献证明):redefinir a camada de incentivos para a distribuição de benefícios
Proof of Attribution (PoA) é o mecanismo central da OpenLedger para a realização da atribuição de dados e distribuição de incentivos. O processo de atribuição de dados e incentivos inclui:
Submissão de dados
Avaliação de impacto
Validação de treino
Distribuição de incentivos
Governança de Qualidade
PoA não é apenas uma ferramenta de distribuição de incentivos, mas sim uma estrutura voltada para a transparência, rastreamento de fontes e atribuição em múltiplas etapas. Ela registra em cadeia todo o processo de upload de dados, chamada de modelos e execução de agentes, permitindo um caminho de valor verificável de ponta a ponta.
RAG Attribution é o mecanismo de atribuição e incentivo de dados estabelecido pela OpenLedger no cenário RAG, garantindo que o conteúdo gerado pelo modelo seja rastreável, verificável e que os contribuintes possam ser incentivados. Seu processo inclui:
Usuário pergunta → Recuperar dados
Os dados são chamados e geram respostas
Os contribuintes recebem recompensas
Gerar resultados com referência
A Atribuição RAG da OpenLedger permite que cada resposta da IA seja rastreável até a fonte de dados real, com os contribuintes sendo incentivados de acordo com a frequência de citação, realizando "conhecimento com origem, uso monetizável". Este mecanismo aumenta a transparência das saídas do modelo e constrói um ciclo de incentivo sustentável para a contribuição de dados de alta qualidade.
Quatro, Progresso do Projeto OpenLedger e Colaboração Ecológica
OpenLedger já lançou a rede de testes, a camada de inteligência de dados é a primeira fase, com o objetivo de construir um armazém de dados da Internet impulsionado por nós da comunidade. Os membros da comunidade podem executar nós de dispositivos de borda, participar da coleta e processamento de dados, e ganhar pontos de recompensa com base na atividade e no cumprimento de tarefas.
A rede de testes oferece três tipos de mecanismos de rendimento:
Mineração de dados
Verificação de transações
Participação em tarefas
A rede de teste da Época 2 destacou o mecanismo de rede de dados Datanets, com participação limitada a usuários da lista branca, abrangendo tarefas de validação e classificação de dados.
O planejamento do roteiro a longo prazo da OpenLedger inclui:
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
11 gostos
Recompensa
11
7
Partilhar
Comentar
0/400
StableGeniusDegen
· 9h atrás
Deixa de ser exagerado, com L2 é que se consegue criar uma economia de IA?
Ver originalResponder0
CAACTrainingInstitution
· 10h atrás
É apenas uma questão de tempo até que a situação volte a zero.
Ver originalResponder0
WalletInspector
· 17h atrás
Parece ter muita profundidade!
Ver originalResponder0
PanicSeller
· 17h atrás
Poder de computação vai ter uma Grande subida novamente.
Ver originalResponder0
GasGuzzler
· 17h atrás
Outra nova ideia de fazer as pessoas de parvas chegou.
OpenLedger constrói uma economia de agentes inteligentes orientada por dados, integrando a stack OP com a arquitetura subjacente EigenDA.
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Uma, Introdução | A transição do modelo Crypto AI
Dados, modelos e poder de cálculo são os três elementos centrais da infraestrutura de IA, sendo todos essenciais. O campo da Crypto AI passou por um caminho de evolução semelhante ao da indústria tradicional de IA. No início de 2024, o mercado é liderado por projetos de GPU descentralizados, enfatizando a lógica de crescimento extensivo de "competição de poder de cálculo". Após 2025, o foco da indústria se desloca gradualmente para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de meio mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas complexas, com custos elevados. Os modelos de linguagem especializados (SLM), como um paradigma de ajuste fino leve, baseiam-se em modelos de código aberto combinados com uma pequena quantidade de dados profissionais de alta qualidade, permitindo a construção rápida de modelos para domínios específicos, reduzindo significativamente custos e barreiras.
SLM colabora com LLM através de chamadas de arquitetura Agent, sistema de plugins, plug-and-play de módulos LoRA, RAG, entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente modular e flexível.
O valor e os limites da Crypto AI no nível do modelo
Os projetos de IA Crypto têm dificuldade em melhorar diretamente as capacidades centrais do LLM, devido a:
No entanto, os projetos de Crypto AI podem realizar a extensão de valor através do ajuste fino do SLM, combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções:
Análise da aplicabilidade de tipos de modelos de IA e blockchain
Os pontos viáveis dos projetos de Crypto AI do tipo modelo concentram-se principalmente na afinação SLM de pequeno porte, na integração e validação de dados em cadeia da arquitetura RAG, e na implantação local e incentivo de modelos Edge. O Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar a origem das contribuições de dados e modelos na blockchain, aumentando a confiabilidade e a rastreabilidade. Através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada no momento da chamada, transformando o comportamento da IA em um valor tokenizado mensurável e negociável. Os usuários da comunidade podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação de regras e aperfeiçoar a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Rede AI da OpenLedger
OpenLedger é um projeto de blockchain AI focado em mecanismos de incentivo para dados e modelos. Propõe o conceito de "Payable AI", construindo um ambiente de execução de AI justo, transparente e combinável, incentivando todas as partes a colaborar na mesma plataforma e obter rendimentos em chain.
A OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamadas de compartilhamento de lucros", com os módulos principais incluindo:
OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas de camada inferior como NEAR, a OpenLedger está mais focada em construir uma cadeia de IA dedicada à motivação de dados e modelos, empenhando-se em tornar o desenvolvimento e a chamada de modelos realizáveis na cadeia com um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de motivação de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, impulsionando o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de LLM dentro do ecossistema OpenLedger. Oferece uma interface gráfica puramente operacional, sem necessidade de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados autorizados e auditados, realizando um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação. Os processos principais incluem:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação, implantação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e monetização sustentável.
O ModelFactory atualmente suporta grandes modelos de linguagem, incluindo LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, entre outros. Embora não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, uma configuração de "prioridade prática" foi feita com base nas restrições reais de implantação em cadeia.
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens como baixo nível de entrada, capacidade de monetização e combinabilidade.
3.2 OpenLoRA, a assetização em cadeia de modelos de ajuste fino
LoRA é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas através da inserção de "matrizes de baixa classificação" em um modelo grande pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para implantação de múltiplos modelos e compartilhamento de recursos. Resolve problemas como altos custos, baixa reutilização e desperdício de recursos de GPU na implantação de modelos de IA atuais, promovendo a execução prática da "IA pagável".
Os componentes principais da arquitetura do sistema OpenLoRA incluem:
O processo de inferência do OpenLoRA inclui o carregamento do modelo base, a recuperação dinâmica do LoRA, a ativação de fusão do adaptador, a execução da inferência e a saída em fluxo, o término da inferência e a liberação de recursos.
OpenLoRA, através de uma série de otimizações subjacentes, melhorou significativamente a eficiência do deployment e da inferência de múltiplos modelos. Seu núcleo inclui carregamento dinâmico de adaptadores LoRA, paralelismo de tensores e Atenção Paginada, fusão de múltiplos modelos, Atenção Rápida, núcleos CUDA pré-compilados e técnicas de quantização.
OpenLoRA é uma estrutura de inferência LoRA eficiente que integra profundamente a inferência de modelos com um mecanismo de incentivo Web3, com o objetivo de transformar o modelo LoRA em um ativo Web3 que pode ser chamado, combinado e partilhado. Ele implementa:
OpenLedger antecipa que o desempenho futuro do OpenLoRA será significativamente superior ao dos modelos de parâmetros completos tradicionais, mas esses indicadores estão mais próximos do "desempenho ideal", devendo ser vistos como "limite ideal" em vez de "estabilidade diária".
3.3 Datanets (redes de dados), da soberania de dados à inteligência de dados
Datanets é a infraestrutura de "dados são ativos" da OpenLedger, utilizada para coletar e gerenciar conjuntos de dados em áreas específicas. Cada Datanet é como um armazém de dados estruturado, onde os contribuidores fazem o upload dos dados e garantem a rastreabilidade e a confiabilidade dos dados através de um mecanismo de atribuição na cadeia.
Comparado a projetos que focam na soberania dos dados, a OpenLedger, através dos três módulos Datanets, Model Factory e OpenLoRA, estende o valor dos dados ao treinamento de modelos e chamadas em cadeia, construindo um ciclo completo de "dos dados à inteligência". A OpenLedger foca em "como os dados são treinados, chamados e recompensados", ocupando uma posição chave no caminho de monetização de dados no ecossistema Web3 AI.
3.4 Prova de Atribuição(贡献证明):redefinir a camada de incentivos para a distribuição de benefícios
Proof of Attribution (PoA) é o mecanismo central da OpenLedger para a realização da atribuição de dados e distribuição de incentivos. O processo de atribuição de dados e incentivos inclui:
PoA não é apenas uma ferramenta de distribuição de incentivos, mas sim uma estrutura voltada para a transparência, rastreamento de fontes e atribuição em múltiplas etapas. Ela registra em cadeia todo o processo de upload de dados, chamada de modelos e execução de agentes, permitindo um caminho de valor verificável de ponta a ponta.
RAG Attribution é o mecanismo de atribuição e incentivo de dados estabelecido pela OpenLedger no cenário RAG, garantindo que o conteúdo gerado pelo modelo seja rastreável, verificável e que os contribuintes possam ser incentivados. Seu processo inclui:
A Atribuição RAG da OpenLedger permite que cada resposta da IA seja rastreável até a fonte de dados real, com os contribuintes sendo incentivados de acordo com a frequência de citação, realizando "conhecimento com origem, uso monetizável". Este mecanismo aumenta a transparência das saídas do modelo e constrói um ciclo de incentivo sustentável para a contribuição de dados de alta qualidade.
Quatro, Progresso do Projeto OpenLedger e Colaboração Ecológica
OpenLedger já lançou a rede de testes, a camada de inteligência de dados é a primeira fase, com o objetivo de construir um armazém de dados da Internet impulsionado por nós da comunidade. Os membros da comunidade podem executar nós de dispositivos de borda, participar da coleta e processamento de dados, e ganhar pontos de recompensa com base na atividade e no cumprimento de tarefas.
A rede de testes oferece três tipos de mecanismos de rendimento:
A rede de teste da Época 2 destacou o mecanismo de rede de dados Datanets, com participação limitada a usuários da lista branca, abrangendo tarefas de validação e classificação de dados.
O planejamento do roteiro a longo prazo da OpenLedger inclui: