I. Introdução | A transição da camada de modelo do Crypto AI
Os dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo baseada em "poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros variando de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza um modelo base reutilizável, baseia-se geralmente em modelos de código aberto, combinando uma quantidade reduzida de dados especializados de alta qualidade e tecnologias como LoRA, permitindo a construção rápida de modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operado em colaboração com o LLM através da estrutura de Agente, roteamento dinâmico do sistema de plugins, hot-plug do módulo LoRA e RAG (Geração Aprimorada por Recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM e, ao mesmo tempo, melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
O projeto de IA Crypto, na sua essência, é difícil de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
Barreiras técnicas muito altas: a escala de dados, os recursos de computação e as capacidades de engenharia necessárias para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas gigantes da tecnologia como os EUA e a China possuem a capacidade correspondente.
Limitações do ecossistema de código aberto: Embora modelos básicos mainstream como LLaMA e Mixtral tenham sido open source, a verdadeira chave para o avanço dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, os projetos em blockchain têm espaço limitado de participação no nível do modelo central.
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" na cadeia da indústria de AI, isso se manifesta em duas direções principais:
Camada de verificação confiável: através do registo em cadeia do caminho de geração do modelo, contribuições de dados e uso, aumenta a rastreabilidade e a resistência à adulteração das saídas de IA.
Mecanismo de incentivo: Com a ajuda do Token nativo, utilizado para incentivar o upload de dados, a chamada de modelos, a execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treino e serviço de modelos.
Classificação de Tipos de Modelos de IA e Análise da Aplicabilidade da Blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de Crypto AI da classe modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implementação e incentivo local de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" de AI.
A cadeia de blocos de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, ao serem chamados dados ou modelos, a distribuição de recompensas é automaticamente acionada, convertendo o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos, participar da formulação e iteração de regras por meio de votação com tokens, aprimorando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos em cadeia com base nas suas contribuições reais.
OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até a "implantação de modelos" e "chamada de distribuição de lucros", cujos módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar LORA para ajuste fino e treinamento de modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
Datanets: redes de dados estruturados voltadas para cenários verticais, construídas e validadas pela colaboração da comunidade;
Plataforma de Proposta de Modelo (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes" baseada em dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na Profundidade OP: com base na pilha de tecnologia Optimism, suporta execução de alta taxa de transferência e baixos custos;
Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento rápido e a expansão com base em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Em comparação com blockchains de IA genéricos como NEAR, que são mais focados em camadas e enfatizam a soberania dos dados e a arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de blockchains de IA dedicados voltados para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em cadeia realizáveis de forma rastreável, combinável e sustentável. É a infraestrutura de incentivo para modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis em cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma operação totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Foi implementado um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados conectam-se automaticamente à interface de treinamento do modelo.
Seleção e configuração do modelo: Suporta LLMs mainstream (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
Ajuste leve: motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
Avaliação e implantação de modelos: Ferramentas de avaliação integradas, suporte para exportação de implantação ou chamada de compartilhamento de ecossistema.
Interface de validação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de questionamento e resposta do modelo.
Geração de rastreabilidade RAG: Responder com referências de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e sustentável para monetização.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Série LLaMA: com a ecologia mais ampla, comunidade ativa e desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
Mistral: arquitetura eficiente, desempenho de inferência excelente, adequado para cenários com flexibilidade de implantação e recursos limitados.
Qwen: Desempenho excelente em tarefas em chinês, capacidade abrangente, ideal para ser a primeira escolha de desenvolvedores nacionais.
ChatGLM: O efeito de conversa em chinês é destacado, sendo adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com estrutura clara, fácil de começar rapidamente e experimentar.
Falcon: Foi um marco de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisa de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioritária para a praticidade".
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo custo de entrada, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
Para os utilizadores: podem combinar modelos ou Agents da mesma forma que chamam uma API.
3.2 OpenLoRA, ativos on-chain do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para o desenvolvimento e compartilhamento de múltiplos modelos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução da "IA Pagável".
OpenLoRA arquitetura do sistema componentes centrais, com base em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de pedidos e outros pontos críticos, alcançando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo carregamento sob demanda, evitando a pré-carregamento de todos os modelos na memória, economizando recursos.
Alojamento de Modelos e Camada de Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados partilham a base do grande modelo (base model), durante a inferência o adaptador LoRA é dinâmico.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
6 Curtidas
Recompensa
6
4
Compartilhar
Comentário
0/400
OffchainWinner
· 7h atrás
Este projeto de IA não está a funcionar bem.
Ver originalResponder0
GateUser-a606bf0c
· 16h atrás
Quem vem entrar numa posição? Não entendo muito. Alguém que entenda poderia explicar?
OpenLedger: Construir um modelo de economia de agentes inteligentes combináveis baseado em dados
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Os dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Semelhante ao caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo baseada em "poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros variando de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza um modelo base reutilizável, baseia-se geralmente em modelos de código aberto, combinando uma quantidade reduzida de dados especializados de alta qualidade e tecnologias como LoRA, permitindo a construção rápida de modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras tecnológicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operado em colaboração com o LLM através da estrutura de Agente, roteamento dinâmico do sistema de plugins, hot-plug do módulo LoRA e RAG (Geração Aprimorada por Recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM e, ao mesmo tempo, melhora o desempenho profissional através de módulos de ajuste fino, formando um sistema inteligente combinatório altamente flexível.
O valor e os limites da Crypto AI na camada de modelo
O projeto de IA Crypto, na sua essência, é difícil de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" na cadeia da indústria de AI, isso se manifesta em duas direções principais:
Classificação de Tipos de Modelos de IA e Análise da Aplicabilidade da Blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de Crypto AI da classe modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implementação e incentivo local de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" de AI.
A cadeia de blocos de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, ao serem chamados dados ou modelos, a distribuição de recompensas é automaticamente acionada, convertendo o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos, participar da formulação e iteração de regras por meio de votação com tokens, aprimorando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos em cadeia com base nas suas contribuições reais.
OpenLedger oferece um ciclo completo que vai desde a "fornecimento de dados" até a "implantação de modelos" e "chamada de distribuição de lucros", cujos módulos principais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes" baseada em dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Em comparação com blockchains de IA genéricos como NEAR, que são mais focados em camadas e enfatizam a soberania dos dados e a arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de blockchains de IA dedicados voltados para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em cadeia realizáveis de forma rastreável, combinável e sustentável. É a infraestrutura de incentivo para modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis em cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma operação totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Foi implementado um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e sustentável para monetização.
A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioritária para a praticidade".
Model Factory, como uma cadeia de ferramentas sem código, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo custo de entrada, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, ativos on-chain do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para o desenvolvimento e compartilhamento de múltiplos modelos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução da "IA Pagável".
OpenLoRA arquitetura do sistema componentes centrais, com base em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de pedidos e outros pontos críticos, alcançando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: