Relatório de pesquisa AI Layer1: Encontrando a terra fértil para DeAI na cadeia
Visão Geral
Nos últimos anos, empresas de tecnologia como OpenAI, Anthropic, Google e Meta impulsionaram o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em várias indústrias, expandindo imensamente o espaço da imaginação humana e, em alguns cenários, até mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de ultrapassar, tornando difícil para a maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, com atenção insuficiente a questões centrais como proteção da privacidade, transparência e segurança. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará ainda mais proeminente. Os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram muitos aplicativos "Web3 AI" nas principais blockchains, como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam diversos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependendo de serviços de nuvem centralizados, e a natureza meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a necessitar de melhorias.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero de um ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando sustentar de forma eficiente o desenvolvimento e a prosperidade sustentável do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivo eficiente e consenso descentralizado
O núcleo do AI Layer 1 está em construir uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não só fornecendo poder de computação e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder de computação.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender à demanda por alta taxa de transferência, baixa latência e paralelismo elástico, e pré-definir a capacidade de suporte nativa para recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável
A AI Layer 1 não só deve prevenir a má conduta dos modelos, a manipulação de dados e outros riscos de segurança, mas também deve garantir, a partir dos mecanismos subjacentes, a verificabilidade e a alinhamento dos resultados da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, garantindo a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a esclarecer a lógica e a base das saídas da IA, alcançando "o que se obtém é o que se deseja" e aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários; nas áreas financeira, médica e social, a proteção da privacidade dos dados é particularmente crucial. O AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à infraestrutura ecológica
Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só precisa ter liderança técnica, mas também deve fornecer ferramentas de desenvolvimento abrangentes, SDKs integrados, suporte operacional e mecanismos de incentivo para participantes do ecossistema, como desenvolvedores, operadores de nós e provedores de serviços de IA. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicativos nativos de IA diversificados e enriquecedores, alcançando a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos desenvolvimentos da área, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 (, cuja fase inicial será Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, pretende construir uma economia descentralizada de inteligência artificial. Seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que modelos de IA realizem estruturas de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores e engenheiros em blockchain de todo o mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas de renome como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient chegou ao mercado desde o início com um grande prestígio, contando com abundantes recursos, conexões e reconhecimento de mercado, o que proporcionou um forte respaldo para o desenvolvimento do projeto. No meio de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Design de arquitetura e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
Curadoria de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de lucros e a governança justa. A arquitetura específica divide-se em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada de modelo controlada por contrato de autorização;
Camada de acesso: valida se o usuário está autorizado através de prova de autorização;
Camada de incentivo: o contrato de roteamento de lucros distribuirá o pagamento a cada chamada para os treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é a filosofia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo irá desencadear um fluxo de rendimento, o contrato na cadeia irá distribuir os rendimentos ao treinador, ao implementador e ao validador.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade do modelo de IA, a estrutura do manifold de baixa dimensão e as características de diferenciabilidade do modelo para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares de chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é retida através de um detector de terceiros (Prover) na forma de pergunta query;
Mecanismo de chamada de licença: antes da chamada, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Esta abordagem permite a "chamada autorizada baseada em comportamento + verificação de pertencimento" sem custos de recriptografia.
Modelo de atribuição de direitos e quadro de execução segura
A segurança mista atual adotada pela Sentient é Melange: combina verificação de identidade por impressão digital, execução TEE e contratos na cadeia para divisão de lucros. O método de impressão digital é implementado pela OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presume conformidade, e as violações podem ser detectadas e punidas.
O mecanismo de impressão digital é a implementação chave do OML, que permite a geração de assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "perguntas-respostas". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo o acesso e o uso não autorizados. Embora o TEE dependa de hardware e tenha algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, o Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
camada de aplicação
Atualmente, os produtos da Sentient incluem principalmente a plataforma de chat descentralizada Sentient Chat, a série de modelos open source Dobby e a estrutura de Agentes de IA.
Modelo da Série Dobby
SentientAGI lançou vários modelos da série "Dobby", baseados principalmente no modelo Llama, com foco em valores de liberdade, descentralização e apoio a criptomoedas. Dentre eles, a versão leashed tem um estilo mais restrito e racional.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
4
Partilhar
Comentar
0/400
MindsetExpander
· 6h atrás
Os gigantes da IA não estão a fazer nada de útil.
Ver originalResponder0
GasOptimizer
· 22h atrás
A compreensão de tirar o pelo. Ferramentas do mundo crypto. Se não experimentou a flutuação, não toque na moeda.
Camada AI Novo Era: Análise do Sentient e outros 6 grandes projetos para construir a infraestrutura DeAI
Relatório de pesquisa AI Layer1: Encontrando a terra fértil para DeAI na cadeia
Visão Geral
Nos últimos anos, empresas de tecnologia como OpenAI, Anthropic, Google e Meta impulsionaram o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em várias indústrias, expandindo imensamente o espaço da imaginação humana e, em alguns cenários, até mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de ultrapassar, tornando difícil para a maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, com atenção insuficiente a questões centrais como proteção da privacidade, transparência e segurança. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará ainda mais proeminente. Os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram muitos aplicativos "Web3 AI" nas principais blockchains, como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam diversos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependendo de serviços de nuvem centralizados, e a natureza meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a necessitar de melhorias.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero de um ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando sustentar de forma eficiente o desenvolvimento e a prosperidade sustentável do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 está em construir uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não só fornecendo poder de computação e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder de computação.
Excelente desempenho e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. O AI Layer 1 deve ser profundamente otimizado na arquitetura subjacente para atender à demanda por alta taxa de transferência, baixa latência e paralelismo elástico, e pré-definir a capacidade de suporte nativa para recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, alcançando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A AI Layer 1 não só deve prevenir a má conduta dos modelos, a manipulação de dados e outros riscos de segurança, mas também deve garantir, a partir dos mecanismos subjacentes, a verificabilidade e a alinhamento dos resultados da IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, garantindo a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a esclarecer a lógica e a base das saídas da IA, alcançando "o que se obtém é o que se deseja" e aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários; nas áreas financeira, médica e social, a proteção da privacidade dos dados é particularmente crucial. O AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Poderosa capacidade de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só precisa ter liderança técnica, mas também deve fornecer ferramentas de desenvolvimento abrangentes, SDKs integrados, suporte operacional e mecanismos de incentivo para participantes do ecossistema, como desenvolvedores, operadores de nós e provedores de serviços de IA. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicativos nativos de IA diversificados e enriquecedores, alcançando a prosperidade contínua do ecossistema de IA descentralizada.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos desenvolvimentos da área, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 (, cuja fase inicial será Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, pretende construir uma economia descentralizada de inteligência artificial. Seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que modelos de IA realizem estruturas de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores e engenheiros em blockchain de todo o mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas de renome como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como o projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient chegou ao mercado desde o início com um grande prestígio, contando com abundantes recursos, conexões e reconhecimento de mercado, o que proporcionou um forte respaldo para o desenvolvimento do projeto. No meio de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Design de arquitetura e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de lucros e a governança justa. A arquitetura específica divide-se em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é a filosofia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade do modelo de IA, a estrutura do manifold de baixa dimensão e as características de diferenciabilidade do modelo para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Esta abordagem permite a "chamada autorizada baseada em comportamento + verificação de pertencimento" sem custos de recriptografia.
Modelo de atribuição de direitos e quadro de execução segura
A segurança mista atual adotada pela Sentient é Melange: combina verificação de identidade por impressão digital, execução TEE e contratos na cadeia para divisão de lucros. O método de impressão digital é implementado pela OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presume conformidade, e as violações podem ser detectadas e punidas.
O mecanismo de impressão digital é a implementação chave do OML, que permite a geração de assinaturas únicas durante a fase de treinamento, incorporando pares específicos de "perguntas-respostas". Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo o acesso e o uso não autorizados. Embora o TEE dependa de hardware e tenha algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, o Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
camada de aplicação
Atualmente, os produtos da Sentient incluem principalmente a plataforma de chat descentralizada Sentient Chat, a série de modelos open source Dobby e a estrutura de Agentes de IA.
Modelo da Série Dobby
SentientAGI lançou vários modelos da série "Dobby", baseados principalmente no modelo Llama, com foco em valores de liberdade, descentralização e apoio a criptomoedas. Dentre eles, a versão leashed tem um estilo mais restrito e racional.