AI e DePIN: O surgimento de redes de computação GPU descentralizadas
Desde 2023, a IA e o DePIN tornaram-se tendências populares no campo do Web3, com uma capitalização de mercado de 30 bilhões de dólares e 23 bilhões de dólares, respetivamente. Este artigo irá explorar a interseção entre os dois e investigar o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologias de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. O crescimento das grandes empresas de tecnologia levou à escassez de GPUs, dificultando a obtenção de GPUs suficientes para cálculos por parte de outros desenvolvedores. Isso geralmente força os desenvolvedores a escolher provedores de serviços em nuvem centralizados, mas devido à necessidade de assinar contratos de hardware de alto desempenho a longo prazo e inflexíveis, a eficiência é baixa.
DePIN oferece uma alternativa mais flexível e económica, através de incentivos em tokens para a contribuição de recursos. As redes DePIN no campo da IA integram recursos de GPU de proprietários individuais em um fornecimento unificado, prestando serviços a utilizadores que necessitam de hardware. Isso não só oferece aos desenvolvedores personalização e acesso sob demanda, mas também gera uma receita adicional para os proprietários de GPU.
Visão Geral da Rede DePIN de IA
Cada projeto tem como objetivo construir uma rede de mercado de computação GPU. Abaixo, serão apresentadas as características de cada projeto, os pontos focais do mercado e as conquistas.
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado na renderização gráfica para criação de conteúdo, e depois expandiu para tarefas de computação de IA.
Características:
Fundada pela empresa de gráficos em nuvem OTOY
Grandes empresas do setor de entretenimento como a Paramount Pictures e a PUBG utilizam sua rede de GPU
Colaboração com a Stability AI e a Endeavor para integrar modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
Aprovar múltiplos clientes de cálculo, integrar mais GPUs da rede DePIN
Akash é posicionado como uma alternativa "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, o software pode ser implantado de forma contínua em diferentes ambientes.
Características:
Voltado para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na web
AkashML suporta mais de 15.000 modelos em Hugging Face
Chatbots com modelos LLM da Mistral AI, como o SDXL da Stability AI, entre outros aplicativos
Suporte para plataformas de Metaverso, IA e Aprendizagem Federada
io.net oferece um cluster de GPU em nuvem distribuído, especificamente para casos de uso de IA e ML. Integra recursos de GPU de centros de dados, mineradores de criptomoedas e outros campos.
Características:
IO-SDK é compatível com frameworks como PyTorch e Tensorflow, podendo escalar automaticamente de acordo com as necessidades de computação.
Suporte para criar 3 tipos diferentes de clusters, que podem ser iniciados em 2 minutos
Colaboração com Render, Filecoin, Aethir e integração de recursos GPU
Gensyn fornece capacidade de computação GPU focada em aprendizagem de máquina e aprendizagem profunda. Usa tecnologias como prova de aprendizagem, protocolo de localização precisa baseado em gráficos, entre outras, para melhorar a eficiência de validação.
Características:
O custo por hora de uma GPU equivalente a V100 é de aproximadamente 0,40 dólares, o que representa uma economia significativa.
Suporte para ajuste fino de modelos básicos pré-treinados
Planeja fornecer modelos básicos descentralizados e de propriedade global.
Aethir foca em áreas computacionais intensivas como IA, ML e jogos na nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicações na nuvem, proporcionando uma experiência com baixa latência.
Características:
Expansão para serviços de telefone em nuvem, com a colaboração da APhone para lançar um smartphone inteligente em nuvem de Descentralização
Estabelecer parcerias com grandes empresas como NVIDIA, Super Micro e HPE
Colaborar com vários projetos Web3, como CARV, Magic Eden
Phala Network como a camada de execução de soluções Web3 AI. Através de ambientes de execução confiáveis (TEE), projeta-se para lidar com questões de privacidade, suportando agentes de IA controlados por contratos inteligentes na blockchain.
Características:
Como protocolo de coprocessador para computação verificável, suporta recursos de agentes de IA na blockchain.
Os contratos de agência de IA podem ser obtidos através da Redpill, com os principais modelos de linguagem como OpenAI, Llama, entre outros.
O futuro incluirá sistemas de provas múltiplas, como zk-proofs, computação multipartidária e criptografia homomórfica completa.
Planejamento para suportar H100 e outras GPU TEE, aumentando a capacidade de computação
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Cadeia |
| Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução |
| Preço de trabalho | Preço baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de dados | Criptografia&Hash | Autenticação mTLS | Criptografia de dados | Mapeamento seguro | Criptografia | TEE |
| Custo de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao valor em stake |
| Seguro | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia de Intermediação |
| Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE |
| Garantia de qualidade | Controvérsia | - | - | Verificador e denunciante | Nó de verificação | Prova remota |
| GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
O framework de computação distribuída implementa um cluster de GPU, proporcionando um treinamento mais eficiente e escalabilidade. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependendo de computação distribuída. A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net já implantou com sucesso mais de 3.800 clusters. Embora o Render não suporte clusters, ele decompõe uma única tarefa para ser processada simultaneamente em vários nós. O Phala suporta a clusterização de trabalhadores CPU.
Privacidade de Dados
O desenvolvimento de modelos de IA requer o uso de grandes conjuntos de dados, podendo haver risco de exposição de dados sensíveis. A maioria dos projetos adota alguma forma de criptografia de dados para proteger a privacidade. A io.net, em parceria com a Mind Network, lançou a criptografia totalmente homomórfica (FHE), permitindo o processamento de dados em estado criptografado. A Phala Network introduziu um ambiente de execução confiável (TEE), para evitar que processos externos acessem ou modifiquem os dados.
Cálculo de prova de conclusão e verificação de qualidade
Gensyn e Aethir geram provas após a conclusão do cálculo, e as provas da io.net indicam que o desempenho da GPU alugada é devidamente utilizado. Gensyn e Aethir realizam verificações de qualidade nos cálculos concluídos. A Render sugere o uso de um processo de resolução de disputas. A Phala gera provas TEE após a conclusão, garantindo que o agente de IA execute as operações necessárias.
O treinamento de modelos de IA requer GPUs com desempenho ideal, como a A100 e a H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-a a GPU preferida. Os fornecedores de mercado de GPU descentralizada precisam atender à demanda real do mercado e oferecer preços mais baixos. A io.net e a Aethir adquiriram mais de 2000 unidades de H100/A100, sendo mais adequadas para cálculos de grandes modelos.
Embora o cluster de GPU conectado à rede tenha um custo mais baixo, a memória é limitada. As GPUs conectadas por NVLink são as mais adequadas para LLM com muitos parâmetros e grandes conjuntos de dados, pois necessitam de alto desempenho e cálculos intensivos. A rede de GPU Descentralização ainda pode fornecer uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, oferecendo oportunidades para construir mais casos de uso de IA e ML.
fornece GPU/CPU de nível de consumo
A CPU também desempenha um papel importante no treinamento de modelos de IA, podendo ser usada para pré-processamento de dados e gestão de recursos de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou para treinamento em pequena escala. Projetos como Render, Akash e io.net também atendem a este mercado, desenvolvendo seus próprios nichos.
Conclusão
O campo de DePIN de IA ainda é relativamente emergente e enfrenta desafios. No entanto, o número de tarefas executadas e de hardware nessas redes aumentou significativamente, destacando a demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. No futuro, espera-se que o mercado de inteligência artificial floresça, e essas redes de GPU descentralizadas desempenharão um papel fundamental em fornecer soluções de computação econômicas para os desenvolvedores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
6
Compartilhar
Comentário
0/400
WenMoon
· 20h atrás
Na fila para GPUs, entendi, entendi.
Ver originalResponder0
SilentObserver
· 07-28 17:52
GPU direto a cair麻了?
Ver originalResponder0
ForeverBuyingDips
· 07-28 17:45
gpu vai Até à lua?
Ver originalResponder0
BearMarketSunriser
· 07-28 17:43
Outra vez a contar histórias para enganar idiotas a entrar numa posição.
Ver originalResponder0
WhaleMinion
· 07-28 17:32
GPU subir muito rápido, investidores de retalho realmente está difícil.
Ver originalResponder0
StablecoinArbitrageur
· 07-28 17:23
hmm *ajusta os óculos* olhando para a base de custo por unidade de computação... a depin poderia realmente gerar retornos ajustados ao risco melhores do que os provedores centralizados, para ser sincero.
Integração de AI e DePIN: A ascensão e desenvolvimento de redes de computação GPU descentralizadas
AI e DePIN: O surgimento de redes de computação GPU descentralizadas
Desde 2023, a IA e o DePIN tornaram-se tendências populares no campo do Web3, com uma capitalização de mercado de 30 bilhões de dólares e 23 bilhões de dólares, respetivamente. Este artigo irá explorar a interseção entre os dois e investigar o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologias de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. O crescimento das grandes empresas de tecnologia levou à escassez de GPUs, dificultando a obtenção de GPUs suficientes para cálculos por parte de outros desenvolvedores. Isso geralmente força os desenvolvedores a escolher provedores de serviços em nuvem centralizados, mas devido à necessidade de assinar contratos de hardware de alto desempenho a longo prazo e inflexíveis, a eficiência é baixa.
DePIN oferece uma alternativa mais flexível e económica, através de incentivos em tokens para a contribuição de recursos. As redes DePIN no campo da IA integram recursos de GPU de proprietários individuais em um fornecimento unificado, prestando serviços a utilizadores que necessitam de hardware. Isso não só oferece aos desenvolvedores personalização e acesso sob demanda, mas também gera uma receita adicional para os proprietários de GPU.
Visão Geral da Rede DePIN de IA
Cada projeto tem como objetivo construir uma rede de mercado de computação GPU. Abaixo, serão apresentadas as características de cada projeto, os pontos focais do mercado e as conquistas.
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado na renderização gráfica para criação de conteúdo, e depois expandiu para tarefas de computação de IA.
Características:
Akash é posicionado como uma alternativa "super nuvem" que suporta armazenamento, computação GPU e CPU. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, o software pode ser implantado de forma contínua em diferentes ambientes.
Características:
io.net oferece um cluster de GPU em nuvem distribuído, especificamente para casos de uso de IA e ML. Integra recursos de GPU de centros de dados, mineradores de criptomoedas e outros campos.
Características:
Gensyn fornece capacidade de computação GPU focada em aprendizagem de máquina e aprendizagem profunda. Usa tecnologias como prova de aprendizagem, protocolo de localização precisa baseado em gráficos, entre outras, para melhorar a eficiência de validação.
Características:
Aethir foca em áreas computacionais intensivas como IA, ML e jogos na nuvem. Os contêineres na sua rede atuam como pontos finais virtuais para a execução de aplicações na nuvem, proporcionando uma experiência com baixa latência.
Características:
Phala Network como a camada de execução de soluções Web3 AI. Através de ambientes de execução confiáveis (TEE), projeta-se para lidar com questões de privacidade, suportando agentes de IA controlados por contratos inteligentes na blockchain.
Características:
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA na Cadeia | | Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço de trabalho | Preço baseado em desempenho | Leilão reverso | Preço de mercado | Preço de mercado | Sistema de licitação | Cálculo de direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de dados | Criptografia&Hash | Autenticação mTLS | Criptografia de dados | Mapeamento seguro | Criptografia | TEE | | Custo de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Taxas baixas | 20% por sessão | Proporcional ao valor em stake | | Seguro | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia de Intermediação | | Prova de Conclusão | - | - | Prova de Bloqueio de Tempo | Prova de Aprendizagem | Prova de Trabalho de Renderização | Prova TEE | | Garantia de qualidade | Controvérsia | - | - | Verificador e denunciante | Nó de verificação | Prova remota | | GPU Cluster | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de clusters e computação paralela
O framework de computação distribuída implementa um cluster de GPU, proporcionando um treinamento mais eficiente e escalabilidade. Treinar modelos de IA complexos requer uma poderosa capacidade de computação, geralmente dependendo de computação distribuída. A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net já implantou com sucesso mais de 3.800 clusters. Embora o Render não suporte clusters, ele decompõe uma única tarefa para ser processada simultaneamente em vários nós. O Phala suporta a clusterização de trabalhadores CPU.
Privacidade de Dados
O desenvolvimento de modelos de IA requer o uso de grandes conjuntos de dados, podendo haver risco de exposição de dados sensíveis. A maioria dos projetos adota alguma forma de criptografia de dados para proteger a privacidade. A io.net, em parceria com a Mind Network, lançou a criptografia totalmente homomórfica (FHE), permitindo o processamento de dados em estado criptografado. A Phala Network introduziu um ambiente de execução confiável (TEE), para evitar que processos externos acessem ou modifiquem os dados.
Cálculo de prova de conclusão e verificação de qualidade
Gensyn e Aethir geram provas após a conclusão do cálculo, e as provas da io.net indicam que o desempenho da GPU alugada é devidamente utilizado. Gensyn e Aethir realizam verificações de qualidade nos cálculos concluídos. A Render sugere o uso de um processo de resolução de disputas. A Phala gera provas TEE após a conclusão, garantindo que o agente de IA execute as operações necessárias.
Estatísticas de Hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100 Quantidade | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( estimado ) | $0.33 ( estimado ) | - |
Requisitos de GPU de alto desempenho
O treinamento de modelos de IA requer GPUs com desempenho ideal, como a A100 e a H100 da Nvidia. O desempenho de inferência da H100 é 4 vezes mais rápido que o da A100, tornando-a a GPU preferida. Os fornecedores de mercado de GPU descentralizada precisam atender à demanda real do mercado e oferecer preços mais baixos. A io.net e a Aethir adquiriram mais de 2000 unidades de H100/A100, sendo mais adequadas para cálculos de grandes modelos.
Embora o cluster de GPU conectado à rede tenha um custo mais baixo, a memória é limitada. As GPUs conectadas por NVLink são as mais adequadas para LLM com muitos parâmetros e grandes conjuntos de dados, pois necessitam de alto desempenho e cálculos intensivos. A rede de GPU Descentralização ainda pode fornecer uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, oferecendo oportunidades para construir mais casos de uso de IA e ML.
fornece GPU/CPU de nível de consumo
A CPU também desempenha um papel importante no treinamento de modelos de IA, podendo ser usada para pré-processamento de dados e gestão de recursos de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou para treinamento em pequena escala. Projetos como Render, Akash e io.net também atendem a este mercado, desenvolvendo seus próprios nichos.
Conclusão
O campo de DePIN de IA ainda é relativamente emergente e enfrenta desafios. No entanto, o número de tarefas executadas e de hardware nessas redes aumentou significativamente, destacando a demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. No futuro, espera-se que o mercado de inteligência artificial floresça, e essas redes de GPU descentralizadas desempenharão um papel fundamental em fornecer soluções de computação econômicas para os desenvolvedores.