# AIとDePINの交差点:分散型GPUネットワークの台頭2023年以降、AIとDePINはWeb3分野の注目トレンドとなり、両者の時価総額はそれぞれ300億ドルと230億ドルに達しました。本稿では、両者の交差分野に焦点を当て、関連プロトコルの発展について探ります。AI技術スタックにおいて、DePINネットワークは計算資源を通じてAIに実用性を提供します。大手テクノロジー企業によるGPUの不足は、他の開発者が計算に十分なGPUを持たない原因となっています。これにより、開発者は分散化されたクラウドプロバイダーを選択せざるを得なくなることが多いですが、柔軟性のない長期の高性能ハードウェア契約に署名する必要があるため、効率が悪くなります。DePINは本質的に、ネットワークの目標に合ったリソース貢献を奨励するためにトークン報酬を使用し、より柔軟でコスト効率の良い代替案を提供します。AI分野のDePINは、個人所有者からデータセンターにGPUリソースをクラウドソーシングし、ハードウェアにアクセスする必要があるユーザーのために統一された供給を形成します。これらのDePINネットワークは、計算能力を必要とする開発者にカスタマイズ性とオンデマンドアクセスを提供するだけでなく、GPU所有者に追加の収入も提供します。市場にある多くのAI DePINネットワークの中で、それらの違いを識別し、必要な正しいネットワークを見つけることは容易ではありません。以下では、各プロトコルの役割、目標、および実現されたハイライトについて探ります。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-112d1efea526039e305cc846f2ca3c50)# AI DePINネットワークの概要各プロジェクトは類似の目的を持っています - GPU計算市場ネットワーク。本節では、各プロジェクトのハイライト、市場の重点及び成果を調査し、重要なインフラストラクチャ及び製品を理解することで、彼らの違いを深く探ります。**Render**はGPU計算能力を提供するP2Pネットワークの先駆者であり、以前はコンテンツ制作のグラフィックレンダリングに特化していましたが、Stable Diffusionなどのツールを統合することで、神経放射場(NeRF)を含む生成AIの計算タスクに拡張されました。ハイライト:1. オスカー賞を受賞した技術を持つクラウドグラフィックス会社OTOYによって設立されました2. GPUネットワークはパラマウント・ピクチャーズ、PUBG、スタートレックなどのエンターテインメント大手に使用されています3. Stability AIとEndeavorと協力し、RenderのGPUを利用してAIモデルと3Dコンテンツレンダリングワークフローを統合する4. 複数の計算クライアントを承認し、より多くのDePINネットワークのGPUを統合する**Akash**は"ホスティング版Airbnb"を自称し、ストレージ、GPU、CPU計算をサポートする従来のプラットフォーム(としてAWS)の"スーパークラウド"の代替品として位置づけられています。AkashコンテナプラットフォームとKubernetes管理の計算ノードなどの開発者フレンドリーなツールを利用することで、環境を超えてシームレスにソフトウェアをデプロイし、あらゆるクラウドネイティブアプリケーションを実行できます。ハイライト:1. 汎用計算からネットホスティングに至る幅広い計算タスク2. AkashMLは、Hugging Face上で15,000を超えるモデルを実行するGPUネットワークを許可し、Hugging Faceと統合しています。3. Akash上でMistral AIのLLMモデルチャットボット、Stability AIのSDXLテキストから画像へのモデル、およびThumper AIの新しい基盤モデルAT-1などのアプリケーションをホスティングします。4. メタバース、AI展開、連邦学習のプラットフォームはSupercloudを利用しています**io.net**は、AIおよびMLのユースケース向けに特化した分散型GPUクラウドクラスターへのアクセスを提供します。データセンター、暗号マイナー、その他の分散化ネットワークのGPUを統合しています。同社は以前は量子取引会社であり、高性能GPUの価格が大幅に上昇した後、現在のビジネスに転向しました。ハイライト:1. IO-SDKはPyTorchやTensorflowなどのフレームワークと互換性があり、マルチレイヤーアーキテクチャは計算要件に応じて自動的に動的に拡張できます。2. 3種類の異なるタイプのクラスタを作成することをサポートしており、2分以内に起動できます。3. 強力な協力により、他のDePINネットワークのGPUを統合します。これにはRender、Filecoin、Aethir、Exabitsが含まれます。**Gensyn**は、機械学習と深層学習計算に特化したGPU計算能力を提供します。学習証明、グラフィックベースの正確な位置決めプロトコル、計算提供者のステーキングとカットを含むTruebitスタイルのインセンティブゲームなどの概念を組み合わせることで、既存の方法よりも効率的な検証メカニズムを実現すると主張しています。ハイライト:1. V100相当のGPUの1時間あたりのコストは約0.40ドルと予想されており、大幅にコストを節約できます。2. プルーフスタッキングを通じて、事前学習されたベースモデルを微調整し、より具体的なタスクを完了することができます。3. これらの基本モデルは分散化され、世界中で所有され、ハードウェア計算ネットワークに加えて追加機能を提供します。**Aethir**は企業向けGPUを専用に搭載し、計算集約型分野、主にAI、機械学習(ML)、クラウドゲームなどに焦点を当てています。ネットワーク内のコンテナは、クラウドアプリケーションに基づく仮想エンドポイントとして機能し、ワークロードをローカルデバイスからコンテナに移動させ、低遅延の体験を実現します。高品質なサービスを確保するために、需要と位置に応じてGPUをデータソースに近づけ、リソースを調整します。ハイライト:1. AIとクラウドゲームを除いて、Aethirはクラウドフォンサービスにも拡大し、APhoneと協力して分散化クラウドスマートフォンを発売しました。2. NVIDIA、Super Micro、HPE、Foxconn、Well Linkなどの大手Web2企業との広範な協力関係を確立する3. CARV、Magic Eden、Sequence、Impossible Financeなど、Web3の複数のパートナー**Phala Network**はWeb3 AIソリューションの実行層として機能します。そのブロックチェーンは信頼不要のクラウドコンピューティングソリューションであり、信頼できる実行環境(TEE)を通じてプライバシーの問題を処理するように設計されています。実行層はAIモデルの計算層として使用されるのではなく、AIエージェントがオンチェーンのスマートコントラクトによって制御されることを可能にします。ハイライト:1. 検証可能な計算のコプロセッサプロトコルとして機能し、AIエージェントがオンチェーンリソースを利用できるようにします。2. AIプロキシコントラクトは、Redpillを通じてOpenAI、Llama、Claude、Hugging Faceなどの上位の大規模言語モデルを取得できます3. 未来はzk-proofs、マルチパーティ計算(MPC)、完全同型暗号(FHE)などの多重証明システムを含むことになります。4. 将来、H100などの他のTEE GPUをサポートし、計算能力を向上させる! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-68a395d50be4ab07fbc575dd54441164)# プロジェクト比較| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ ||--------|-------------|------------------|---------------------|---------|---------------|----------|| ハードウェア | GPU \& CPU | GPU \& CPU | GPU \& CPU | GPUの| GPUの| CPU || 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコミュニケーション | チェーン上のAI実行 || AI タスクの種類 | 推論 | 両方 | 両方 | トレーニング | トレーニング | 実行 || 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 || ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット || データプライバシー | 暗号化\&分散化 | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE || 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 || セキュリティ | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | 中継チェーンから継承 || 完了証明書 | - | - | タイムロックプルーフ | プルーフ・オブ・スタディ | レンダリング・プルーフ・オブ・ワーク | TEEプルーフ || 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 || GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |## 重要性**クラスターと並列計算の可用性**分散化計算フレームワークはGPUクラスターを実現し、モデルの正確性に影響を与えずにより効率的なトレーニングを提供し、同時に拡張性を強化します。より複雑なAIモデルをトレーニングするには強力な計算能力が必要であり、通常は分散化計算に依存して要求を満たさなければなりません。直感的に見ると、OpenAIのGPT-4モデルは超1.8兆パラメータを持ち、3-4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。これまで、RenderとAkashは単一用途のGPUのみを提供しており、GPUの市場需要が制限される可能性があります。しかし、大多数の重点プロジェクトは現在、クラスタを統合して並列計算を実現しています。io.netはRender、Filecoin、Aethirなどと協力して、ネットワークにより多くのGPUを組み込み、24年第1四半期に3,800以上のクラスタを展開することに成功しました。Renderはクラスタをサポートしていませんが、動作原理はクラスタと似ており、単一のフレームを複数の異なるノードに分解し、異なる範囲のフレームを同時に処理します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーのクラスタ化を許可しています。AIワークフローネットワークにクラスターフレームワークを組み込むことは非常に重要ですが、AI開発者のニーズを満たすために必要なクラスタGPUの数と種類は別の問題であり、後で議論します。**データプライバシー**AIモデルを開発するには大量のデータセットを使用する必要があり、さまざまなソースから、形式も異なります。個人医療記録やユーザーの財務データなどのセンシティブなデータセットは、モデルプロバイダーに露出するリスクにさらされる可能性があります。サムスンは、センシティブなコードがプラットフォームにアップロードされることでプライバシーが侵害されることを懸念し、内部でChatGPTを無効にしました。マイクロソフトの38TBのプライベートデータ漏洩事件は、AIを使用する際に十分なセキュリティ対策を講じる重要性をさらに浮き彫りにしています。したがって、さまざまなデータプライバシー手法を持つことは、データの制御権をデータ提供者に返還するために重要です。ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。データ暗号化は、ネットワーク内でデータ提供者からモデル提供者(データ受信者)へのデータ転送が保護されることを保証します。Renderは、レンダリング結果をネットワークに戻す際に暗号化とハッシュ処理を使用し、io.netとGensynは何らかの形式のデータ暗号化を採用しています。AkashはmTLS認証を使用し、テナントが選択したプロバイダーのみがデータを受信できるようにしています。しかし、io.netは最近Mind Networkと協力して完全同態暗号(FHE)を導入しました。これにより、データを事前に復号化することなく暗号化されたデータを処理できるようになります。この革新により、データのプライバシーをより良く確保でき、身元やデータ内容を漏らすことなくトレーニング目的で安全にデータを転送できるようになります。Phala NetworkはTEEを導入しています。これは、接続されたデバイスの主処理装置内の安全な領域です。この隔離メカニズムにより、外部プロセスがデータにアクセスまたは変更することを防ぎます。これには、権限レベルに関係なく、物理的に機械にアクセスできる個人も含まれます。TEEに加えて、zkDCAPバリデーターおよびjteeコマンドラインインターフェースでは、RiscZero zkVMと統合されたプログラムのためにzk-proofsを組み合わせて使用します。! [AIとDePINの交差点](https://img-cdn.gateio.im/social/moments-8f83f1affbdfd92f33bc47afe8928c5c)## 完了証明と品質チェックの計算これらのプロジェクトが提供するGPUは、一連のサービスに計算能力を提供します。サービスの範囲が広いため、グラフィックスのレンダリングからAI計算まで、このようなタスクの最終的な品質が常にユーザーの基準に合致するとは限りません。完了証明を使用して、ユーザーがレンタルした特定のGPUが実際に必要なサービスを実行するために使用されたことを示すことができ、品質チェックはこのような作業を依頼するユーザーにとって有益です。計算が完了すると、GensynとAethirは、作業が完了したことを示す証明を生成し、io.netの証明は、GPUのレンタル性能が十分に活用されていることを示します。GensynとAethirは、完了した計算に対して品質チェックを行います。Gensynでは、検証者が生成証明の一部を再実行して証明と照合し、告発者が検証者に対する別のチェックの役割を果たします。同時に、Aethirはチェックノードを使用してサービスの質を確認し、基準を下回るサービスに対して罰則を科します。Renderは、紛争解決プロセスを使用することを提案しており、審査委員会がノードに問題があると判断した場合、そのノードを削減します。Phalaは完了後にTEE証明を生成し、AIエージェントがチェーン上で必要な操作を実行することを保証します。# ハードウェア統計データ| | レンダー | アカシュ | io.net | ゲンシン | エイサー | ファラ ||-------------|--------|-------|--------|------------|------------|--------|| GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - || CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100個 | - | 157 | 2330 | - | 2000+ | - || H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - || A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |! [AIとDePINの出会いの場](https://
AIによるDePINの強化:分散化されたGPUネットワークの台頭と主流プロジェクトの比較分析
AIとDePINの交差点:分散型GPUネットワークの台頭
2023年以降、AIとDePINはWeb3分野の注目トレンドとなり、両者の時価総額はそれぞれ300億ドルと230億ドルに達しました。本稿では、両者の交差分野に焦点を当て、関連プロトコルの発展について探ります。
AI技術スタックにおいて、DePINネットワークは計算資源を通じてAIに実用性を提供します。大手テクノロジー企業によるGPUの不足は、他の開発者が計算に十分なGPUを持たない原因となっています。これにより、開発者は分散化されたクラウドプロバイダーを選択せざるを得なくなることが多いですが、柔軟性のない長期の高性能ハードウェア契約に署名する必要があるため、効率が悪くなります。
DePINは本質的に、ネットワークの目標に合ったリソース貢献を奨励するためにトークン報酬を使用し、より柔軟でコスト効率の良い代替案を提供します。AI分野のDePINは、個人所有者からデータセンターにGPUリソースをクラウドソーシングし、ハードウェアにアクセスする必要があるユーザーのために統一された供給を形成します。これらのDePINネットワークは、計算能力を必要とする開発者にカスタマイズ性とオンデマンドアクセスを提供するだけでなく、GPU所有者に追加の収入も提供します。
市場にある多くのAI DePINネットワークの中で、それらの違いを識別し、必要な正しいネットワークを見つけることは容易ではありません。以下では、各プロトコルの役割、目標、および実現されたハイライトについて探ります。
! AIとDePINの交差点
AI DePINネットワークの概要
各プロジェクトは類似の目的を持っています - GPU計算市場ネットワーク。本節では、各プロジェクトのハイライト、市場の重点及び成果を調査し、重要なインフラストラクチャ及び製品を理解することで、彼らの違いを深く探ります。
RenderはGPU計算能力を提供するP2Pネットワークの先駆者であり、以前はコンテンツ制作のグラフィックレンダリングに特化していましたが、Stable Diffusionなどのツールを統合することで、神経放射場(NeRF)を含む生成AIの計算タスクに拡張されました。
ハイライト:
オスカー賞を受賞した技術を持つクラウドグラフィックス会社OTOYによって設立されました
GPUネットワークはパラマウント・ピクチャーズ、PUBG、スタートレックなどのエンターテインメント大手に使用されています
Stability AIとEndeavorと協力し、RenderのGPUを利用してAIモデルと3Dコンテンツレンダリングワークフローを統合する
複数の計算クライアントを承認し、より多くのDePINネットワークのGPUを統合する
Akashは"ホスティング版Airbnb"を自称し、ストレージ、GPU、CPU計算をサポートする従来のプラットフォーム(としてAWS)の"スーパークラウド"の代替品として位置づけられています。AkashコンテナプラットフォームとKubernetes管理の計算ノードなどの開発者フレンドリーなツールを利用することで、環境を超えてシームレスにソフトウェアをデプロイし、あらゆるクラウドネイティブアプリケーションを実行できます。
ハイライト:
汎用計算からネットホスティングに至る幅広い計算タスク
AkashMLは、Hugging Face上で15,000を超えるモデルを実行するGPUネットワークを許可し、Hugging Faceと統合しています。
Akash上でMistral AIのLLMモデルチャットボット、Stability AIのSDXLテキストから画像へのモデル、およびThumper AIの新しい基盤モデルAT-1などのアプリケーションをホスティングします。
メタバース、AI展開、連邦学習のプラットフォームはSupercloudを利用しています
io.netは、AIおよびMLのユースケース向けに特化した分散型GPUクラウドクラスターへのアクセスを提供します。データセンター、暗号マイナー、その他の分散化ネットワークのGPUを統合しています。同社は以前は量子取引会社であり、高性能GPUの価格が大幅に上昇した後、現在のビジネスに転向しました。
ハイライト:
IO-SDKはPyTorchやTensorflowなどのフレームワークと互換性があり、マルチレイヤーアーキテクチャは計算要件に応じて自動的に動的に拡張できます。
3種類の異なるタイプのクラスタを作成することをサポートしており、2分以内に起動できます。
強力な協力により、他のDePINネットワークのGPUを統合します。これにはRender、Filecoin、Aethir、Exabitsが含まれます。
Gensynは、機械学習と深層学習計算に特化したGPU計算能力を提供します。学習証明、グラフィックベースの正確な位置決めプロトコル、計算提供者のステーキングとカットを含むTruebitスタイルのインセンティブゲームなどの概念を組み合わせることで、既存の方法よりも効率的な検証メカニズムを実現すると主張しています。
ハイライト:
V100相当のGPUの1時間あたりのコストは約0.40ドルと予想されており、大幅にコストを節約できます。
プルーフスタッキングを通じて、事前学習されたベースモデルを微調整し、より具体的なタスクを完了することができます。
これらの基本モデルは分散化され、世界中で所有され、ハードウェア計算ネットワークに加えて追加機能を提供します。
Aethirは企業向けGPUを専用に搭載し、計算集約型分野、主にAI、機械学習(ML)、クラウドゲームなどに焦点を当てています。ネットワーク内のコンテナは、クラウドアプリケーションに基づく仮想エンドポイントとして機能し、ワークロードをローカルデバイスからコンテナに移動させ、低遅延の体験を実現します。高品質なサービスを確保するために、需要と位置に応じてGPUをデータソースに近づけ、リソースを調整します。
ハイライト:
AIとクラウドゲームを除いて、Aethirはクラウドフォンサービスにも拡大し、APhoneと協力して分散化クラウドスマートフォンを発売しました。
NVIDIA、Super Micro、HPE、Foxconn、Well Linkなどの大手Web2企業との広範な協力関係を確立する
CARV、Magic Eden、Sequence、Impossible Financeなど、Web3の複数のパートナー
Phala NetworkはWeb3 AIソリューションの実行層として機能します。そのブロックチェーンは信頼不要のクラウドコンピューティングソリューションであり、信頼できる実行環境(TEE)を通じてプライバシーの問題を処理するように設計されています。実行層はAIモデルの計算層として使用されるのではなく、AIエージェントがオンチェーンのスマートコントラクトによって制御されることを可能にします。
ハイライト:
検証可能な計算のコプロセッサプロトコルとして機能し、AIエージェントがオンチェーンリソースを利用できるようにします。
AIプロキシコントラクトは、Redpillを通じてOpenAI、Llama、Claude、Hugging Faceなどの上位の大規模言語モデルを取得できます
未来はzk-proofs、マルチパーティ計算(MPC)、完全同型暗号(FHE)などの多重証明システムを含むことになります。
将来、H100などの他のTEE GPUをサポートし、計算能力を向上させる
! AIとDePINの交差点
プロジェクト比較
| | レンダリング | アカシュ | io.net | ゲンシン | アエシール | ファラ | |--------|-------------|------------------|---------------------|---------|---------------|----------| | ハードウェア | GPU & CPU | GPU & CPU | GPU & CPU | GPUの| GPUの| CPU | | 事業の重点 | グラフィックレンダリングとAI | クラウドコンピューティング、レンダリングとAI | AI | AI | AI、クラウドゲームとテレコミュニケーション | チェーン上のAI実行 | | AI タスクの種類 | 推論 | 両方 | 両方 | トレーニング | トレーニング | 実行 | | 仕事の価格設定 | パフォーマンスに基づく価格設定 | 逆オークション | 市場価格設定 | 市場価格設定 | 入札システム | 権益計算 | | ブロックチェーン | ソラナ | コスモス | ソラナ | ジェンシン | アービトラム | ポルカドット | | データプライバシー | 暗号化&分散化 | mTLS 認証 | データ暗号化 | セキュアマッピング | 暗号化 | TEE | | 作業コスト | 0.5-5% |仕事あたり 20% USDC、4% AKT | 2% USDC、0.25%の準備金手数料 | 低コスト | セッションごとに20% | 誓約金額に比例 | | セキュリティ | レンダリング証明 | ステーク証明 | 計算証明 | ステーク証明 | レンダリング能力証明 | 中継チェーンから継承 | | 完了証明書 | - | - | タイムロックプルーフ | プルーフ・オブ・スタディ | レンダリング・プルーフ・オブ・ワーク | TEEプルーフ | | 品質保証 | 争議 | - | - | 検証者と通報者 | チェッカーノード | リモート証明 | | GPU クラスター | いいえ | はい | はい | はい | はい | いいえ |
重要性
クラスターと並列計算の可用性
分散化計算フレームワークはGPUクラスターを実現し、モデルの正確性に影響を与えずにより効率的なトレーニングを提供し、同時に拡張性を強化します。より複雑なAIモデルをトレーニングするには強力な計算能力が必要であり、通常は分散化計算に依存して要求を満たさなければなりません。直感的に見ると、OpenAIのGPT-4モデルは超1.8兆パラメータを持ち、3-4ヶ月の間に128のクラスターで約25,000のNvidia A100 GPUを使用してトレーニングされました。
これまで、RenderとAkashは単一用途のGPUのみを提供しており、GPUの市場需要が制限される可能性があります。しかし、大多数の重点プロジェクトは現在、クラスタを統合して並列計算を実現しています。io.netはRender、Filecoin、Aethirなどと協力して、ネットワークにより多くのGPUを組み込み、24年第1四半期に3,800以上のクラスタを展開することに成功しました。Renderはクラスタをサポートしていませんが、動作原理はクラスタと似ており、単一のフレームを複数の異なるノードに分解し、異なる範囲のフレームを同時に処理します。Phalaは現在CPUのみをサポートしていますが、CPUワーカーのクラスタ化を許可しています。
AIワークフローネットワークにクラスターフレームワークを組み込むことは非常に重要ですが、AI開発者のニーズを満たすために必要なクラスタGPUの数と種類は別の問題であり、後で議論します。
データプライバシー
AIモデルを開発するには大量のデータセットを使用する必要があり、さまざまなソースから、形式も異なります。個人医療記録やユーザーの財務データなどのセンシティブなデータセットは、モデルプロバイダーに露出するリスクにさらされる可能性があります。サムスンは、センシティブなコードがプラットフォームにアップロードされることでプライバシーが侵害されることを懸念し、内部でChatGPTを無効にしました。マイクロソフトの38TBのプライベートデータ漏洩事件は、AIを使用する際に十分なセキュリティ対策を講じる重要性をさらに浮き彫りにしています。したがって、さまざまなデータプライバシー手法を持つことは、データの制御権をデータ提供者に返還するために重要です。
ほとんどのプロジェクトは、データプライバシーを保護するために何らかの形式のデータ暗号化を使用しています。データ暗号化は、ネットワーク内でデータ提供者からモデル提供者(データ受信者)へのデータ転送が保護されることを保証します。Renderは、レンダリング結果をネットワークに戻す際に暗号化とハッシュ処理を使用し、io.netとGensynは何らかの形式のデータ暗号化を採用しています。AkashはmTLS認証を使用し、テナントが選択したプロバイダーのみがデータを受信できるようにしています。
しかし、io.netは最近Mind Networkと協力して完全同態暗号(FHE)を導入しました。これにより、データを事前に復号化することなく暗号化されたデータを処理できるようになります。この革新により、データのプライバシーをより良く確保でき、身元やデータ内容を漏らすことなくトレーニング目的で安全にデータを転送できるようになります。
Phala NetworkはTEEを導入しています。これは、接続されたデバイスの主処理装置内の安全な領域です。この隔離メカニズムにより、外部プロセスがデータにアクセスまたは変更することを防ぎます。これには、権限レベルに関係なく、物理的に機械にアクセスできる個人も含まれます。TEEに加えて、zkDCAPバリデーターおよびjteeコマンドラインインターフェースでは、RiscZero zkVMと統合されたプログラムのためにzk-proofsを組み合わせて使用します。
! AIとDePINの交差点
完了証明と品質チェックの計算
これらのプロジェクトが提供するGPUは、一連のサービスに計算能力を提供します。サービスの範囲が広いため、グラフィックスのレンダリングからAI計算まで、このようなタスクの最終的な品質が常にユーザーの基準に合致するとは限りません。完了証明を使用して、ユーザーがレンタルした特定のGPUが実際に必要なサービスを実行するために使用されたことを示すことができ、品質チェックはこのような作業を依頼するユーザーにとって有益です。
計算が完了すると、GensynとAethirは、作業が完了したことを示す証明を生成し、io.netの証明は、GPUのレンタル性能が十分に活用されていることを示します。GensynとAethirは、完了した計算に対して品質チェックを行います。Gensynでは、検証者が生成証明の一部を再実行して証明と照合し、告発者が検証者に対する別のチェックの役割を果たします。同時に、Aethirはチェックノードを使用してサービスの質を確認し、基準を下回るサービスに対して罰則を科します。Renderは、紛争解決プロセスを使用することを提案しており、審査委員会がノードに問題があると判断した場合、そのノードを削減します。Phalaは完了後にTEE証明を生成し、AIエージェントがチェーン上で必要な操作を実行することを保証します。
ハードウェア統計データ
| | レンダー | アカシュ | io.net | ゲンシン | エイサー | ファラ | |-------------|--------|-------|--------|------------|------------|--------| | GPUの数 | 5600 | 384 | 38177 | - | 40000+ | - | | CPUの数 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100個 | - | 157 | 2330 | - | 2000+ | - | | H100料金/時間 | - | 1.46ドル | 1.19ドル| - | - | - | | A100料金/時間 | - | 1.37ドル | 1.50ドル| $0.55 ( 推定) | $0.33 (推定) | - |
! [AIとDePINの出会いの場](https://
以下は私のコメントです:
GPU不足 まだマイニングに貢献した方が良い