AI+Web3の融合新局:ロングテール分布のインセンティブとオープンソースモデル市場

AI+Web3: タワーとプラザ

ポイントの要約

  1. AIの概念を持つWeb3プロジェクトは、一級市場と二級市場で資金を集めるターゲットとなっています。

  2. Web3におけるAI業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給(をデータ、ストレージ、計算)にまたがって調整することに現れています。同時に、オープンソースモデルとAIエージェントの分散型マーケットを構築します。

  3. AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)および開発支援に使用されます。

  4. AI+Web3の有用性は両者の補完に現れます:Web3はAIの集中化に対抗することが期待され、AIはWeb3の境界を破るのを助けることが期待されています。

はじめに

ここ2年、AIの発展は加速ボタンが押されたかのように、Chatgptによって引き起こされたバタフライ効果は、生成的人工知能の新しい世界を開いただけでなく、Web3の分野にも大きな流れを引き起こしました。

AIの概念の後押しにより、加速が鈍化している暗号市場での資金調達が明らかに活発化しています。メディアの統計によれば、2024年上半期だけで64のWeb3+AIプロジェクトが資金調達を完了し、人工知能に基づくオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。

二次市場はさらに繁栄しており、暗号集約サイトのデータによると、わずか1年余りで、AI分野の総市場価値は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による好材料は明らかで、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AI効果は、暗号通貨の資金調達セクターの一つであるMemeにも波及しています:最初のAIエージェントコンセプトのMemeCoin - GOATは急速に人気を博し、14億ドルの評価を獲得し、AI Memeブームを成功裏に引き起こしました。

AI+Web3に関する研究や話題も同様に盛り上がっており、AI+DePINからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの入れ替えの速度についていけなくなっています。

AI+Web3という、この熱い資金、流行、未来の幻想に満ちた用語の組み合わせは、どうしても資本によって結びつけられたお見合い結婚として見なされることが避けられません。この華やかな衣装の下で、結局は投機家の主場であるのか、それとも夜明けの爆発の前夜であるのかを見分けるのは難しいようです。

この問題に答えるための、両者にとって重要な考察は、相手がいることでより良くなるのか?相手のパターンから利益を得ることができるのか?この記事では、先人の肩の上に立ってこの構図を考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新しい活力をもたらすことができるのか?

! AI+Web3: タワー&プラザ

Part.1 AIスタックの下でWeb3にはどのような機会があるか?

このトピックを展開する前に、AI大モデルの技術スタックを理解する必要があります:

よりわかりやすい言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなものであり、初期段階ではこの脳は生まれたばかりの赤ちゃんに属しており、周囲の膨大な情報を観察し取り入れてこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持たないため、トレーニングの前に外部の大規模な無標注情報は、「前処理」を通じてコンピュータが理解でき、利用できる情報フォーマットに変換する必要があります。

データを入力すると、AIは「トレーニング」によって理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を徐々に理解し学習する過程と見ることができます。モデルのパラメータは、赤ちゃんの学習過程で絶えず調整される言語能力のようなものです。学習内容が専門化し始めたり、人とのコミュニケーションを通じてフィードバックを得て修正が行われると、大規模モデルの「ファインチューニング」段階に入ります。

子供は徐々に成長し、話すことを学ぶと、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAIの大規模モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測と分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これはAIの大規模モデルがトレーニングを完了して使用に投入された後、推論段階で特定のタスク(例えば、画像分類、音声認識など)に適用されることに似ています。

AIエージェントは、次の大規模モデルの形態に近づいています - タスクを独立して実行し、複雑な目標を追求することができ、思考能力だけでなく、記憶、計画を持ち、ツールを使って世界と相互作用することができます。

現在、AIの各スタックにおける課題に対して、Web3は現在、AIモデルプロセスの各段階を網羅した多層的で相互接続されたエコシステムを初めて形成しています。

! AI+Web3:タワー&スクエア

1. 基本レイヤー: Airbnb (計算能力とデータ)

ハッシュレート

現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算力とエネルギーです。

一例として、あるテクノロジー大手の大規模言語モデルは、特定のGPUメーカーが製造した高性能GPUを16000台必要とし、30日間のトレーニングを完了する。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間で、これには4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要であり、一方で、毎月のトレーニングには16億キロワット時が消費され、エネルギー支出は毎月約2000万ドルに達する。

AI計算力の解放は、Web3が最初にAIと交差した分野であり、DePIN(の分散型物理インフラネットワーク)では、関連するデータサイトが1400以上のプロジェクトを展示しています。その中で、GPU計算力共有の代表的なプロジェクトには、複数の有名なプラットフォームが含まれています。

その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人または団体が、許可なしに分散型の方法で計算能力を提供できるようにすることにあります。これは、UberやAirbnbのようなバイヤーと売り手のオンラインマーケットを通じて、十分に活用されていないGPUリソースの使用率を向上させ、エンドユーザーはその結果、より低コストの効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したりネットワークを中断した場合に、リソース提供者に適切な罰が与えられることを保証します。

その特徴は次のとおりです:

  • 余剰GPUリソースの集約:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターからの余剰計算能力リソース、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイニングマシンです。現在、MacBook、iPhone、iPadなどのローカルデバイスを利用して大規模モデル推論の計算ネットワークを構築するための、より低い参入障壁を持つデバイスを起動することを目的としたプロジェクトもあります。

  • AI計算力のロングテール市場に直面して:

a.「技術的な観点から見ると」分散型計算力市場は推論プロセスにより適しています。トレーニングは超大規模クラスターのGPUによるデータ処理能力に依存し、推論はGPUの計算性能に対する依存が相対的に低く、特定のプラットフォームは低遅延のレンダリング作業やAI推論アプリケーションに重点を置いています。

b.「需要サイドに関して」中小規模の計算力を持つ需要者は、自分自身の大規模モデルを単独で訓練することはなく、むしろ少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。これらのシナリオは、分散型の余剰計算リソースに自然に適しています。

  • 非中央集権的所有権:ブロックチェーンの技術的意義は、リソースの所有者が常にそのリソースに対するコントロールを保持し、需要に応じて柔軟に調整し、同時に利益を得ることができることです。

データ

データは、AIの基盤です。データがなければ、計算は浮遊する水草のように無意味であり、データとモデルの関係は「Garbage in, Garbage out」という格言のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしい表現を決定します。現在、AIのデータニーズのジレンマは、主に次の4つの側面に焦点を当てています:

  • データの渇望:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によると、ある有名なAI企業がトレーニングした大規模言語モデルのパラメータ数は兆単位に達しました。

  • データ品質:AIと各業界の結びつきが進むにつれて、データのタイムリーさ、データの多様性、特化型データの専門性、ソーシャルメディアの感情などの新興データソースの取り込みが、その品質に新たな要求を突きつけています。

  • プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に徐々に気づいており、データセットのクローリングに制限を設けています。

  • データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。

現在、web3のソリューションは以下の4つの側面に現れています:

1、データ収集:無料で収集できる実世界のデータは急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者には還元されておらず、プラットフォームはデータがもたらす価値創造を全て享受しています。例えば、あるソーシャルプラットフォームはAI企業と締結したデータライセンス契約を通じて合計2億3百万ドルの収入を実現しました。

本当の貢献をするユーザーが、データによる価値創造に同様に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することが、Web3のビジョンです。

  • 一部のプラットフォームは、分散型のデータ層とネットワークであり、ユーザーはノードを運用することで、未使用の帯域幅とリレー・トラフィックを提供し、インターネット全体からリアルタイムデータをキャッチし、トークン報酬を得ることができます;

  • 一部のプラットフォームは、独自のデータ流動性プール(DLP)の概念を導入しており、ユーザーは自分のプライベートデータ((ショッピング履歴、ブラウジング習慣、ソーシャルメディア活動など))を特定のDLPにアップロードし、これらのデータを特定の第三者に使用するために許可するかどうかを柔軟に選択できます;

  • 一部のプラットフォームでは、ユーザーはソーシャルプラットフォームで特定のタグを使用し、@プラットフォームを付けることでデータ収集を実現できます。

2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常雑音を含み、エラーも含まれているため、モデルを訓練する前にそれをクリーンアップし、使用可能な形式に変換する必要があります。これには標準化、フィルタリング、欠損値の処理などの繰り返し作業が含まれます。この段階はAI業界で数少ない人手によるプロセスであり、データアノテーターという職業が派生しています。モデルがデータの質に対する要求を高めるにつれて、データアノテーターのハードルも上がっています。このタスクはWeb3の分散型インセンティブメカニズムに自然に適しています。

  • 現在、複数のプラットフォームがデータラベリングという重要なステップへの参加を検討しています。

  • 一部のプロジェクトは「Train2earn」の概念を提唱しており、データの質を強調しています。ユーザーは、ラベル付けされたデータ、注釈、またはその他の形式の入力を提供することで報酬を得ることができます。

  • データアノテーションプロジェクトは、タスクにゲーム要素を取り入れ、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。

3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブなデータの取り扱いに関わり、データセキュリティは未承認のアクセス、破壊、盗難からデータ情報を保護します。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは2つの側面に表れます:(1)センシティブデータのトレーニング;(2)データ協力:複数のデータ所有者がその原データを共有することなく、AIトレーニングに共同で参加できます。

現在のWeb3で一般的なプライバシー技術には、次のものが含まれます:

  • 信頼できる実行環境(TEE)

  • 完全準同型暗号化(FHE)

  • ゼロ知識技術(zk)のように、特定のプロトコルがzkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから活動、評判、アイデンティティデータを安全にインポートできるようにし、センシティブな情報を暴露することなく可能にします。

しかし、現時点ではこの分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の困難の一つは計算コストが高すぎることで、いくつかの例は次の通りです:

  • あるzkMLフレームワークは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。

  • ある実験室のデータによると、zkMLのオーバーヘッドは純粋な計算よりも1000倍以上高い。

4、データストレージ:データを得た後、ブロックチェーン上にデータを保存する場所と、そのデータを使用して生成されたLLMが必要です。データの可用性(DA)を中心にした問題では、イーサリアムのDankshardingアップグレード前のスループットは0.08MBでした。同時に、AIモデルのトレーニングとリアルタイム推論には通常、毎秒50から100GBのデータスループットが必要です。このオーダーの差は、既存のブロックチェーン解決策が「リソース集約型のAIアプリケーション」に直面したときに無力であることを示しています。

  • 一部のプラットフォームはこのカテゴリの代表的なプロジェクトです。これはAIの高性能ニーズに特化して設計された集中型ストレージソリューションであり、その主要な特徴には:高
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 9
  • 共有
コメント
0/400
ApeShotFirstvip
· 9時間前
自由こそが真理です
原文表示返信0
MoonBoi42vip
· 07-31 08:17
革新は常に前進しています
原文表示返信0
GateUser-bd883c58vip
· 07-30 11:02
未来に期待できる
原文表示返信0
BearMarketBardvip
· 07-30 11:02
等ブル・マーケット再说吧
原文表示返信0
GasFeeBarbecuevip
· 07-30 11:01
炒作人をカモにするのがまた来た
原文表示返信0
PumpingCroissantvip
· 07-30 11:01
理性的にこのトレンドを好意的に見る
原文表示返信0
AirdropHunterXMvip
· 07-30 10:52
この分野では強気
原文表示返信0
PebbleHandervip
· 07-30 10:43
明るい未来に向かって突き進む
原文表示返信0
BearMarketBuyervip
· 07-30 10:39
ベア・マーケットの無畏者は前進する
原文表示返信0
もっと見る
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)