廣場
最新
熱門
新聞
我的主頁
發布
***_crypto
2026-03-27 16:54:37
關注
CT 睡在2025年最大去中心化AI論文上
Jensen 上《All-In》,CT 猿入 TAO
但真正的工作已經完成
去中心化AI訓練的突破已在9個月前發生
在2025年6月,@0G_labs 在 arXiv 發布了一篇名為 DiLoCoX 的論文
一個在標準1 Gbps網路下,跨越20個去中心化節點訓練107B參數模型的框架
結果:
每秒3,728個tokens vs 10.4的AllReduce
通信效率提升357倍
框架驗證,但這是唯一在此效率水平上的公開基準
幾乎沒有人報導
- Bittensor的Covenant-72B是一個訓練模型
- DiLoCoX是一個用於在去中心化基礎設施上訓練任何模型的框架,完全不同的類別
背後是一個完整堆疊:計算、存儲、去中心化身份(DA)和鏈,沒有其他項目能同時涵蓋這四層
Jensen 剛剛驗證了這個論點,0G Labs 一年前已經證明
4月1日,他們將在 EthCC Cannes 發表演講,下一章即將來臨
TAO
-0.38%
0G
-1.28%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見
聲明
。
打賞
按讚
回覆
轉發
分享
回覆
請輸入回覆內容
請輸入回覆內容
回覆
暫無回覆
熱門話題
查看更多
#
WCTC交易王PK
59.54萬 熱度
#
美國尋求戰略比特幣儲備
5879.85萬 熱度
#
比特幣ETF期權限額提高4倍#
104.81萬 熱度
#
#聯準會利率不變但內部分歧加劇#
4.69萬 熱度
#
DeFi4月安全事件損失超6億美元
1020.91萬 熱度
置頂
網站地圖
CT 睡在2025年最大去中心化AI論文上
Jensen 上《All-In》,CT 猿入 TAO
但真正的工作已經完成
去中心化AI訓練的突破已在9個月前發生
在2025年6月,@0G_labs 在 arXiv 發布了一篇名為 DiLoCoX 的論文
一個在標準1 Gbps網路下,跨越20個去中心化節點訓練107B參數模型的框架
結果:
每秒3,728個tokens vs 10.4的AllReduce
通信效率提升357倍
框架驗證,但這是唯一在此效率水平上的公開基準
幾乎沒有人報導
- Bittensor的Covenant-72B是一個訓練模型
- DiLoCoX是一個用於在去中心化基礎設施上訓練任何模型的框架,完全不同的類別
背後是一個完整堆疊:計算、存儲、去中心化身份(DA)和鏈,沒有其他項目能同時涵蓋這四層
Jensen 剛剛驗證了這個論點,0G Labs 一年前已經證明
4月1日,他們將在 EthCC Cannes 發表演講,下一章即將來臨