米拉讓我意識到,AI 可能在變得自主之前需要具備韌性系統

我之所以開始思考AI系統,不是因為我認為AI不夠強大。事實上,我們今天擁有的模型已經非常出色。 讓我想到強度的原因是某些事情 每次AI在某些領域扮演角色時,人類仍然參與其中。 醫生會再次確認診斷。 分析師驗證見解。 研究人員核實引用。 AI提出建議。人類確認。 這種模式存在是有原因的。 現代AI系統很聰明,但也很脆弱。 一個錯誤的聲明、一個數據集或一個微妙的推理錯誤都可能悄悄影響整個輸出。 由於大型模型是基於概率生成回應,這種不確定性永遠不會完全消失。 這也是Mira開始引起我興趣的地方。 起初它看起來像是一個AI項目,但它實際上試圖解決一個不同的問題。 Mira不是在讓模型變得更聰明;它是在讓它們周圍的系統更強大。 它不依賴單一模型的答案,而是將回應拆分為更小的事實聲明,並在一個獨立驗證者的網絡中共享這些聲明。 每個聲明都會被單獨評估。只有當多個驗證者達成一致時,系統才接受結果。 這樣做的方式很重要。 與其將AI視為一個單一的智能系統,Mira將其看作一個分散的推理過程。 一個模型產生答案。 其他模型挑戰它。 共識決定哪些結果能存活。 起初這聽起來像是可以提高可靠性。 但我越想越覺得這背後更深層的東西:強度。 強大的系統不假設各部分永遠正確。 它們假設部分有時會失敗。 這就是互聯網的運作方式。 區塊鏈也是如此。 分散式數據庫也是如此。 失敗是預期之中的,因此設計也考慮到這一點。 AI還沒有真正以這種方式構建。 大多數AI產品仍然依賴一個模型作為真實的來源。 如果模型出錯,系統缺乏檢測的方法。 Mira改變了這一點。 通過將輸出轉化為聲明並在多個獨立模型中進行檢查,系統建立了冗餘。 即使一個模型不正確,其他模型也可以挑戰它。 最終的答案更接近於網絡驗證的知識,來自單一模型的預測。 這讓我停下來思考。 因為自主不僅僅需要智慧。 它還需要強度。 如果AI代理要管理系統、協調基礎設施或協助醫療,系統不能只依賴一個模型的信心分數。 它必須有一個在錯誤擴散之前檢測和修正錯誤的方法。 Mira引入了這樣的機制。 驗證者押注代幣,驗證聲明。誠實驗證者會獲得獎勵。 這個經濟層將可靠性轉化為網絡積極維護的東西,而非開發者僅僅希望的東西。 我意識到其中的挑戰。 驗證網絡會增加延遲。 一些聲明難以評估。 在全球驗證者網絡中協調激勵機制是複雜的。 讓我印象深刻的是它的設計理念。 AI的發展專注於讓模型變得更聰明。 而Mira則專注於讓AI周圍的系統更難被破壞。 這種方法較為低調、較少炫耀,也較難推廣。 但如果AI要從助手轉變為行動者,真正的問題不會是「模型有多聰明?」 而是「當模型出錯時,系統有多強大?」 這正是Mira似乎在構建的層面。 一旦你開始用這種方式思考AI,強度就開始像是自主的真正需求。 $MIRA @mira_network #Mira

MIRA-1.9%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言