📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
Mira網路啓動公測 構建AI信任層減少偏見與幻覺
AI信任層的新嘗試:Mira網路公共測試網啓動
近日,一個名爲Mira的網路公共測試網正式上線。這個項目的目標是爲AI構建一個信任層,以解決當前AI系統面臨的一些關鍵挑戰。那麼,爲什麼AI需要建立信任,Mira又是如何應對這一問題的呢?
在AI領域,人們往往更多地關注其強大的能力。然而,一個有趣但較少被討論的問題是AI的"幻覺"或偏見。所謂AI的"幻覺",簡單來說就是AI有時會"編造"信息,看似有理有據地胡說八道。例如,如果你問AI爲什麼月亮是粉色的,它可能會給出一系列看似合理但實際上毫無根據的解釋。
AI出現"幻覺"或偏見與當前的一些AI技術路徑有關。比如,生成式AI通過預測"最可能"的內容來實現輸出的連貫性和合理性,但這種方法有時難以驗證真僞。此外,訓練數據本身可能包含錯誤、偏見甚至虛構內容,這些都會影響AI的輸出質量。換句話說,AI學習的是人類的語言模式,而非事實本身。
目前的概率生成機制和數據驅動模式幾乎不可避免地會導致AI產生"幻覺"。對於普通知識或娛樂內容,這種帶有偏見或幻覺的輸出可能暫時不會造成直接後果。但如果發生在醫療、法律、航空、金融等要求高度嚴謹的領域,則可能產生嚴重後果。因此,如何解決AI的幻覺和偏見問題,成爲AI發展過程中的核心問題之一。
目前,業界已有多種應對方案。有的採用檢索增強生成技術,將AI與實時數據庫結合,優先輸出已驗證的事實。有的引入人類反饋,通過人工標注和監督來糾正模型的錯誤。
Mira項目也在嘗試解決AI偏見和幻覺的問題。它的核心思路是通過構建AI的信任層,來減少AI偏見和幻覺,提升AI的可靠性。那麼,Mira是如何實現這一目標的呢?
Mira的核心思路是通過多個AI模型的共識來驗證AI輸出。Mira本質上是一個驗證網路,它利用多個AI模型的共識來驗證AI輸出的可靠性。此外,Mira還引入了去中心化共識來進行驗證。
Mira網路的關鍵在於去中心化的共識驗證。這種方法借鑑了加密領域的技術,同時利用了多模型協同的優勢,通過集體驗證模式來減少偏見和幻覺。
在驗證架構方面,Mira協議支持將復雜內容轉換爲獨立可驗證的聲明。這些聲明需要節點運營商參與驗證。爲了確保節點運營商的誠實性,Mira採用了加密經濟激勵/懲罰機制。不同的AI模型和分散的節點運營商共同參與,以保證驗證結果的可靠性。
Mira的網路架構包括內容轉換、分布式驗證和共識機制,以此實現驗證的可靠性。在這個架構中,內容轉換是重要環節。Mira網路首先將候選內容(通常由客戶提交)分解成不同的可驗證聲明,以確保模型能在相同背景下理解內容。這些聲明由系統分發給節點進行驗證,以確定聲明的有效性,並匯總結果達成共識。最終,這些結果和共識會返回給客戶。爲了保護客戶隱私,候選內容被轉換分解爲聲明對,並以隨機分片的方式分發給不同節點,防止驗證過程中出現信息泄露。
節點運營商負責運行驗證器模型,處理聲明並提交驗證結果。他們之所以願意參與驗證,是因爲可以獲得收益。這些收益來自爲客戶創造的價值。Mira網路的目標是降低AI的錯誤率(減少幻覺和偏見),一旦達成這個目標,就能在醫療、法律、航空、金融等領域產生巨大價值。因此,客戶願意爲此付費。當然,付費的可持續性和規模取決於Mira網路能否持續爲客戶帶來價值。爲了防止節點隨機響應的投機行爲,持續偏離共識的節點會被扣減質押代幣。總的來說,Mira通過經濟機制的博弈來確保節點運營商誠實參與驗證。
Mira爲實現AI的可靠性提供了一種新思路:在多AI模型基礎上構建去中心化共識驗證網路,爲客戶的AI服務帶來更高可靠性,降低AI偏見和幻覺,滿足客戶對更高準確度和精確率的需求。同時,在爲客戶提供價值的基礎上,爲Mira網路的參與者帶來收益。簡而言之,Mira正在嘗試構建AI的信任層,這將推動AI應用的深入發展。
目前,用戶可以通過Klok參與Mira公共測試網。Klok是一個基於Mira的LLM聊天應用,用戶可以體驗經過驗證的AI輸出,並比較它與未經驗證的AI輸出的區別。參與者還可以賺取Mira積分,不過這些積分的未來用途目前尚未公布。