👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
警報!AI代理攻破智能合約盜取超450萬美元模擬資產,Anthropic報告揭示DeFi安全危機
AI 明星公司 Anthropic 發布的最新研究報告爲整個加密行業敲響了警鍾。實驗顯示,當前先進的 AI 代理(如 Claude Sonnet 4.5)能夠自主發現並利用智能合約漏洞,在模擬環境中成功攻擊了超過一半的測試合約,甚至挖掘出兩個全新的“零日漏洞”。報告警示,隨着 AI 使用成本急劇下降而攻擊收益飆升,基於區塊鏈的去中心化金融系統正面臨一場前所未有的、自動化的安全攻防戰。這既是嚴峻的威脅,也預示着以 AI 對抗 AI 的安全新時代已經到來。
潘多拉魔盒已開:AI 代理展現驚人攻擊力
當人們還在討論 AI 將如何改變未來時,Anthropic 的報告揭示了一個迫在眉睫的現在:AI 代理已經具備了足以威脅區塊鏈資產安全的實戰能力。該公司在一項嚴謹的模擬實驗中,讓 AI 模型置身於一個仿真的區塊鏈環境,測試目標包括 2025 年 3 月後部署的、歷史上曾真實遭受過攻擊的 34 份智能合約。結果令人震驚,AI 代理成功攻破了其中的 17 份,竊取了總計 450 萬美元的模擬資產。
這一威脅的普遍性更爲觸目驚心。在擴大範圍的基準測試中,Anthropic 選取了 2020 年至 2025 年間部署在 Ethereum 、 BNB Smart Chain 和 Base 等鏈上的共 405 份合約進行測試。AI 模型成功攻擊了其中 207 份,成功率超過 50%,模擬盜取資金高達 5.5 億美元。報告直言,2025 年發生的大多數由人類高手完成的區塊鏈攻擊,理論上均可由當前的 AI 代理自主執行。這意味着攻擊的門檻正在從“需要高超技能”迅速滑向“可以自動化批量進行”。
最讓安全專家感到不安的,是 AI 展現出的“創新能力”。在針對 2849 個近期部署、無已知漏洞合約的掃描中,Claude Sonnet 4.5 和 GPT-5 依然發現了兩個全新的“零日漏洞”,潛在利用價值約 3694 美元。這證明 AI 的威脅並非僅止於復現已知攻擊模式,它已開始具備在未知代碼中主動挖掘新威脅的能力,智能合約安全的攻防平衡正在被徹底打破。
漏洞挖掘機:AI 如何透視合約風險
AI 代理究竟是如何做到這一點的?報告深入剖析了被成功利用的漏洞類型,爲我們理解 AI 的攻擊思路提供了窗口。其中最常見的一類是“授權漏洞”,即合約中某些關鍵函數(如提取用戶資金)的訪問控制存在缺陷,未能嚴格驗證調用者身分。AI 代理能夠通過系統性的調用測試和狀態分析,精準定位這些未上鎖的“後門”。
另一類高發漏洞涉及“未受保護的只讀函數”。這些函數本不應修改鏈上狀態,但如果設計不當,可能被惡意調用以操縱代幣供應量或關鍵狀態變量。AI 代理通過遍歷所有可調用函數並分析其可能產生的副作用,能夠識別出這些潛在的攻擊向量。此外,“費用提取邏輯中的驗證缺失”也是一個常見問題,攻擊者可以利用此漏洞非法提取累積的交易手續費。
從技術層面看,大型語言模型(LLM)之所以能勝任此工作,是因爲它們接受了海量代碼(包括 Solidity 智能合約)的訓練,對代碼模式、潛在缺陷模式和攻擊模式有着超越人類速度的關聯與推理能力。它們可以像不知疲倦的審計員一樣,以極高的並行度嘗試各種輸入組合和函數調用序列,尋找能導致非預期狀態的“鑰匙”。這種自動化、規模化的代碼審查能力,一旦被用於惡意目的,其效率將是傳統手動黑客的數千倍。
成本暴跌與收益飆升:危險的經濟學模型
驅動這場安全危機到來的,不僅僅是技術的進步,更有一組危險的經濟學邏輯。Anthropic 的報告揭示了一個關鍵趨勢:在過去一年中,利用 AI 進行攻擊所獲取的模擬收益,大約每 1.3 個月就會翻一番。與此同時,調用高級 AI 模型(如 GPT-4o, Claude 3.5 Sonnet)的成本卻在持續快速下降。
這種“剪刀差”效應創造了極其誘人的攻擊者激勵模型。當攻擊的預期收益增速遠高於成本時,部署大量 AI 代理進行“廣撒網”式的漏洞掃描就成了一門有利可圖的生意。報告警告:“隨着成本持續下降,攻擊者將部署更多 AI 代理去探測任何通往有價值資產的路徑上的代碼,無論其多麼冷門:一個被遺忘的認證庫、一個不起眼的日志服務,或是一個已棄用的 API 端點。”未來,我們可能面對的不僅是針對頭部 DeFi 協議的精確定點攻擊,更是對所有聯網智能合約的無差別、自動化掃蕩。
Anthropic 研究報告核心數據
測試集 1(近期曾被攻擊合約):34 份,AI 成功攻擊 17 份,盜取模擬資金 450 萬美元
測試集 2(2020-2025 年歷史合約基準):405 份,AI 成功攻擊 207 份,盜取模擬資金 5.5 億美元
零日漏洞挖掘測試:掃描 2849 份新合約,發現 2 個新漏洞,潛在價值 3694 美元
攻擊收益增長週期:模擬攻擊收益每 1.3 個月翻倍
涉及的 AI 模型:Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
涉及的區塊鏈:Ethereum, BNB Smart Chain, Base
以 AI 之矛,築 AI 之盾:防御新時代的開啓
面對如此清晰的威脅,行業的反應必須是迅速且有力的。Anthropic 在報告中並未只渲染恐慌,而是明確指出了出路:必須用 AI 來防御 AI。這預示着智能合約審計和安全保障即將進入一個全新的“AI 增強”時代。傳統的、依靠有限人力進行代碼審查和模糊測試的模式,在自動化攻擊面前將顯得漏洞百出。
作爲推動防御進步的具體舉措,Anthropic 宣布將開源其用於本次研究的智能合約利用基準數據集。這一舉動旨在爲全球的安全開發者和研究人員提供一個高標準、多樣化的測試沙盒,用以訓練和評估他們自己的防御性 AI 模型。未來,我們有望看到更強大的 AI 輔助審計工具出現,它們能在合約部署前就進行深度掃描,以攻擊者的思維提前發現漏洞;也能在合約運行期間進行實時監控,異常交易模式一出現就被識別和阻斷。
這場 AI 驅動的安全軍備競賽已經鳴槍起跑。對於項目方而言,提升安全預算、採用更先進的 AI 審計服務將成爲生存的必需品。對於開發者,學習並適應與 AI 工具協同編程將成爲新的常態。對於整個 Web3 行業,這次預警是一次寶貴的壓力測試,它迫使我們在追尋創新與效率的同時,必須將安全性重新置於架構設計的核心。唯有主動擁抱這場變革,才能將威脅轉化爲推動行業整體安全水位提升的契機。
結語
Anthropic 的報告如同一面鏡子,既映照出 AI 技術陰暗面的鋒利棱角,也指明了利用其光明面加固盾牌的方向。智能合約的安全敘事,正從“白帽黑客與黑帽黑客的人力對抗”,轉向“防御性 AI 與攻擊性 AI 的算法競賽”。這場競賽沒有旁觀者,它關乎每一個建立在區塊鏈上的協議、每一筆鎖定在 DeFi 中的資產,以及整個去中心化生態的信任基石。現在,是時候更新我們對風險的認識,並立即行動了——因爲 AI 代理從不休息,而我們的防御,也必須時刻在線。