AIエージェントが百万ドルのスマートコントラクトハックを実行する能力を示す、Anthropicが警告

robot
概要作成中

AI駆動の悪用に対する高まる懸念

Anthropicは、現代のエージェントAIシステムがスマートコントラクトの脆弱性を驚くべき精度で特定し、悪用できることを明らかにしました。同社は、内部テストの結果、これらのモデルが各モデルのトレーニングカットオフ後にデプロイされたコントラクトから、シミュレートされた攻撃価値として最大460万ドルを生成できることを示したと述べました。この結果は、現実の分散型金融プラットフォームが高度なAIによって駆動される新たな自動攻撃の波に直面する可能性があることを示唆しています。

テストによると、AIは過去の攻撃やゼロデイ攻撃を再現できることが示されています

Anthropicは、その研究の中で、2020年から2025年の間に悪用された405のスマートコントラクトのベンチマークであるSCONEベンチを使用して、10の主要モデルを評価しました。エージェントは207の攻撃を再現し、これは約5億5000万ドルの模擬盗難資金に相当しました。さらに、チームが2025年3月以降にリリースされた34のコントラクトにテストを絞ったところ、Claude Opus 4.5やGPT 5を含む3つのトップティアモデルが、約460万ドルの価値のある機能的なエクスプロイトを依然として作成しました。Opus 4.5は、そのほとんどを生み出しました。

アンソロピックは、2025年10月3日に新しいテストを実施し、公開されていない脆弱性を持つ2,849の新しいバイナンススマートチェーン契約を使用しました。AIエージェントは、2つの未知のバグを発見し、より小さなシミュレーションによる利益を生み出す追加の問題を警告しました。これは、システムが単に過去のハッキングのパターンを繰り返しているわけではないことを示しました。

DeFiセキュリティにとっての意味

Anthropicは、すべてのテストが孤立したブロックチェーン環境で行われたため、実際の資金が危険にさらされることはなかったと強調しました。しかし、これらの発見はDeFi開発者にとっての増大する課題を浮き彫りにしています。AIモデルが改善され、展開コストが安くなるにつれて、スマートコントラクトの弱点を悪用するにはこれまで以上に少ない労力が必要になるかもしれません。

セキュリティチームは、監査を強化し、防御的なAIツールを採用するよう圧力を受けています。多くの専門家は、自動コードレビュープラットフォームが、ローンチ前に欠陥を見つけるために不可欠になる可能性があると考えています。他の専門家は、新しい基準や安全策がなければ、攻撃者が何千もの契約にわたってAIによる悪用を急速に拡大させる可能性があると警告しています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン