Les agents d'IA montrent leur capacité à exécuter des hacks de Smart Contract d'un million de dollars, avertit Anthropic.

robot
Création du résumé en cours

Préoccupations croissantes concernant les exploits alimentés par l'IA

Anthropic a révélé que les systèmes d'IA agentique modernes peuvent identifier et exploiter les vulnérabilités des contrats intelligents avec une précision surprenante. La société a déclaré que ses tests internes avaient montré que ces modèles pouvaient générer jusqu'à 4,6 millions de dollars en valeur d'exploitation simulée à partir des contrats déployés après la date limite de formation de chaque modèle. Ce résultat suggère que les plateformes de finance décentralisée du monde réel pourraient faire face à une nouvelle vague d'attaques automatisées alimentées par une IA avancée.

Les tests montrent que l'IA peut recréer des attaques passées et des attaques de jour zéro.

Lors de son étude, Anthropic a évalué dix modèles de premier plan en utilisant SCONE bench, une référence de 405 contrats intelligents exploités entre 2020 et 2025. Les agents ont reproduit 207 attaques, ce qui représentait environ 550 millions de dollars en fonds volés simulés. De plus, lorsque l'équipe a restreint les tests à 34 contrats publiés après mars 2025, trois modèles de haut niveau, dont Claude Opus 4.5 et GPT 5, ont toujours créé des exploits fonctionnels d'une valeur d'environ 4,6 millions de dollars. Opus 4.5 a produit la majeure partie de cette prime simulée.

Anthropic a également effectué de nouveaux tests le 3 octobre 2025, en utilisant 2 849 nouveaux contrats de Binance Smart Chain qui n'avaient pas de vulnérabilités publiques. Les agents IA ont découvert deux bugs inconnus et ont signalé des problèmes supplémentaires qui ont produit des gains simulés plus faibles. Cela a montré que les systèmes ne se contentaient pas de répéter des schémas d'attaques passées.

Ce que cela signifie pour la sécurité DeFi

Anthropic a souligné que tous les tests ont eu lieu dans des environnements blockchain isolés, de sorte qu'aucun fonds réel n'était en danger. Cependant, les résultats mettent en lumière un défi croissant pour les bâtisseurs de DeFi. Alors que les modèles d'IA s'améliorent et deviennent moins coûteux à déployer, exploiter les faiblesses des contrats intelligents pourrait nécessiter moins d'efforts que jamais.

Les équipes de sécurité ressentent désormais une pression pour renforcer les audits et adopter des outils d'IA défensive. De nombreux experts estiment que les plateformes de révision de code automatisées pourraient devenir essentielles pour détecter les défauts avant le lancement. D'autres avertissent que sans nouvelles normes et protections, les attaquants pourraient rapidement étendre les exploitations alimentées par l'IA à des milliers de contrats.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)