Các tác nhân AI cho thấy khả năng thực hiện các cuộc tấn công Hợp đồng thông minh trị giá triệu Đô la, Anthropic cảnh báo

robot
Đang tạo bản tóm tắt

Sự Quan Ngại Tăng Lên Về Các Cuộc Tấn Công Do AI Điều Khiển

Anthropic đã tiết lộ rằng các hệ thống AI tác động hiện đại có thể xác định và khai thác các lỗ hổng hợp đồng thông minh với độ chính xác đáng ngạc nhiên. Công ty cho biết các thử nghiệm nội bộ của họ cho thấy những mô hình này có thể tạo ra giá trị khai thác mô phỏng lên tới 4,6 triệu đô la từ các hợp đồng được triển khai sau thời điểm cắt đứt đào tạo của từng mô hình. Kết quả này gợi ý rằng các nền tảng tài chính phi tập trung trong thế giới thực có thể phải đối mặt với một làn sóng tấn công tự động mới được thúc đẩy bởi AI tiên tiến.

Kiểm tra cho thấy AI có thể tái tạo các cuộc tấn công trong quá khứ và các cuộc tấn công zero-day.

Trong quá trình nghiên cứu, Anthropic đã đánh giá mười mô hình hàng đầu bằng cách sử dụng SCONE bench, một thước đo của 405 hợp đồng thông minh bị khai thác trong khoảng thời gian từ 2020 đến 2025. Các tác nhân đã tái tạo 207 cuộc tấn công, tương đương với khoảng 550 triệu đô la trong quỹ giả mạo bị đánh cắp. Hơn nữa, khi nhóm thu hẹp thử nghiệm xuống 34 hợp đồng được phát hành sau tháng 3 năm 2025, ba mô hình hàng đầu, bao gồm Claude Opus 4.5 và GPT 5, vẫn tạo ra các khai thác chức năng trị giá khoảng 4.6 triệu đô la. Opus 4.5 đã tạo ra hầu hết số tiền giả mạo đó.

Anthropic cũng đã thực hiện các thử nghiệm mới vào ngày 3 tháng 10 năm 2025, sử dụng 2.849 hợp đồng Binance Smart Chain mới mà không có lỗ hổng công khai. Các đại lý AI đã phát hiện ra hai lỗi chưa biết và đánh dấu thêm các vấn đề gây ra những lợi nhuận mô phỏng nhỏ hơn. Điều này cho thấy rằng các hệ thống không chỉ đơn giản là lặp lại các mô hình từ các cuộc tấn công trước.

Điều này có nghĩa gì đối với an ninh DeFi

Anthropic nhấn mạnh rằng tất cả các bài kiểm tra diễn ra trong các môi trường blockchain tách biệt, vì vậy không có quỹ thực nào gặp rủi ro. Tuy nhiên, những phát hiện này làm nổi bật một thách thức ngày càng tăng đối với các nhà phát triển DeFi. Khi các mô hình AI cải thiện và trở nên rẻ hơn để triển khai, việc khai thác các điểm yếu trong hợp đồng thông minh có thể sẽ yêu cầu ít nỗ lực hơn bao giờ hết.

Các đội ngũ an ninh hiện đang phải đối mặt với áp lực để tăng cường kiểm toán và áp dụng các công cụ AI phòng thủ. Nhiều chuyên gia tin rằng các nền tảng kiểm tra mã tự động có thể trở nên thiết yếu để phát hiện lỗi trước khi ra mắt. Những người khác cảnh báo rằng nếu không có các tiêu chuẩn và biện pháp bảo vệ mới, kẻ tấn công có thể nhanh chóng mở rộng các cuộc tấn công sử dụng AI trên hàng nghìn hợp đồng.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim