Khai thác Hợp đồng Thông minh AI: Chuyên gia cảnh báo các tác nhân có thể gây ra thiệt hại hàng năm từ 10–20 tỷ USD trong lĩnh vực DeFi

Một nghiên cứu gần đây của MATS và Anthropic Fellows xác nhận rằng các tác nhân AI có thể khai thác lỗ hổng hợp đồng thông minh một cách sinh lợi, thiết lập một “giới hạn dưới cụ thể” cho thiệt hại kinh tế.

Khai thác mới và giảm chi phí đáng báo động

Xu hướng tăng tốc tự động hóa các nhiệm vụ của con người bằng tác nhân Trí tuệ Nhân tạo (AI) hiện đang đối mặt với một nhược điểm quan trọng và có thể định lượng: các tác nhân này có thể khai thác lỗ hổng của hợp đồng thông minh để thu lợi nhuận. Một nghiên cứu gần đây của MATS và Anthropic Fellows đã sử dụng bộ tiêu chuẩn khai thác hợp đồng thông minh Smart CONtracts Exploitation benchmark (SCONE-bench) để đo lường rủi ro này.

Nghiên cứu đã triển khai thành công các mô hình như Claude Opus 4.5, Claude Sonnet 4.5, và GPT-5 để phát triển các khai thác mô phỏng có giá trị lên tới 4,6 triệu đô la Mỹ. SCONE-bench bao gồm 405 hợp đồng thông minh đã thực sự bị khai thác trong giai đoạn 2020 đến 2025. Trong báo cáo nghiên cứu ngày 1/12, nhóm nghiên cứu cho biết thành công của các tác nhân AI trong phát triển khai thác và thử nghiệm trên trình mô phỏng blockchain đã “thiết lập một giới hạn dưới cụ thể cho thiệt hại kinh tế mà các khả năng này có thể gây ra.”

Nghiên cứu còn tiến xa hơn khi thử nghiệm Sonnet 4.5 và GPT-5 trên 2.849 hợp đồng vừa được triển khai, không có lỗ hổng đã biết. Các tác nhân đã chứng minh khả năng tạo ra các khai thác sinh lợi ngay cả trong môi trường mới này: cả hai đã phát hiện hai lỗ hổng zero-day chưa từng biết và tạo ra các khai thác trị giá 3.694 đô la Mỹ. GPT-5 đạt được thành công này với chi phí API chỉ 3.476 đô la Mỹ.

Đọc thêm: Từ DeFi đến Defcon: TRM Cảnh Báo Về Cuộc Tấn Công Không Gian Mạng Của Các Quốc Gia

Kết quả này đóng vai trò là bằng chứng cho tính khả thi về mặt kỹ thuật của việc khai thác tự động, sinh lợi trong thế giới thực, nhấn mạnh nhu cầu cấp thiết về các cơ chế phòng thủ chủ động do AI dẫn dắt.

Phát hiện có lẽ đáng lo ngại nhất là sự gia tăng hiệu quả đáng kể: kẻ tấn công hiện có thể thực hiện số khai thác thành công cao hơn khoảng 3,4 lần với cùng ngân sách tính toán so với sáu tháng trước. Thêm vào đó, chi phí token cho mỗi khai thác thành công đã giảm tới 70%, khiến việc vận hành các tác nhân mạnh mẽ này rẻ hơn nhiều.

Vai trò của Agentic Loops và Cải tiến Mô hình

Jean Rausis, đồng sáng lập tại SMARDEX, cho rằng nguyên nhân chính của sự sụt giảm chi phí này là nhờ các agentic loop. Các vòng lặp này cho phép quy trình làm việc nhiều bước, tự điều chỉnh, giúp giảm lãng phí token trong quá trình phân tích hợp đồng. Rausis cũng nhấn mạnh vai trò của kiến trúc mô hình cải tiến:

“Các cửa sổ ngữ cảnh lớn hơn và công cụ ghi nhớ trong các mô hình như Claude Opus 4.5 và GPT-5 cho phép mô phỏng liên tục mà không lặp lại, tăng hiệu suất từ 15-100% trong các nhiệm vụ dài.”

Ông lưu ý rằng những cải tiến tối ưu hóa này vượt xa việc chỉ nâng cao khả năng phát hiện lỗ hổng (chỉ tăng tỷ lệ thành công trên SCONE-bench từ 2% lên 51%), vì chúng tập trung vào tối ưu hóa thời gian chạy thay vì chỉ phát hiện lỗi.

Trong khi nghiên cứu đưa ra chi phí mô phỏng là 4,6 triệu đô la Mỹ, các chuyên gia lo ngại chi phí kinh tế thực tế có thể cao hơn nhiều. Rausis ước tính rủi ro thực tế có thể cao hơn 10-100 lần, có khả năng đạt $50 triệu đến $500 triệu hoặc hơn cho mỗi vụ khai thác lớn. Ông cảnh báo rằng với sự mở rộng của AI, tổng mức độ phơi nhiễm toàn ngành—khi tính cả đòn bẩy chưa được mô hình hóa và các lỗi oracle—có thể đạt 10–20 tỷ đô la Mỹ mỗi năm.

Bài báo của MATS và Anthropic Fellows kết luận bằng một cảnh báo: mặc dù hợp đồng thông minh có thể là mục tiêu ban đầu của làn sóng tấn công tự động này, phần mềm độc quyền có khả năng sẽ là mục tiêu tiếp theo khi các tác nhân ngày càng giỏi hơn trong việc đảo ngược kỹ thuật.

Quan trọng là, bài báo cũng nhắc rằng cùng các tác nhân AI này có thể được triển khai cho phòng thủ để vá lỗ hổng. Để giảm rủi ro tài chính hệ thống từ các cuộc tấn công DeFi dễ tự động hóa, Rausis đề xuất kế hoạch hành động ba bước dành cho các nhà hoạch định chính sách và cơ quan quản lý: giám sát AI, tiêu chuẩn kiểm toán mới và phối hợp toàn cầu.

Câu hỏi thường gặp ❓

  • Nghiên cứu tiết lộ gì về các tác nhân AI? Các mô hình AI như GPT‑5 và Claude đã khai thác hợp đồng thông minh trị giá 4,6 triệu đô la Mỹ trong mô phỏng.
  • Tại sao rủi ro này ngày càng leo thang trên toàn cầu? Chi phí token cho mỗi khai thác đã giảm 70%, khiến các cuộc tấn công rẻ hơn và dễ mở rộng trên nhiều khu vực.
  • Tác động tài chính có thể vượt ngoài DeFi không? Các chuyên gia cảnh báo tổn thất thực tế có thể lên tới 50 triệu đô la Mỹ–$500M cho mỗi vụ khai thác, với mức độ phơi nhiễm toàn cầu lên đến $20B mỗi năm.
  • Cơ quan quản lý và lập trình viên có thể phản ứng thế nào? Các nhà nghiên cứu kêu gọi giám sát AI, tiêu chuẩn kiểm toán mạnh mẽ hơn và phối hợp xuyên biên giới để bảo vệ hệ thống.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hotXem thêm
  • Vốn hóa:$3.71KNgười nắm giữ:2
    0.05%
  • Vốn hóa:$3.75KNgười nắm giữ:3
    0.59%
  • Vốn hóa:$4.04KNgười nắm giữ:3
    2.43%
  • Vốn hóa:$3.7KNgười nắm giữ:1
    0.96%
  • Vốn hóa:$3.62KNgười nắm giữ:2
    0.00%
  • Ghim