Слияние ИИ и Web3: Восход децентрализованного искусственного интеллекта в финансах и его проблемы безопасности
Недавно в Стамбуле прошла важная блокчейн-конференция, сосредоточенная на тенденциях слияния AI и Web3. Это мероприятие стало важной платформой для обсуждения вопросов безопасности Web3 в этом году. В ходе двух круглых столов несколько экспертов в отрасли провели глубокое обсуждение текущего состояния применения технологий AI в области Децентрализация финансов (DeFi) и связанных с ними проблем безопасности.
С быстрым развитием больших языковых моделей и ИИ-агентов постепенно формируется новая финансовая модель — Децентрализация Искусственного Интеллекта в Финансах (DeFAI). Однако эта инновация также принесла новые угрозы безопасности и потенциальные риски.
Один из руководителей безопасности отметил: "Хотя DeFAI имеет большие перспективы, нам необходимо пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агента подвержен влиянию множества факторов и имеет непредсказуемый характер. Это не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможность для атаки."
AI-агенты по своей сути являются интеллектуальными системами, способными принимать решения и выполнять действия на основе логики ИИ, обычно работающими под полномочиями пользователей, протоколов или Децентрализации (DAO). При этом AI-торговые роботы являются наиболее典型ными представителями. В настоящее время большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как атаки внедрения, манипуляции с моделями или подделка данных. Как только AI-агент будет захвачен, это может привести не только к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, отслеживает информацию в социальных сетях в качестве торгового сигнала, злоумышленники могут опубликовать ложные тревоги, такие как "протокол подвергся атаке", чтобы заставить агента немедленно запустить экстренную ликвидацию. Это не только приведет к потерям активов пользователей, но и может вызвать колебания на рынке, которые злоумышленники используют для высокочастотной торговли.
По мнению экспертов, участвующих в обсуждении, безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны четко понимать диапазон полномочий агентов, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочке, а также сотрудничать с различными сторонами для выявления рисков и выработки мер по их смягчению.
Один из экспертов по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черные ящики', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он предложил разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализована с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологий блокчейна и постепенным совершенствованием регулирующей среды, интеграция ИИ и Web3 будет продолжать углубляться, но в то же время это также приведет к новым вызовам безопасности. Отрасли необходимо совместными усилиями обеспечивать инновации, одновременно постоянно совершенствуя меры безопасности для обеспечения здорового развития DeFAI.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
4
Поделиться
комментарий
0/400
NervousFingers
· 07-27 06:55
Так сложно, не могу играть, не могу играть~
Посмотреть ОригиналОтветить0
ThatsNotARugPull
· 07-27 06:55
Чем больше炒, тем больше安全问题..
Посмотреть ОригиналОтветить0
TokenToaster
· 07-27 06:47
Это всего лишь запугивающий заголовок. Понять могут только понимающие.
Посмотреть ОригиналОтветить0
ETHReserveBank
· 07-27 06:33
Ничего не сказав, сразу же свалили вину на пользователя.
Слияние AI и Web3: Восход DeFAI приносит новые вызовы безопасности
Слияние ИИ и Web3: Восход децентрализованного искусственного интеллекта в финансах и его проблемы безопасности
Недавно в Стамбуле прошла важная блокчейн-конференция, сосредоточенная на тенденциях слияния AI и Web3. Это мероприятие стало важной платформой для обсуждения вопросов безопасности Web3 в этом году. В ходе двух круглых столов несколько экспертов в отрасли провели глубокое обсуждение текущего состояния применения технологий AI в области Децентрализация финансов (DeFi) и связанных с ними проблем безопасности.
С быстрым развитием больших языковых моделей и ИИ-агентов постепенно формируется новая финансовая модель — Децентрализация Искусственного Интеллекта в Финансах (DeFAI). Однако эта инновация также принесла новые угрозы безопасности и потенциальные риски.
Один из руководителей безопасности отметил: "Хотя DeFAI имеет большие перспективы, нам необходимо пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агента подвержен влиянию множества факторов и имеет непредсказуемый характер. Это не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможность для атаки."
AI-агенты по своей сути являются интеллектуальными системами, способными принимать решения и выполнять действия на основе логики ИИ, обычно работающими под полномочиями пользователей, протоколов или Децентрализации (DAO). При этом AI-торговые роботы являются наиболее典型ными представителями. В настоящее время большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как атаки внедрения, манипуляции с моделями или подделка данных. Как только AI-агент будет захвачен, это может привести не только к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, отслеживает информацию в социальных сетях в качестве торгового сигнала, злоумышленники могут опубликовать ложные тревоги, такие как "протокол подвергся атаке", чтобы заставить агента немедленно запустить экстренную ликвидацию. Это не только приведет к потерям активов пользователей, но и может вызвать колебания на рынке, которые злоумышленники используют для высокочастотной торговли.
По мнению экспертов, участвующих в обсуждении, безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны четко понимать диапазон полномочий агентов, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочке, а также сотрудничать с различными сторонами для выявления рисков и выработки мер по их смягчению.
Один из экспертов по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черные ящики', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он предложил разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализована с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологий блокчейна и постепенным совершенствованием регулирующей среды, интеграция ИИ и Web3 будет продолжать углубляться, но в то же время это также приведет к новым вызовам безопасности. Отрасли необходимо совместными усилиями обеспечивать инновации, одновременно постоянно совершенствуя меры безопасности для обеспечения здорового развития DeFAI.