Безопасные вызовы в контексте тенденции слияния ИИ и Web3
В последнее время Неделя блокчейна в Стамбуле (IBW 2025) стала важной платформой для обсуждения безопасности Web3. В ходе двухдневной конференции несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области децентрализованных финансов и связанных с этим проблем безопасности.
В ходе конференции "Децентрализованный Искусственный Интеллект в Финансах" (DeFAI) стал горячей темой обсуждения. С быстрым развитием крупных языковых моделей и AI-агентов эта новая финансовая парадигма постепенно формируется. Однако она также принесла новые векторы атак и риски безопасности.
Некоторые высокопоставленные сотрудники компании по безопасности указывают, что у DeFAI широкие перспективы, но в то же время необходимо переосмыслить механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентом зависит от множества факторов и обладает непредсказуемостью, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников.
Искусственный интеллект-агенты — это интеллектуальные сущности, которые могут принимать самостоятельные решения и выполнять действия на основе логики искусственного интеллекта, обычно действующие по разрешению пользователя, протокола или децентрализованной автономной организации. Среди них торговые роботы на базе ИИ являются наиболее типичными представителями. В настоящее время большинство ИИ-агентов по-прежнему зависят от централизованной архитектуры, что делает их уязвимыми к различным сетевым атакам. В случае захвата это может не только привести к потерям средств, но и повлиять на стабильность всего протокола.
На встрече также обсудили типичный сценарий атаки: когда AI-торговый агент пользователя DeFi мониторит социальные сети в качестве торговых сигналов, злоумышленник может запустить публикацию ложных оповещений, чтобы заставить агента совершить неправильные действия, что может привести к убыткам для пользователей и колебаниям на рынке.
В отношении этих рисков эксперты, присутствовавшие на встрече, единогласно пришли к выводу, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции AI-агентов; разработчики должны внедрять меры защиты на этапе проектирования; третьи стороны по безопасности обязаны предоставлять независимую проверку и помогать в выявлении рисков и предложении мер по их смягчению.
Некоторые эксперты по безопасности предупреждают, что если продолжать рассматривать AI-агентов как "черный ящик", то инциденты безопасности в реальном мире — это лишь вопрос времени. Они рекомендуют разработчикам, исследующим направление DeFAI, проводить профессиональные аудиты безопасности и тестирования на проникновение, так же как это делается для смарт-контрактов.
Как одно из самых влиятельных блокчейн-мероприятий в Европе, IBW привлекла более 15 тысяч разработчиков, представителей проектов, инвесторов и регуляторов со всего мира. С официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капитальным рынкам Турции, статус IBW в отрасли был дополнительно повышен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Безопасность AI-агентов становится новой угрозой Web3: риски DeFAI вызывают настороженность в отрасли
Безопасные вызовы в контексте тенденции слияния ИИ и Web3
В последнее время Неделя блокчейна в Стамбуле (IBW 2025) стала важной платформой для обсуждения безопасности Web3. В ходе двухдневной конференции несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области децентрализованных финансов и связанных с этим проблем безопасности.
В ходе конференции "Децентрализованный Искусственный Интеллект в Финансах" (DeFAI) стал горячей темой обсуждения. С быстрым развитием крупных языковых моделей и AI-агентов эта новая финансовая парадигма постепенно формируется. Однако она также принесла новые векторы атак и риски безопасности.
Некоторые высокопоставленные сотрудники компании по безопасности указывают, что у DeFAI широкие перспективы, но в то же время необходимо переосмыслить механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентом зависит от множества факторов и обладает непредсказуемостью, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников.
Искусственный интеллект-агенты — это интеллектуальные сущности, которые могут принимать самостоятельные решения и выполнять действия на основе логики искусственного интеллекта, обычно действующие по разрешению пользователя, протокола или децентрализованной автономной организации. Среди них торговые роботы на базе ИИ являются наиболее типичными представителями. В настоящее время большинство ИИ-агентов по-прежнему зависят от централизованной архитектуры, что делает их уязвимыми к различным сетевым атакам. В случае захвата это может не только привести к потерям средств, но и повлиять на стабильность всего протокола.
На встрече также обсудили типичный сценарий атаки: когда AI-торговый агент пользователя DeFi мониторит социальные сети в качестве торговых сигналов, злоумышленник может запустить публикацию ложных оповещений, чтобы заставить агента совершить неправильные действия, что может привести к убыткам для пользователей и колебаниям на рынке.
В отношении этих рисков эксперты, присутствовавшие на встрече, единогласно пришли к выводу, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции AI-агентов; разработчики должны внедрять меры защиты на этапе проектирования; третьи стороны по безопасности обязаны предоставлять независимую проверку и помогать в выявлении рисков и предложении мер по их смягчению.
Некоторые эксперты по безопасности предупреждают, что если продолжать рассматривать AI-агентов как "черный ящик", то инциденты безопасности в реальном мире — это лишь вопрос времени. Они рекомендуют разработчикам, исследующим направление DeFAI, проводить профессиональные аудиты безопасности и тестирования на проникновение, так же как это делается для смарт-контрактов.
Как одно из самых влиятельных блокчейн-мероприятий в Европе, IBW привлекла более 15 тысяч разработчиков, представителей проектов, инвесторов и регуляторов со всего мира. С официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капитальным рынкам Турции, статус IBW в отрасли был дополнительно повышен.