Anthropic говорит, что искусственный интеллект (AI) достиг ключевого порога в кибербезопасности, и новые доказательства показывают, что модели ИИ теперь способны выполнять крупные кибероперации — как защитные, так и наступательные — в беспрецедентных масштабах.
ИИ достиг точки кипения в кибербезопасности, предупреждает Anthropic в новом исследовании
Компания Anthropic, стоящая за Claude, заявляет, что ее внутренние оценки и работа по анализу угроз показывают решительный сдвиг в развитии киберспособностей. Согласно недавно опубликованному расследованию, киберспособности среди ИИ-систем удвоились за шесть месяцев, что подтверждается измерениями реальной активности и тестированием на основе моделей.
Компания утверждает, что ИИ теперь существенно влияет на глобальную безопасность, особенно поскольку злонамеренные акторы все чаще применяют автоматизированные схемы атак. В своем последнем отчете Anthropic подробно описывает то, что они называют первым задокументированным случаем кибершпионской кампании, организованной ИИ. Команда Threat Intelligence фирмы выявила и сорвала крупномасштабную операцию в середине сентября 2025 года, которую приписывают китайской государственной группе, обозначенной как GTG-1002.
Источник: X
Группа, как сообщается, использовала скоординированные экземпляры Claude Code для проведения разведки, обнаружения уязвимостей, эксплуатации, бокового перемещения, извлечения метаданных и эксфильтрации данных — в значительной степени без участия человека. Кампания была нацелена примерно на 30 организаций в таких секторах, как технологии, финансы, химия и несколько государственных учреждений. Anthropic подтвердил несколько успешных вторжений перед вмешательством.
Источник: отчет Anthropic.
Аналитики сообщают, что злоумышленники использовали автономную структуру, способную разбивать многоступенчатые атаки на более мелкие задачи, которые казались законными, когда их изолировали от более широкого контекста. Это позволило участникам передавать запросы через установленные личности и убеждать Клода в том, что операции были тестами оборонительной безопасности, а не наступательными кампаниями.
Согласно расследованию, Клод автономно выполнил 80% до 90% тактических операций. Человеческие операторы предоставили лишь стратегический надзор, утверждая основные шаги, такие как переход от разведки к активной эксплуатации или авторизация экстракции данных. В отчете описывается уровень оперативного темпа, невозможный для команд только из людей, при этом некоторые рабочие процессы генерируют несколько операций в секунду по тысячам запросов.
Источник: отчет Anthropic.
Anthropic сообщает, что жизненный цикл атаки продвинулся через структурированный процесс, где автономия ИИ увеличивалась на каждом этапе. Claude независимо картировал поверхности атак, сканировал живые системы, создавал настраиваемые полезные нагрузки для проверенных уязвимостей, собирал учетные данные и переходил через внутренние сети. Он также анализировал украденные данные, идентифицировал ценные разведывательные сведения и автоматически генерировал подробную операционную документацию, позволяющую обеспечить постоянный доступ и передачу между операторами.
Одним из ограничений, как отмечает отчет, была тенденция модели к галлюцинациям при агрессивных нагрузках — иногда завышая доступ, выдумывая учетные данные или неправильно классифицируя общедоступную информацию как конфиденциальную. Тем не менее, Anthropic утверждает, что актор компенсировал это с помощью этапов валидации, демонстрируя, что полностью автономные наступательные операции остаются осуществимыми, несмотря на недостатки современных моделей.
После его обнаружения Anthropic заблокировала соответствующие аккаунты, уведомила затронутые организации, скоординировалась с властями и внедрила новые защитные механизмы, включая улучшенные классификаторы для обнаружения новых угроз. Компания теперь разрабатывает системы раннего предупреждения, предназначенные для выявления попыток автономного вторжения, и создает новые инструменты для расследования масштабных распределенных кибератак.
Читать далее: «Магнитный рынок» Microsoft показывает, как AI-агенты могут потерпеть крах под давлением
Фирма утверждает, что хотя эти возможности могут быть использованы в качестве оружия, они также критически важны для повышения оборонной готовности. Anthropic отмечает, что ее собственная команда по анализу угроз сильно полагалась на Claude для анализа огромных объемов данных, сгенерированных во время расследования. Она призывает команды безопасности начать внедрение автоматизации на основе ИИ для центров операций безопасности, обнаружения угроз, анализа уязвимостей и реагирования на инциденты.
Однако в отчете предупреждается, что барьеры кибератак «существенно снизились», так как системы ИИ позволяют небольшим группам — или даже отдельным лицам — выполнять операции, ранее ограниченные хорошо финансируемыми государственными актерами. Anthropic ожидает быстрого распространения этих технологий в более широкую угроза, призывая к более глубокой кооперации, улучшенным защитным мерам и более широкому участию отрасли в обмене угрозами для противодействия новым моделям атак с использованием ИИ.
ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ ❓
**Что обнаружила Anthropic в своем расследовании?**Anthropic выявила и пресекла крупномасштабную кампанию кибершпионажа, которая использовала ИИ для автоматизации большинства атак.
**Кто стоял за атакой?**Фирма приписала операцию группе, поддерживаемой китайским государством, обозначенной как GTG-1002.
Как ИИ использовался в атаках? Злоумышленники использовали Claude Code для автономного выполнения разведки, эксплуатации, бокового перемещения и извлечения данных.
Почему отчет важен для команд кибербезопасности? Anthropic утверждает, что данный случай показывает, что автономные атаки с использованием искусственного интеллекта теперь возможны в большом масштабе и требуют новых стратегий защиты.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Anthropic предупреждает, что барьеры кибератак упали по мере ускорения возможностей ИИ
Anthropic говорит, что искусственный интеллект (AI) достиг ключевого порога в кибербезопасности, и новые доказательства показывают, что модели ИИ теперь способны выполнять крупные кибероперации — как защитные, так и наступательные — в беспрецедентных масштабах.
ИИ достиг точки кипения в кибербезопасности, предупреждает Anthropic в новом исследовании
Компания Anthropic, стоящая за Claude, заявляет, что ее внутренние оценки и работа по анализу угроз показывают решительный сдвиг в развитии киберспособностей. Согласно недавно опубликованному расследованию, киберспособности среди ИИ-систем удвоились за шесть месяцев, что подтверждается измерениями реальной активности и тестированием на основе моделей.
Компания утверждает, что ИИ теперь существенно влияет на глобальную безопасность, особенно поскольку злонамеренные акторы все чаще применяют автоматизированные схемы атак. В своем последнем отчете Anthropic подробно описывает то, что они называют первым задокументированным случаем кибершпионской кампании, организованной ИИ. Команда Threat Intelligence фирмы выявила и сорвала крупномасштабную операцию в середине сентября 2025 года, которую приписывают китайской государственной группе, обозначенной как GTG-1002.
Согласно расследованию, Клод автономно выполнил 80% до 90% тактических операций. Человеческие операторы предоставили лишь стратегический надзор, утверждая основные шаги, такие как переход от разведки к активной эксплуатации или авторизация экстракции данных. В отчете описывается уровень оперативного темпа, невозможный для команд только из людей, при этом некоторые рабочие процессы генерируют несколько операций в секунду по тысячам запросов.
Одним из ограничений, как отмечает отчет, была тенденция модели к галлюцинациям при агрессивных нагрузках — иногда завышая доступ, выдумывая учетные данные или неправильно классифицируя общедоступную информацию как конфиденциальную. Тем не менее, Anthropic утверждает, что актор компенсировал это с помощью этапов валидации, демонстрируя, что полностью автономные наступательные операции остаются осуществимыми, несмотря на недостатки современных моделей.
После его обнаружения Anthropic заблокировала соответствующие аккаунты, уведомила затронутые организации, скоординировалась с властями и внедрила новые защитные механизмы, включая улучшенные классификаторы для обнаружения новых угроз. Компания теперь разрабатывает системы раннего предупреждения, предназначенные для выявления попыток автономного вторжения, и создает новые инструменты для расследования масштабных распределенных кибератак.
Читать далее: «Магнитный рынок» Microsoft показывает, как AI-агенты могут потерпеть крах под давлением
Фирма утверждает, что хотя эти возможности могут быть использованы в качестве оружия, они также критически важны для повышения оборонной готовности. Anthropic отмечает, что ее собственная команда по анализу угроз сильно полагалась на Claude для анализа огромных объемов данных, сгенерированных во время расследования. Она призывает команды безопасности начать внедрение автоматизации на основе ИИ для центров операций безопасности, обнаружения угроз, анализа уязвимостей и реагирования на инциденты.
Однако в отчете предупреждается, что барьеры кибератак «существенно снизились», так как системы ИИ позволяют небольшим группам — или даже отдельным лицам — выполнять операции, ранее ограниченные хорошо финансируемыми государственными актерами. Anthropic ожидает быстрого распространения этих технологий в более широкую угроза, призывая к более глубокой кооперации, улучшенным защитным мерам и более широкому участию отрасли в обмене угрозами для противодействия новым моделям атак с использованием ИИ.
ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ ❓