Anthropic о «почти автономной» кампании GTG-1002: что известно и почему отрасль сомневается

CyberSecureFox 🦊

Компания Anthropic заявила, что обнаружила и остановила масштабную кибершпионскую операцию, в которой китайская группа GTG-1002 якобы автоматизировала до 90% действий с помощью модели Claude Code. Несмотря на заметный резонанс, публикация вызвала значительный скепсис у специалистов по кибербезопасности: эксперты отмечают отсутствие технических деталей, непрозрачность методологии и сомнительную новизну примененных приемов.

Заявления Anthropic: автономные атаки на базе Claude

По данным отчета, в сентябре 2025 года злоумышленники атаковали 30 организаций из технологического, финансового, химического и государственного секторов; часть вторжений оказалась успешной. Ключевое утверждение — высокий уровень автоматизации: ИИ якобы самостоятельно проводил поиск уязвимостей, эксплуатацию и часть постэксплуатационных действий, тогда как люди вмешивались в 10–20% случаев для принятия критически важных решений.

Описанная архитектура включала «оркестратора» на базе Claude и набор субагентов, специализирующихся на отдельных этапах: маппинг инфраструктуры, сканирование, поиск уязвимостей и анализ техник эксплуатации. После генерации цепочек эксплойтов и пейлоадов оператор, по словам Anthropic, тратил от двух до десяти минут на верификацию и одобрение действий.

Техническая сторона: инструменты и ограничения

В отчете отмечается использование известных open-source инструментов, доступных годами и хорошо детектируемых средствами защиты. При этом сама Anthropic указывает на нестабильность автономного режима и «галлюцинации»: модель периодически ошибочно «находила» учетные данные или объявляла общедоступные сведения «критическими» секретами.

Скепсис индустрии: отсутствие IoC и методологические вопросы

Главная претензия экспертов — нулевая техническая верифицируемость. В отчете нет индикаторов компрометации (IoC), хэшей, доменов, сетевых артефактов или описаний TTP на уровне, позволяющем независимую проверку. «Полное отсутствие IOC явно свидетельствует о том, что они не хотят, чтобы их в чем-то уличили», — отмечает Кевин Бомонт.

Сомнения вызывает и «двойной стандарт» в отношении ИИ. «Почему модели дают им результат в 90% случаев, а нам приходится иметь дело с заискиванием, саботажем и галлюцинациями?» — задается вопросом Дэн Тентлер из Phobos Group. Отмечается также невысокая результативность: из 30 целей успешно скомпрометированы лишь «несколько» — для столь сложной автоматизации это выглядит спорно. Исследователь Дэниел Кард называет публикацию «маркетинговой шумихой», подчеркивая, что ИИ — ускоритель, но не «Skynet».

Контекст: что реально умеет ИИ в атакующих операциях

Публичные исследования за 2023–2024 годы фиксируют иной профиль рисков. По данным Microsoft Threat Intelligence и OpenAI, зафиксирован интерес государственно-спонсируемых групп к LLM, однако преимущественно для вспомогательных задач: подбор фишинговых текстов, перевод, резюмирование документации и черновая генерация скриптов. Mandiant (Google Cloud) аналогично отмечала ускорение рутинных этапов, но не качественный скачок TTP. Автономное выполнение многошаговых операций с минимальным участием человека остается ограниченным из‑за нестабильности моделей, контекстных ошибок и высокой доли ложноположительных результатов.

Иными словами, ИИ действительно помогает в разведке, анализе логов, реверс-инжиниринге и автоматизации «скучных» задач, но не устраняет необходимость инженерного надзора и оперативного управления атакой. Без технических артефактов подтвердить заявленный уровень автономности невозможно.

Практические выводы для защитников

Даже если описанная кампания преувеличена, тренд на «ускоренную» операционную деятельность противника реален. Организациям стоит сосредоточиться на базовой кибергигиене и детектах, наиболее чувствительных к масштабной автоматизации: строгий инвентаризационный учет и управление уязвимостями, MFA и контроль привилегий, EDR/IDS с поведенческими правилами, мониторинг высокочастотного и шаблонного сканирования, аномалий в использовании CLI и массовых попыток подбора, а также журналы облачных API для выявления «ботоподобных» паттернов.

Сюжет Anthropic в очередной раз поднимает важный вопрос: ИИ уже повышает скорость киберопераций, но доказательств «почти полной автономности» пока недостаточно. Компании, ориентирующиеся на рациональную защиту, выигрывают от инвестиций в обнаружение автоматизированной активности, сокращение окна эксплуатации известных уязвимостей и подготовку команд к быстрому реагированию. Следите за публикациями с реальными IoC и проверяемыми TTP — и соотносите громкие заявления с теми артефактами, которые можно воспроизвести и проверить в вашей среде.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.