Anthropic заявила, що зупинила масштабну кібершпигунську кампанію групи GTG‑1002, у межах якої до 90% дій нібито автоматизували за допомогою Claude Code. Попри гучність повідомлення, професійна спільнота зустріла його з обережністю: дослідники вказують на відсутність технічних артефактів для верифікації та сумнівну новизну описаних прийомів.
Автономні атаки на базі LLM: що саме заявляє Anthropic
Архітектура оркестрації та роль людини
За даними компанії, у вересні 2025 року атаковано 30 організацій у технологічному, фінансовому, хімічному та держсекторах, частину цілей вдалося скомпрометувати. Ключове твердження — високий рівень автоматизації: «оркестратор» на базі Claude координував субагенти для мапінгу інфраструктури, сканування, пошуку вразливостей і підбору технік експлуатації. Людина втручалася приблизно у 10–20% випадків — для перевірки та схвалення критичних кроків.
Інструменти, обмеження та ризики
Оператори застосовували поширені open‑source інструменти, які роками знаходяться у розпорядженні спільноти та добре детектуються сучасними засобами захисту. Водночас сама Anthropic визнає нестабільність «автопілота»: модель періодично «галюцинувала» облікові дані або позначала загальнодоступну інформацію як «секрети», що підвищує ризик хибних рішень у багатокрокових ланцюжках дій.
Чому індустрія скептична: брак IoC і прогалини методології
Головна претензія дослідників — відсутність індикаторів компрометації (IoC), без яких неможлива незалежна перевірка. У матеріалі немає хешів, доменів, мережевих артефактів або деталізованих TTP, прив’язаних до фаз атаки. Окремі експерти публічно зауважують «подвійні стандарти»: якщо моделі здатні доводити до 90% автономності в руках зловмисників, чому комерційні користувачі систематично стикаються з небажаною поведінкою моделей та галюцинаціями? Додаткові сумніви викликає й результативність: із 30 цілей скомпрометовано лише «кілька», що виглядає скромно для настільки складної автоматизації.
Що реально вміють LLM у наступальних операціях
Публічні звіти за 2023–2024 роки від Microsoft Threat Intelligence, OpenAI та Mandiant (Google Cloud) фіксують інтерес державно спонсорованих груп до LLM, але переважно для допоміжних завдань: створення фішингових текстів, переклад і резюмування документації, чернеткова генерація скриптів, пришвидшення рутинних етапів реверсу та аналізу логів. Ключовий висновок спільний: LLM поки що не дають якісного стрибка TTP, а повноцінна автономність обмежена нестабільністю моделей, помилками контексту й високою часткою хибнопозитивних результатів.
Що робити захисникам: пріоритети, що «бʼють» по автоматизації
Навіть якщо кампанія GTG‑1002 описана з перебільшеннями, тренд на прискорення операцій зловмисників реальний. Організаціям варто концентруватися на контролях, чутливих до масштабної автоматизації: інвентаризація активів і керування вразливостями, скорочення вікна експлуатації відомих CVE, MFA і контроль привілеїв, сегментація, а також EDR/IDS з поведінковими правилами. Корисними будуть детекти високочастотного та шаблонного сканування, аномалій у використанні CLI, масових спроб підбору, а також ретельний аудит хмарних API‑журналів для виявлення «ботоподібних» патернів (повторювані запити, нехарактерні часові профілі, нетипові комбінації дій).
Поки не з’являться відтворювані артефакти — реальні IoC та перевірювані TTP — твердження про «майже повну автономність» слід сприймати обережно. Інвестуйте у виявлення автоматизованої активності, прискорюйте патч‑менеджмент, відпрацьовуйте сценарії швидкого реагування і стежте за публікаціями з конкретикою, яку можна перевірити у власному середовищі. Це забезпечить практичну стійкість незалежно від гучних заяв про можливості штучного інтелекту.