Генеративний штучний інтелект перестає бути виключно інструментом для бізнесу й розробників та перетворюється на важливий ресурс для кіберзлочинців. Свіжий звіт Google Threat Intelligence Group (GTIG) показує, що північнокорейський угрупований кластер UNC2970, пов’язаний з Lazarus Group, Diamond Sleet та Hidden Cobra, системно використовує модель Google Gemini для розвідки, профілювання цілей і підготовки складних атак на високоприоритетні організації.
«Dream Job» 2.0: цільові атаки на оборонний та високотехнологічний сектори
Група UNC2970 давно асоціюється з атаками на аерокосмічну, оборонну та енергетичну галузі. Однією з найвідоміших кампаній стала багаторівнева Operation Dream Job, у межах якої зловмисники видавали себе за рекрутерів глобальних компаній і розсилали «вигідні вакансії» спеціалістам високої кваліфікації.
Мета такої соціальної інженерії — змусити ціль відкрити заражений документ, перейти за шкідливим посиланням або встановити «тестове завдання», що фактично є завантажувачем шкідливого ПЗ. За оцінкою GTIG, UNC2970 зберігає фокус на оборонних підрядниках та компаніях у сфері кібербезпеки, але тепер якість легенди та переконливість фішингових сценаріїв посилюються за рахунок генеративного ІІ.
OSINT та профілювання жертв: роль Google Gemini в розвідці
Аналітики Google зафіксували використання Gemini для OSINT-розвідки (open-source intelligence) — автоматизованого аналізу публічних джерел. Зокрема, зловмисники застосовували модель для:
— збору відомостей про великі компанії в галузях оборони та кібербезпеки;
— деталізації технічних ролей, стеків технологій та зони відповідальності ключових фахівців;
— аналізу ринкових рівнів заробітних плат та очікувань кандидатів для побудови реалістичних HR-пропозицій.
За спостереженнями GTIG, така автоматизація розвідки розмиває межу між легітимним аналізом ринку праці та зловмисним профілюванням. Чим краще атакуючі розуміють структуру організації, мотивацію співробітників і типові кар’єрні траєкторії, тим більш цілеспрямованими та переконливими стають їхні фішингові персони, а отже — зростає ймовірність первинного компрометування корпоративних облікових записів.
HONESTCUE, COINBAIT та ClickFix: генеративний ІІ як сервіс для кіберзлочинців
HONESTCUE: генерація шкідливого коду «на льоту» через Gemini API
Окрему загрозу становить виявлений Google шкідливий інструмент HONESTCUE — фреймворк-завантажувач, який напряму звертається до API Google Gemini. Він передає моделі промпт і отримує у відповідь вихідний код на C# для наступного етапу атаки.
Замість класичної схеми оновлення через зашиті модулі, HONESTCUE делегує генерацію функціоналу другої стадії самій ІІ-моделі. Згенерований C#-код компілюється й виконується у пам’яті за допомогою легітимного механізму .NET CSharpCodeProvider. Такий fileless-підхід (без запису файлів на диск) суттєво ускладнює виявлення атаки традиційними антивірусами й підсилює стійкість malware до статичного аналізу.
COINBAIT та кампанії ClickFix: фішингові сервіси, створені ІІ
Ще один приклад зловживання генеративним ІІ — фішинговий набір COINBAIT, розроблений із використанням сервісу Lovable AI. Набір маскується під інтерфейс криптовалютної біржі, спрямований на викрадення облікових даних користувачів. Окремі елементи цієї активності Google пов’язує з фінансово мотивованим кластером UNC5356. Поява готових «ІІ-згенерованих» фішингових рішень знижує поріг входу для менш досвідчених злочинців і дозволяє швидко масштабувати кампанії.
Паралельно фіксуються кампанії ClickFix, де зловмисники використовують механізми публічного шерингу в сервісах генеративного ІІ. Жертвам демонструють правдоподібні «інструкції з виправлення поширеної проблеми з ПК», але фактично нав’язують інсталяцію інфостілера — шкідливого ПЗ для крадіжки паролів і конфіденційних даних. Подібну активність у грудні 2025 року детально описала компанія Huntress.
Model extraction: спроби відтворити поведінку Gemini через масові запити
Окрім прямого використання Gemini у атаках, GTIG фіксує масштабні атаки на витік моделі (model extraction). Їхня мета — через масові, систематизовані запити до закритого API побудувати власну модель, що максимально точно копіює поведінку оригіналу.
В одному з кейсів зловмисники надіслали до Gemini понад 100 000 промптів різними неангломовними мовами, щоб відтворити здатність моделі до багатомовного міркування та розв’язання широкого спектра задач. Подібний підхід на рівні proof-of-concept продемонструвала й компанія Praetorian: репліка моделі досягла точності 80,1% після приблизно 1000 запитів до API і 20 епох навчання. Дослідниця Фаріда Шафік наголошує: «Багато організацій вважають, що достатньо тримати ваги моделі в секреті. Але поведінка — і є модель. Кожна пара запит–відповідь стає навчальним прикладом для її копії».
Як реагує Google і що мають робити організації
За даними GTIG, зловмисники систематично намагаються обійти захист генеративних моделей, маскуючи свої промпти під запити від дослідників безпеки або учасників CTF-змагань. Такі запити покликані спровокувати модель на небажані відповіді під виглядом «навчальних» або «тестових» сценаріїв.
Google стверджує, що постійно посилює захист Gemini — від класіфікаторів для детектування шкідливих запитів до додаткових обмежень, фільтрів і протидії «іграм з персоною». Оновлені сигнатури та поведінкові патерни атак інтегруються в ширшу ініціативу AI Cyber Defense Initiative, започатковану у 2024 році, яка має на меті використати ІІ для подолання «дилеми захисника», коли нападникові достатньо однієї проломленої ланки, а захисник мусить закривати всі.
Компаніям варто вже зараз оновити моделі загроз з урахуванням зловживання генеративним ІІ: від ІІ-згенерованих фішингових листів і динамічного шкідливого коду до атак на самі моделі через публічні API. Практичні кроки включають посилений моніторинг звернень до зовнішніх ІІ-сервісів, сегментацію та контроль API-ключів, регулярне навчання співробітників новим формам соціальної інженерії, а також тестування систем захисту в сценаріях, де атакуючий активно використовує ІІ. Чим раніше організації інтегрують власні AI-рішення для виявлення, аналізу та реагування, тим вища ймовірність, що штучний інтелект стане їхнім інструментом переваги, а не ще одним важелем у руках кібератакувальників.