Злоумышленники внедряют ИИ в код малвари: GTIG описывает PromptFlux и переход к метаморфическим атакам

CyberSecureFox 🦊

Исследователи Google Threat Intelligence Group (GTIG) фиксируют качественный сдвиг: киберпреступники используют ИИ не только на этапах подготовки атак, но и в исполняемом коде вредоносных программ. Появляются образцы, способные динамически менять собственный код в рантайме, повышая адаптивность к защитам и усложняя детектирование.

Новый класс угроз: самоизменяющаяся ИИ-малварь

Ключевой пример — экспериментальный дроппер PromptFlux на VBScript. Он сохраняет модифицированные копии в автозагрузку Windows, распространяется по съемным носителям и сетевым шарам, а главное — интегрирован с API Gemini. За счет запросов к языковой модели образец «перегенерирует» обфусцированный код, стремясь нарушить сигнатурное обнаружение и статический анализ.

Thinking Robot: периодический запрос тактик обхода защит

Наиболее инновационный компонент PromptFlux — модуль Thinking Robot, который регулярно обращается к Gemini за новыми техниками обхода антивирусов. Промпты формализованы и машиночитаемы, что говорит о попытке авторов построить метаморфический скрипт — вредонос, чьи варианты исполнения существенно отличаются между итерациями. В отличие от полиморфизма, где меняется упаковка, метаморфизм затрагивает саму структуру кода, усложняя сигнатурный и шаблонный анализ.

Атрибуция и ответные меры Google

По оценке GTIG, PromptFlux находится на ранней стадии и пока ограничен по функциональности, но демонстрирует направление эволюции угроз. Google уже заблокировала доступ образца к Gemini API и удалила инфраструктуру кампании. Связать активность с конкретной группировкой на данный момент не удалось.

Злоупотребление ИИ в реальных атаках: примеры от GTIG

Помимо экспериментальных образцов, GTIG описывает злоупотребления ИИ в действующих операциях. Китайская APT41 применяла модель для улучшения C2-фреймворка OSSTUN и выбора библиотек обфускации. Другая китайская группа маскировалась под участника CTF, чтобы обходить фильтры LLM и получать технические детали эксплуатации уязвимостей.

Иранская MuddyCoast (UNC3313) выдавала себя за студента, используя Gemini для разработки и отладки малвари; в процессе операторы непреднамеренно раскрывали управляющие серверы и ключи. APT42 генерировала фишинговые приманки и создала «агента обработки данных», переводящего естественный язык в SQL-запросы для сбора персональных данных.

Северокорейская Masan (UNC1069) задействовала Gemini в схемах кражи криптовалют, многоязычном фишинге и создании дипфейковых приманок. Группа Pukchong (UNC4899) использовала ИИ для подготовки эксплойтов против пограничных устройств и браузеров. Во всех случаях Google заблокировала связанные аккаунты и усилила защитные механизмы модели.

Криминальные LLM и «рынок продуктивности» для атак

GTIG отмечает рост предложений «ИИ-сервисов для хакеров» на англо- и русскоязычных форумах: от генераторов дипфейков до инструментов для разработки малвари, фишинга и эксплуатации уязвимостей. Авторы копируют маркетинг легитимных платформ, обещая «рост эффективности процессов», предлагают бесплатные редакции и платный доступ к API. По словам технического руководителя GTIG Билли Леонарда, ограничения мейнстримовых платформ подталкивают злоумышленников к нелегальным моделям без правил, что снижает порог входа для менее опытных акторов.

Что это значит для защитников: приоритеты и контроль

Интеграция LLM в цепочки атак ведет к ускоренной итерации вредоносов, росту разнообразия вариантов и снижению стоимости разработки. Организациям стоит усилить мониторинг исходящего трафика к LLM/API, вводить контроль целостности сценариев, применять белые списки в автозагрузке, запрет записи на съемные носители при отсутствии бизнес-потребности, а также поведенческую аналитику, способную выявлять нетипичные вызовы скриптов и самомодификацию кода. Важно развивать возможности «defender’s AI» — использовать ИИ для корреляции телеметрии, анализа обфускации и генерации контрмер.

Переход к ИИ-усиленной малвари только начинается, но тренд устойчив. Инвестиции в обнаружение активности на уровне поведения, ограничение прав сценариев, обучение сотрудников и прозрачность интеграций с LLM-сервисами помогут сократить окно атаки. Отраслевая координация с провайдерами ИИ и своевременное внедрение блокировок, как в кейсе PromptFlux, остаются критически важными.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.