Артефакты ИИ в фишинговых атаках: новые уязвимости кибербезопасности

CyberSecureFox 🦊

Специалисты по кибербезопасности из «Лаборатории Касперского» провели масштабное исследование фишинговых и мошеннических веб-ресурсов, выявив неожиданную тенденцию: использование злоумышленниками больших языковых моделей (LLM) для генерации контента оставляет характерные «следы», которые могут помочь в идентификации поддельных сайтов.

Использование ИИ в создании фишинговых сайтов

Современные киберпреступники активно применяют технологии искусственного интеллекта для автоматизации процесса создания фальшивых веб-страниц. Эти ресурсы могут имитировать сайты известных организаций, от социальных сетей до банковских учреждений, или представлять собой поддельные интернет-магазины с нереальными скидками. Однако несовершенство LLM и недостаточный контроль со стороны злоумышленников приводят к появлению специфических артефактов, которые могут служить индикаторами мошеннической деятельности.

Характерные признаки использования LLM

Исследователи выделили несколько ключевых маркеров, свидетельствующих о применении языковых моделей:

1. Фразы-отказы

Наиболее явным признаком является наличие фраз, в которых ИИ «отказывается» выполнить определенный запрос. Например: «I’m sorry, but as an AI language model, I cannot provide specific articles on demand». Подобные формулировки уже стали своеобразным мемом в интернет-сообществе.

2. Лексические предпочтения

Языковые модели часто демонстрируют склонность к использованию определенных слов и выражений. Так, модели OpenAI часто употребляют слово «delve» (погружаться, вникать). Также распространены шаблонные конструкции вроде «in the ever-evolving, ever-changing world».

3. Временные ограничения

LLM часто указывают на ограниченность своих знаний определенной датой, например: «согласно моему последнему обновлению в январе 2023 года». Это связано с особенностями обучения моделей на ограниченных по времени датасетах.

4. Метаданные

Артефакты могут присутствовать не только в основном тексте, но и в метатегах страницы. Исследователи обнаружили случаи, когда в служебных тегах содержались ссылки на онлайн-сервисы генерации сайтов на базе LLM.

Ограничения и рекомендации по безопасности

Важно отметить, что наличие отдельных «подозрительных» фраз или слов не является стопроцентным доказательством мошеннического характера ресурса. Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского», подчеркивает: «Подход, основанный на определении поддельной страницы по наличию тех или иных „говорящих слов», ненадежен».

Для обеспечения безопасности рекомендуется следовать базовым правилам кибергигиены: критически оценивать любую информацию в интернете, обращать внимание на логические ошибки и опечатки, проверять соответствие URL официальным адресам и избегать перехода по ссылкам из подозрительных сообщений. Только комплексный подход к оценке онлайн-ресурсов может обеспечить надежную защиту от фишинговых атак в эпоху повсеместного использования искусственного интеллекта.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.