Специалисты по кибербезопасности из «Лаборатории Касперского» провели масштабное исследование фишинговых и мошеннических веб-ресурсов, выявив неожиданную тенденцию: использование злоумышленниками больших языковых моделей (LLM) для генерации контента оставляет характерные «следы», которые могут помочь в идентификации поддельных сайтов.
Использование ИИ в создании фишинговых сайтов
Современные киберпреступники активно применяют технологии искусственного интеллекта для автоматизации процесса создания фальшивых веб-страниц. Эти ресурсы могут имитировать сайты известных организаций, от социальных сетей до банковских учреждений, или представлять собой поддельные интернет-магазины с нереальными скидками. Однако несовершенство LLM и недостаточный контроль со стороны злоумышленников приводят к появлению специфических артефактов, которые могут служить индикаторами мошеннической деятельности.
Характерные признаки использования LLM
Исследователи выделили несколько ключевых маркеров, свидетельствующих о применении языковых моделей:
1. Фразы-отказы
Наиболее явным признаком является наличие фраз, в которых ИИ «отказывается» выполнить определенный запрос. Например: «I’m sorry, but as an AI language model, I cannot provide specific articles on demand». Подобные формулировки уже стали своеобразным мемом в интернет-сообществе.
2. Лексические предпочтения
Языковые модели часто демонстрируют склонность к использованию определенных слов и выражений. Так, модели OpenAI часто употребляют слово «delve» (погружаться, вникать). Также распространены шаблонные конструкции вроде «in the ever-evolving, ever-changing world».
3. Временные ограничения
LLM часто указывают на ограниченность своих знаний определенной датой, например: «согласно моему последнему обновлению в январе 2023 года». Это связано с особенностями обучения моделей на ограниченных по времени датасетах.
4. Метаданные
Артефакты могут присутствовать не только в основном тексте, но и в метатегах страницы. Исследователи обнаружили случаи, когда в служебных тегах содержались ссылки на онлайн-сервисы генерации сайтов на базе LLM.
Ограничения и рекомендации по безопасности
Важно отметить, что наличие отдельных «подозрительных» фраз или слов не является стопроцентным доказательством мошеннического характера ресурса. Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского», подчеркивает: «Подход, основанный на определении поддельной страницы по наличию тех или иных „говорящих слов», ненадежен».
Для обеспечения безопасности рекомендуется следовать базовым правилам кибергигиены: критически оценивать любую информацию в интернете, обращать внимание на логические ошибки и опечатки, проверять соответствие URL официальным адресам и избегать перехода по ссылкам из подозрительных сообщений. Только комплексный подход к оценке онлайн-ресурсов может обеспечить надежную защиту от фишинговых атак в эпоху повсеместного использования искусственного интеллекта.