Искусственный интеллект стремительно меняет ландшафт киберпреступности. Согласно ежегодному отчету Интерпола о финансовом мошенничестве, операции с использованием ИИ приносят преступникам в среднем в 4,5 раза больше прибыли, чем «традиционные» схемы. По оценкам организации, совокупные потери от финансового мошенничества в 2025 году достигли порядка 442 млрд долларов США, и эта цифра, по прогнозам, будет расти именно за счет масштабирования атак с применением ИИ.
Как искусственный интеллект повышает эффективность финансового мошенничества
Ключевой фактор роста — не появление принципиально новых видов атак, а резкий скачок их качества, скорости и масштабируемости. Интерпол фиксирует тенденцию к «индустриализации» мошенничества: инструменты, которые еще недавно требовали высокой квалификации, сегодня доступны как сервисы по подписке или в виде готовых наборов на подпольных маркетплейсах.
На базовом уровне преступники активно используют генеративный ИИ и большие языковые модели (LLM) для оттачивания социальной инженерии. Раньше фишинговые письма часто выдавали себя орфографическими ошибками, неточным стилем и неестественными формулировками, особенно в сообщениях на иностранных языках. Теперь же LLM позволяют за секунды создать стилистически безупрочные письма от имени банков, маркетплейсов или крупных брендов, что значительно повышает конверсию атак и снижает порог подозрительности у жертв.
Дипфейки, голосовые клоны и deepfake-as-a-service
Более продвинутый уровень эволюции мошенничества связан с дипфейками. По данным Интерпола, за последние два года технология синтетических медиа сделала качественный рывок: для создания убедительного голосового клона достаточно порядка десяти секунд реальной записи, которую легко получить из открытых источников — например, из сторис, интервью или постов в социальных сетях.
Это открывает дорогу к атакам с имитацией руководителей компаний, партнеров или близких людей. Преступники могут звонить сотрудникам финансовых отделов и «голосом директора» просить срочно перевести крупную сумму или одобрить подозрительную операцию. Отдельный сегмент теневого рынка заняли решения формата «deepfake-as-a-service»: на даркнет-площадках продаются готовые наборы для создания синтетических личностей — с поддельными фото, видео и голосом. Низкая стоимость таких наборов и простота использования, по оценке правоохранителей, напрямую ведут к дальнейшей индустриализации киберпреступности.
Агентный ИИ: следующий этап автоматизации кибератак
Особое внимание в отчете уделено агентному ИИ — системам, которые могут самостоятельно планировать и выполнять цепочку действий. Массового применения таких агентов в киберпреступности пока не зафиксировано, однако Интерпол рассматривает это как вопрос времени. Потенциально подобные системы способны автоматизировать разведку и подготовку атак: сбор открытых данных о компании и ее сотрудниках, поиск утечек учетных записей, анализ уязвимостей в инфраструктуре.
Еще более тревожный сценарий — использование ИИ-агентов для анализа украденных данных. Такие системы могут помогать злоумышленникам рассчитывать размер выкупа при вымогательских атаках, опираясь на ценность похищенной информации и финансовое состояние жертвы. Это делает атаки более «адресными» и экономически просчитанными, повышая мотивацию преступников и потенциальные убытки для организаций.
Секс-вымогательство и шантаж с использованием ИИ-генерируемых изображений
Интерпол также фиксирует рост схем секс-вымогательства (sextortion) на базе синтетического контента. В ряде проанализированных инцидентов жертвы изначально отказывались участвовать в привычных мошеннических схемах — криптовалютных или форекс-скамах, романтическом мошенничестве. После отказа злоумышленники переходили к шантажу, демонстрируя сгенерированные ИИ интимные изображения, якобы с участием жертвы, и угрожая распространить их среди родственников, коллег или в социальных сетях.
Такие атаки опираются не столько на техническую уязвимость, сколько на психологическое давление и страх репутационных потерь. Даже понимая, что изображение поддельное, многие жертвы предпочитают заплатить выкуп, чтобы избежать огласки — что дополнительно подпитывает этот вид преступности.
«Благодаря искусственному интеллекту, дешевым цифровым инструментам и растущему международному сотрудничеству между преступными сетями мы наблюдаем индустриализацию мошенничества», — подчеркнул генеральный секретарь Интерпола Валдеси Уркиза. На практике это означает, что защититься «по инерции», опираясь на старые модели безопасности, уже невозможно. Критически важно инвестировать в обучение пользователей, внедрение многофакторной аутентификации, строгую проверку любых финансовых распоряжений и развитие механизмов верификации аудио- и видеоконтента. Чем быстрее бизнес и частные пользователи адаптируются к реальности ИИ-усиленного мошенничества, тем выше шансы снизить масштаб потерь в ближайшие годы.