Специалисты по кибербезопасности YouTube выявили масштабную фишинговую кампанию, в рамках которой злоумышленники используют видеоролики, созданные с помощью технологий искусственного интеллекта. В этих материалах фигурирует сгенерированное изображение генерального директора платформы Нила Мохана, якобы объявляющего об изменениях в политике монетизации контента.
Механика фишинговой атаки
Злоумышленники рассылают создателям контента электронные письма со ссылками на приватные видео. В сообщениях утверждается, что YouTube вносит критические изменения в правила монетизации, требующие немедленного внимания. Примечательно, что мошенники намеренно копируют официальный стиль коммуникации платформы, включая предупреждения о том, что YouTube никогда не использует приватные видео для связи с пользователями.
Технические особенности мошеннической схемы
При переходе по ссылке пользователи попадают на фишинговый домен studio.youtube-plus[.]com, имитирующий официальный интерфейс YouTube Studio. На странице размещена форма авторизации, где злоумышленники собирают учетные данные жертв. После ввода информации пользователю сообщается о якобы проводимой проверке канала, а также выдвигается ультиматум: если не подтвердить согласие с новыми правилами, аккаунт будет ограничен на семь дней.
Последствия успешных атак
По данным специалистов Bleeping Computer, значительное число контент-мейкеров уже пострадало от этой кампании. Захваченные каналы typically используются для проведения мошеннических криптовалютных стримов, направленных на обман подписчиков. Расследование инцидентов началось в середине февраля 2024 года, хотя первые атаки были зафиксированы еще в конце января.
Рекомендации по защите
Эксперты YouTube настоятельно рекомендуют пользователям соблюдать базовые правила цифровой гигиены: не переходить по подозрительным ссылкам, включая те, что получены в приватных сообщениях; проверять URL-адреса на предмет подмены; использовать двухфакторную аутентификацию. Важно помнить, что официальная коммуникация от YouTube никогда не осуществляется через приватные видео или с требованием срочных действий под угрозой блокировки.
Данный инцидент демонстрирует растущую тенденцию использования технологий искусственного интеллекта в фишинговых кампаниях. Создание убедительных дипфейков известных личностей существенно повышает эффективность социальной инженерии, что требует повышенной бдительности от пользователей и постоянного совершенствования методов защиты цифровых платформ.