Google включает Gemini: как ИИ меняет борьбу с мошеннической рекламой и malvertising

CyberSecureFox

В экосистеме онлайн-рекламы усиливается гонка вооружений: по мере того как злоумышленники массово переходят к использованию генеративного ИИ, Google отвечает симметрично — внедрением собственных ИИ‑моделей Gemini для автоматического выявления и блокировки вредоносных объявлений. По данным свежего отчета компании за 2025 год, это уже привело к рекордным масштабам фильтрации мошеннического контента в рекламных сервисах Google.

Масштаб блокировок: миллиарды объявлений и миллионы аккаунтов

Согласно отчету, за 2025 год Google заблокировала или удалила 8,3 млрд рекламных объявлений и заморозила 24,9 млн аккаунтов рекламодателей. Из этого объема 602 млн объявлений были напрямую связаны со скамом — мошенническими схемами, нацеленными на кражу денег, данных или установку вредоносного ПО.

Отдельно в документе выделен рынок США: только там за прошлый год было удалено 1,7 млрд объявлений и заблокировано свыше 3,3 млн аккаунтов рекламодателей. Основными нарушениями названы злоупотребления рекламной сетью и преднамеренное введение пользователей в заблуждение. Эти показатели демонстрируют, что мошенническая реклама — не маргинальное явление, а системный риск для всей рекламной экосистемы.

Malvertising: как работает вредоносная реклама в сети Google

Google открыто признает, что malvertising — распространение вредоносного ПО через рекламные объявления — остается давней и устойчивой проблемой. Модель атаки обычно выглядит так: злоумышленник покупает рекламу, визуально и текстово копирующую легитимный бренд или сервис, после чего перенаправляет жертв на:

  • фишинговые страницы для кражи учетных данных;
  • сайты с установщиками малвари под видом полезного ПО;
  • страницы, нацеленные на кражу криптовалюты и других цифровых активов.

Для обхода модерации широко используются клоакинг (подмена содержимого страницы для модераторов и реальных пользователей) и цепочки URL-редиректов, маскирующие конечный вредоносный ресурс под доверенный домен. В ряде кампаний, по данным Google, злоумышленники имитировали домены самой Google, а также известных порталов для загрузки программного обеспечения.

Среди свежих примеров атак: фальшивые страницы входа для кражи аккаунтов Google Ads и вредоносное ПО, распространявшееся под видом Google Authenticator и Homebrew. Такие кампании опасны тем, что используют высокий уровень доверия пользователей к знакомым брендам и сервисам.

Генеративный ИИ: инструмент и атакующих, и защитников

По оценке Google, злоумышленники активно внедряют генеративный ИИ в свои операции. Это позволяет им быстро и дешево создавать тысячи вариаций объявлений, лендингов и текстов, повышая шансы на обход автоматической модерации и усложняя выявление типовых паттернов мошенничества.

Вице-президент и генеральный менеджер направления Ads Privacy and Safety Кират Шарма отмечает, что теперь компания использует модели Gemini для противодействия этому тренду: «Злоумышленники используют генеративный ИИ для массового создания вводящей в заблуждение рекламы, а Gemini помогает нам обнаруживать и блокировать ее в режиме реального времени».

К концу прошлого года, по данным Google, основная часть адаптивных поисковых объявлений (Responsive Search Ads) уже проходила мгновенную проверку, а вредоносный контент блокировался на этапе отправки. В 2026 году компания планирует расширить этот подход на другие рекламные форматы, включая медийную и видео-рекламу.

От анализа ключевых слов к анализу поведения

Ранее системы модерации в основном опирались на анализ ключевых слов и статические сигнатуры. Такая модель плохо справляется с динамичными и генерируемыми на лету кампаниями. Внедрение Gemini меняет парадигму: теперь система способна обрабатывать миллиарды поведенческих сигналов, включая:

  • историю активности и нарушений аккаунта рекламодателя;
  • нетипичные паттерны запуска и остановки кампаний;
  • аномалии в географии и таргетинге;
  • контентные и визуальные характеристики объявлений и лендингов.

Фактически, речь идет о переходе от простого фильтрации контента к оценке намерений рекламодателя. По данным Google, такая точность уже позволила сократить число ошибочных блокировок рекламодателей на 80%, что критически важно для добросовестного бизнеса, зависящего от рекламного трафика.

Последствия для кибербезопасности бизнеса и пользователей

Активное внедрение ИИ-моделей в модерацию рекламы создает более высокий базовый уровень безопасности, но не отменяет необходимости собственных мер киберзащиты. Организациям и пользователям рекомендуется:

  • жестко защищать аккаунты Google Ads: включать многофакторную аутентификацию, по возможности использовать аппаратные ключи безопасности;
  • регулярно проверять настройки доступа к аккаунтам и правам пользователей в рекламных кабинетах;
  • обучать сотрудников навыкам распознавания фишинговых страниц, даже если они открываются из «доверенной» рекламы;
  • загружать ПО (включая инструменты для криптовалют) только с официальных сайтов и проверенных маркетплейсов, а не переходить по рекламным ссылкам без проверки домена;
  • мониторить аномалии в рекламных кампаниях: резкий всплеск трафика, необъяснимый рост списаний, подозрительную географию кликов.

Эскалация противостояния между злоумышленниками, использующими генеративный ИИ, и платформами, внедряющими защитные ИИ-системы вроде Gemini, будет продолжаться. По мере усложнения атак малвертайзинг и мошенническая реклама останутся одним из ключевых векторов компрометации пользователей и бизнеса. Чем раньше компании выстроят собственный контур кибербезопасности вокруг рекламных аккаунтов и обучат сотрудников безопасной работе с онлайн-рекламой, тем меньше шансов, что даже прошедшее модерацию объявление станет началом инцидента.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.