Google продолжает активно внедрять искусственный интеллект в механизмы защиты браузера Chrome — и одновременно начинает давать пользователям больше контроля над такими технологиями. В экспериментальной сборке Chrome Canary появилась возможность удалить локальную ИИ‑модель, которая лежит в основе функции расширенной защиты Enhanced Protection.
Enhanced Protection в Chrome: что это за функция и как её усилили ИИ
Функция Enhanced Protection (Расширенная защита) существует в Google Chrome уже несколько лет и предназначена для более агрессивной защиты от фишинга, вредоносных сайтов, опасных загрузок и подозрительных расширений. В отличие от стандартной защиты, она работает в более «проактивном» режиме и чаще сверяется с облачной инфраструктурой Google.
В 2023 году Google усилила Enhanced Protection с помощью локальных ИИ‑моделей. Компания не раскрывает технические детали используемых моделей, но по доступной информации можно предположить, что они применяются для распознавания вредоносных паттернов в реальном времени. Это позволяет предупреждать пользователя даже о тех угрозах, которые ещё не успели попасть в традиционные чёрные списки.
Кроме анализа веб‑страниц, ИИ‑модель, по данным Google, задействуется для углублённой проверки подозрительных загрузок: анализируется не только сигнатура файла, но и его поведение, контекст скачивания и другие признаки, характерные для вредоносного ПО.
Локальная ИИ‑модель: почему она хранится на устройстве пользователя
Ключевое отличие новой схемы заключается в том, что модель ИИ развёрнута локально на устройстве, а не только в облаке. Такой подход решает сразу несколько задач с точки зрения кибербезопасности и конфиденциальности:
Во‑первых, часть анализа выполняется прямо на стороне клиента, что снижает задержки и позволяет быстрее блокировать угрозы в браузере. Это критично, когда речь идёт о фишинговых сайтах, существующих буквально часы или даже минуты.
Во‑вторых, локальная обработка уменьшает объём передаваемых в облако данных о действиях пользователя. Формально это повышает уровень приватности, так как часть потенциально чувствительной информации остаётся на устройстве и не уходит на сервера компании.
При этом архитектура и обучающие выборки используемой в Chrome локальной ИИ‑модели публично не раскрываются, что вызывает закономерные вопросы у специалистов по безопасности и защитникам конфиденциальности.
Новая опция: как удалить локальную ИИ‑модель в Google Chrome
По данным отраслевых СМИ, включая издание BleepingComputer, пользователи Chrome теперь могут отключить и удалить локальную ИИ‑модель, лежащую в основе Enhanced Protection. Настройка реализована через параметр On-device GenAI в системных настройках браузера.
Пошаговая инструкция в Chrome Canary
На текущем этапе опция доступна в сборке Chrome Canary — это тестовая версия браузера, в которой Google опробует новые функции. Для удаления локальной ИИ‑модели необходимо:
1. Открыть браузер Chrome Canary.
2. Перейти в раздел Настройки → Система (Settings → System).
3. Найти параметр On-device GenAI.
4. Отключить эту опцию.
После деактивации On-device GenAI используемая локальная ИИ‑модель будет удалена с устройства, а браузер перестанет применять её как в Enhanced Protection, так и, вероятно, в других функциях, которые Google планирует строить на базе локального ИИ.
Ожидается, что в ближайшие релизы стабильного Chrome эта настройка будет постепенно добавлена для всех пользователей, однако сроки широкого развёртывания официально не раскрываются.
Плюсы и минусы отключения ИИ‑модели для кибербезопасности
С точки зрения защиты от угроз
Главный риск отключения локальной ИИ‑модели — снижение уровня проактивной защиты. Без анализа с помощью ИИ браузер во многом будет опираться на классические механизмы: чёрные списки, сигнатуры и репутационные данные. Это по‑прежнему эффективный, но менее гибкий подход против новых, ещё не классифицированных угроз.
Для домашних пользователей и малого бизнеса Enhanced Protection с ИИ остаётся одним из наиболее полезных уровней защиты от фишинга, поддельных страниц банков и вредоносных вложений, особенно на фоне роста числа атак, нацеленных именно на браузер.
С точки зрения конфиденциальности и производительности
С другой стороны, отключение On-device GenAI может быть оправдано для пользователей, работающих с чувствительными данными, а также для организаций с жёсткими регуляторными требованиями. В таких сценариях любое дополнительное ПО или модель, работающая в фоне, рассматривается как потенциальный канал утечки или неконтролируемой обработки данных.
Также стоит учитывать и ресурсную нагрузку: локальные ИИ‑модели потребляют дисковое пространство, оперативную память и вычислительные ресурсы. На слабых системах отключение такой функциональности может немного улучшить отзывчивость браузера.
Тренд на локальный ИИ и растущую управляемость со стороны пользователя
Появление переключателя On-device GenAI — показатель важного тренда: крупные поставщики браузеров усиливают защиту с помощью ИИ, но одновременно вынуждены давать пользователю прозрачные рычаги управления. Это важно как для частных лиц, так и для корпоративного сегмента, где политики безопасности всё чаще требуют явного контроля над ИИ‑функциями.
Можно ожидать, что в дальнейшем Google расширит набор политик администрирования для Chrome, позволяя ИТ‑подразделениям централизованно запрещать или разрешать использование локальных ИИ‑моделей на рабочих станциях. Это станет критичным для отраслей с жёстким регулированием — финансовый сектор, медицина, государственные структуры.
Для рядовых пользователей целесообразно регулярно проверять настройки безопасности Chrome, следить за появлением новых опций и осознанно выбирать баланс между уровнем защиты, приватностью и производительностью. При отсутствии специальных ограничений имеет смысл оставлять Enhanced Protection с ИИ включённой, дополняя её двухфакторной аутентификацией, регулярными обновлениями ПО и осторожным отношением к расширениям и загрузкам.