Microsoft начала тестировать важное изменение в экосистеме Windows 11, которое напрямую затрагивает вопросы кибербезопасности и управления корпоративными рабочими местами. В предварительных сборках системы появилась новая групповая политика, позволяющая ИТ-администраторам централизованно удалять ИИ-ассистента Microsoft Copilot с управляемых устройств без ручного вмешательства пользователей.
Новая групповая политика Windows AI для удаления Microsoft Copilot
Функциональность реализована в виде политики RemoveMicrosoftCopilotApp, добавленной в сборку Windows 11 Insider Preview Build 26220.7535 (KB5072046). Обновление доступно участникам программы Windows Insider в каналах Dev и Beta и нацелено в первую очередь на организации, использующие централизованное управление парком устройств через Microsoft Intune или System Center Configuration Manager (SCCM).
С точки зрения управления безопасностью это шаг в сторону более гибкого контроля над ИИ-инструментами на корпоративных рабочих станциях. Теперь ИТ-отдел может по политике компании или требованиям регуляторов временно или постоянно избавляться от Copilot на отдельных категориях устройств и учетных записей.
Условия автоматического удаления Copilot
Важно, что новая политика срабатывает не во всех сценариях. Автоматическое удаление Microsoft Copilot произойдет только при одновременном выполнении следующих условий:
Во-первых, на устройстве должны быть установлены оба продукта: Microsoft 365 Copilot и отдельное приложение Microsoft Copilot. Это актуально для организаций, уже внедряющих ИИ-ассистента в связке с Microsoft 365.
Во-вторых, приложение Copilot не должно быть установлено пользователем вручную. Политика ориентирована именно на управляемые, а не пользовательские инсталляции, что снижает риск конфликтов с личными настройками сотрудников.
В-третьих, приложение Copilot не должно запускаться пользователем в течение последних 28 дней. Фактически Microsoft ориентируется на «неиспользуемые» инсталляции, что помогает минимизировать негативную реакцию сотрудников и упрощает поэтапное отключение сервиса.
При включении политики RemoveMicrosoftCopilotApp удаление происходит однократно. Пользователь при необходимости сможет самостоятельно переустановить приложение, что позволяет использовать этот механизм как мягкий инструмент контроля, а не жесткий запрет.
Почему контроль над Copilot важен для кибербезопасности
ИИ-ассистенты, включая Microsoft Copilot, работают с большим объемом корпоративных данных: документами, перепиской, внутренними порталами. При недостаточно тщательной настройке доступов и политик конфиденциальности это может увеличить риск:
— утечки чувствительной информации через запросы к ассистенту;
— ошибочной категоризации данных, когда ИИ получает доступ туда, где его быть не должно;
— несоответствия требованиям регуляторов в отраслях с жесткими нормами (финансы, госсектор, медицина и др.).
В таких условиях возможность централизованно удалить Copilot на рабочих станциях Windows 11 становится инструментом управления рисками. Организации могут отключать ИИ-ассистента на критичных сегментах сети, в средах с повышенными требованиями к защите данных или на устройствах с устаревшими политиками безопасности.
Групповая политика как механизм управления ИИ-ассистентами
Новая настройка располагается в редакторе групповых политик по пути: User Configuration → Administrative Templates → Windows AI → Remove Microsoft Copilot App. Это подчеркивает, что Microsoft рассматривает Copilot как часть более широкой платформы Windows AI, для которой постепенно формируется отдельный набор управляемых политик.
Политика доступна для редакций Windows 11 Enterprise, Pro и EDU, традиционно используемых в бизнесе, образовании и госсекторе. Такой охват позволяет унифицировать подход к управлению ИИ-ассистентами в смешанных инфраструктурах, где присутствуют разные издания системы.
Рекомендации по внедрению для ИТ- и безопасностных команд
Перед включением политики RemoveMicrosoftCopilotApp имеет смысл провести пилот на ограниченной группе устройств. Рекомендуется:
— проанализировать, какие подразделения активно используют Copilot и где его удаление может повлиять на бизнес-процессы;
— синхронизировать изменения с политиками DLP, управления доступом и журналирования действий пользователей;
— задокументировать причины отключения ИИ-сервисов и критерии, при которых их можно будет безопасно вернуть.
Организациям, применяющим Intune или SCCM, стоит рассмотреть сценарии автоматизированного развёртывания политики и отслеживания состояния ее применения на уровне отчетности. Это повысит прозрачность и управляемость процесса.
Дополнительные улучшения стабильности Windows 11 и их влияние на безопасность
В той же сборке Windows 11, где появилась новая политика, Microsoft устранила несколько заметных проблем, влияющих на стабильность системы. Исправлена ошибка в работе «Проводника», из-за которой процесс explorer.exe мог аварийно завершаться при вызове контекстного меню на рабочем столе. Также устранен баг, вызывавший зависание страницы настроек Windows Update во время загрузки обновлений.
Стабильность базовой ОС тесно связана с кибербезопасностью: регулярные сбои интерфейса, зависания и падения системных процессов часто усложняют мониторинг инцидентов, корректное применение патчей и могут маскировать реальную вредоносную активность. Поэтому подобные исправления опосредованно усиливают общий уровень защищенности инфраструктуры.
Новая политика удаления Microsoft Copilot в Windows 11 показывает, что управление ИИ-ассистентами постепенно становится стандартной задачей для ИТ- и безопасностных команд. Организациям имеет смысл уже сейчас сформировать внутренние правила использования ИИ-сервисов, определить, на каких устройствах они допустимы, а где должны быть отключены, и интегрировать эти решения в существующие процессы управления уязвимостями и доступами. Чем раньше будет выстроен осознанный подход к ИИ-инструментам, тем ниже риски утечек данных и нарушений требований регуляторов, и тем проще будет безопасно масштабировать использование таких сервисов в будущем.