В корпоративной среде Microsoft 365 выявлена ошибка, затрагивающая работу Microsoft 365 Copilot: интеллектуальный помощник мог читать и суммировать конфиденциальные письма, несмотря на действующие политики защиты от утечек данных (DLP), которые должны ограничивать доступ автоматизированных инструментов к подобной переписке. Инцидент демонстрирует, насколько критично для бизнеса контролировать поведение ИИ-сервисов, интегрированных в офисную экосистему.
Сбой в Microsoft 365 Copilot: что именно произошло
По данным, опубликованным со ссылкой на Microsoft, проблема затронула компонент Copilot Chat — чат-бот с доступом к рабочему контексту пользователя, встроенный в Word, Excel, PowerPoint, Outlook и OneNote. Этот инструмент позволяет сотрудникам задавать вопросы, получать сводки писем, документов и презентаций, а также автоматизировать рутинные задачи с помощью ИИ.
Сбой был зафиксирован 21 января и получил идентификатор CW1226324. Ошибка проявлялась в разделе чата на вкладке Work в Copilot Chat. Именно там ИИ-помощник некорректно обрабатывал сообщения из папок «Отправленные» и «Черновики», в том числе письма, помеченные как конфиденциальные при помощи встроенных средств защиты информации.
Ключевая проблема заключалась в том, что Copilot игнорировал политики DLP и ограничения, накладываемые метками конфиденциальности. Эти настройки в обычных условиях должны блокировать анализ содержимого такими автоматизированными системами и предотвращать выдачу фрагментов конфиденциальных данных в ответах ИИ.
Как баг обошёл политики защиты от утечек данных
Роль меток конфиденциальности и DLP в Microsoft 365
В экосистеме Microsoft 365 метки чувствительности и политики DLP (Data Loss Prevention) используются для классификации и защиты критичных данных: коммерческой тайны, персональных данных, финансовой информации и т. д. При корректной настройке эти механизмы не только шифруют документы и письма, но и ограничивают их обработку сторонними или автоматизированными сервисами, включая ИИ-инструменты вроде Copilot.
В рассматриваемом инциденте именно письма с такими метками оказались доступны для чтения и суммирования, что указывает на логическую ошибку в механизме проверки политик доступа на стороне Copilot Chat. Microsoft признала наличие «ошибки в коде», однако технические детали уязвимости не раскрываются.
Почему риск особенно высок для «Черновиков» и «Отправленных»
Папки «Черновики» и «Отправленные» часто содержат максимально открытые и детализированные формулировки: в черновиках сотрудники фиксируют идеи и сырые данные, в отправленных — уже согласованные формулировки с точными цифрами, внутренними ссылками и именами. В случае обхода DLP-доступа утечка именно из этих папок способна нанести особо серьёзный ущерб, поскольку там нередко находятся ключевые элементы переговоров, юридические формулировки и финансовые детали.
Риски для компаний и возможные последствия
Microsoft начала развертывание исправления в начале февраля, однако точные сроки полного устранения бага, а также количество затронутых пользователей и организаций не раскрываются. В компании отдельно подчёркивают, что оценка масштаба проблемы может изменяться по мере продолжения расследования.
Даже если утечек «внешним» сторонам не произошло, сам факт того, что генеративный ИИ получил возможность игнорировать политики DLP, представляет значительный риск для организаций, полагающихся на Microsoft 365 как на основной рабочий инструмент. Внутренние данные могли использоваться в ответах Copilot, пересылаться другим сотрудникам по запросу либо становиться доступными более широкому кругу лиц, чем предусмотрено моделью разграничения доступа.
Инцидент вписывается в растущую тенденцию: по оценкам отраслевых отчётов по кибербезопасности, всё больше инцидентов связано не с классическими взломами, а с ошибками конфигурации и логическими багами в облачных и ИИ-сервисах. Чем глубже ИИ интегрируется в рабочие процессы, тем важнее становится не только защита периметра, но и тщательное тестирование механизмов авторизации и применения политик доступа.
Что могут сделать организации уже сейчас
Инцидент с Microsoft 365 Copilot показывает, что даже крупные и зрелые платформы не застрахованы от логических ошибок, влияющих на конфиденциальность данных. Компании, активно использующие Copilot и другие ИИ-инструменты в Microsoft 365, могут снизить риски, если предпримут ряд шагов.
1. Пересмотреть политику использования ИИ-инструментов. Имеет смысл временно ограничить доступ к Copilot Chat для сотрудников, работающих с особо чувствительной информацией (юристы, финансы, M&A, R&D), либо разделить учетные записи и среды для рутинных задач и для работы с критичными данными.
2. Провести аудит меток конфиденциальности и DLP. Необходимо проверить, как настроены политики DLP, метки чувствительности и условия доступа в Microsoft 365, и убедиться, что для критичных типов данных запрещена обработка ИИ-инструментами, где это возможно. Важно протестировать эти политики вблизи реальных сценариев использования Copilot.
3. Усилить мониторинг и журналы аудита. Организациям стоит активировать и регулярно анализировать журналы доступа к контенту, в том числе запросы к Copilot, чтобы выявлять подозрительные или чрезмерно широкие запросы, связанные с конфиденциальной перепиской.
4. Встраивать ИИ в модель Zero Trust. Подход Zero Trust подразумевает, что никто — включая внутренние сервисы и ИИ-помощников — не должен иметь избыточных прав. Copilot и аналогичные инструменты следует рассматривать как отдельные приложения с чётко ограниченными правами чтения и обработки данных.
Случай с ошибкой CW1226324 в Microsoft 365 Copilot напоминает: внедряя ИИ в корпоративную инфраструктуру, важно не только оценивать его пользу, но и закладывать дополнительные уровни контроля, валидации и мониторинга. Компании, которые уже сегодня пересматривают свои политики DLP, обучают сотрудников ответственному использованию ИИ и выстраивают архитектуру по принципам Zero Trust, значительно снижают вероятность критичных утечек завтра. Рассматривая инцидент с Copilot как урок, стоит использовать его как повод для системного улучшения собственной стратегии кибербезопасности.