Скандал вокруг CISA: служебные документы в ChatGPT и риски для кибербезопасности США

CyberSecureFox 🦊

По сообщениям американских СМИ, исполняющий обязанности директора Агентства по кибербезопасности и защите инфраструктуры США (CISA) Мадху Готтумуккала оказался в центре расследования после того, как загрузил служебные документы в публичный сервис ChatGPT. Инцидент обнажил системные риски использования генеративного ИИ в государственных структурах и поставил вопросы к организационной культуре безопасности в одном из ключевых киберзащитных агентств страны.

Инцидент с ChatGPT: что именно произошло

Как сообщает издание Politico со ссылкой на источники в Министерстве внутренней безопасности США (DHS), летом прошлого года Готтумуккала вскоре после прихода в CISA загрузил в ChatGPT чувствительные контрактные документы агентства. Эти материалы проходили по грифу «for official use only» («только для служебного пользования»), то есть не являлись секретными, но содержали данные, не предназначенные для публичного распространения.

Действия руководителя вызвали срабатывание внутренних систем безопасности DHS, которые отслеживают потенциальную утечку или несанкционированную передачу информации из федеральных сетей во внешние облачные сервисы. Подобные системы (DLP — Data Loss Prevention) используются для автоматического контроля за тем, какие данные покидают защищенный периметр.

Особенно показательно, что для большинства сотрудников DHS доступ к ChatGPT заблокирован. Они используют одобренные ведомством ИИ-инструменты, такие как DHSChat, развернутые в защищенной инфраструктуре, где запросы и документы формально не покидают пределы федеральных сетей. Готтумуккала, по данным СМИ, запросил отдельное разрешение на использование именно продукта OpenAI, однако цели такого исключения публично не раскрываются.

Почему загрузка служебных данных в ChatGPT опасна для госструктур

Хотя переданные документы не содержали государственной тайны, их статус «for official use only» предполагает, что несанкционированный доступ к ним может нанести ущерб частной жизни граждан, подорвать доверие к госпрограммам или осложнить реализацию инициатив, связанных с национальной безопасностью.

Ключевая проблема в том, что публичные генеративные ИИ-сервисы, включая ChatGPT, обрабатывают данные на стороне поставщика. Даже при наличии настроек, ограничивающих использование пользовательских данных для обучения моделей, у организаций нет полного технического и юридического контроля, сопоставимого с контролем над внутренними системами. Теоретически фрагменты введенной информации могут быть использованы при дообучении моделей или подвергнуться компрометации в случае взлома инфраструктуры провайдера.

СМИ подчёркивают, что теперь фрагменты этих документов потенциально могут попасть в ответы ChatGPT для любого из сотен миллионов активных пользователей сервиса. Даже если вероятность невелика, сам факт подобного риска неприемлем для структуры, отвечающей за кибербезопасность критически важной инфраструктуры США.

Политика работы с ИИ в государственных сетях

Мировая практика показывает, что государственный сектор переходит к модели закрытых, контролируемых инсталляций генеративного ИИ: это либо локально развернутые языковые модели, либо специализированные «правительственные» версии облачных сервисов с отдельным юридическим режимом, сегрегацией данных и расширенным аудитом.

В таком подходе ключевыми становятся:

— жесткое разграничение типов данных (что можно, а что нельзя вводить во внешние ИИ-сервисы);
— технические ограничения (блокировки публичных ИИ, прокси-шлюзы, DLP, CASB);
— политикы и обучение персонала (понятные инструкции по работе с ИИ и реальные последствия нарушений).

Расследование DHS и возможные последствия для главы CISA

По данным Politico, Министерство внутренней безопасности США инициировало внутреннее расследование инцидента ещё в августе прошлого года. В фокусе — оценка потенциального ущерба национальной безопасности и соответствие действий руководителя установленным политикам обработки служебной информации.

Санкции, по информации источников издания, могут варьироваться от формального предупреждения и обязательного переобучения до приостановки или отзыва допуска к секретной информации. Для руководителя агентства, отвечающего за кибербезопасность, утрата или ограничение такого допуска фактически означает невозможность полноценно исполнять свои обязанности.

Другие скандалы вокруг руководства CISA

Инцидент с загрузкой данных в ChatGPT — не единственный повод для критики в адрес Мадху Готтумуккалы. Ранее в этом месяце Конгресс США уже проводил допрос и.о. директора CISA по поводу масштабных сокращений персонала, в результате которых численность сотрудников агентства сократилась примерно с 3400 до 2400 человек. Законодатели выразили опасения, что такое сокращение ослабляет способность CISA защищать национальную инфраструктуру и гарантировать безопасность выборов, а также снижает готовность к возможным киберконфликтам, в том числе с участием Китая.

Отдельный резонанс вызвали сообщения о том, что Готтумуккала якобы не прошёл проверку на полиграфе при попытке получить доступ к особо чувствительным данным киберразведки. По информации СМИ, он обвинил шестерых сотрудников CISA в том, что те ввели его в заблуждение, настаивая на прохождении теста как на стандартной процедуре. Позднее он назвал проверку «несанкционированной» и отказался обсуждать её результаты.

Сам Готтумуккала возглавил CISA весной прошлого года, после того как кандидатура Шона Планки, предложенная Дональдом Трампом, была заблокирована сенатором Риком Скоттом. Министр внутренней безопасности США Кристи Ноэм назначила его исполняющим обязанности директора; ранее он занимал пост главного информационного директора в администрации Южной Дакоты.

Практические уроки: как безопасно использовать ChatGPT и генеративный ИИ

Инцидент в CISA — показательный пример того, что даже высокопоставленные и технически подкованные руководители могут допускать критические ошибки при работе с ИИ-инструментами. Организациям — как государственным, так и коммерческим — имеет смысл извлечь из этой истории несколько практических выводов:

1. Ввести чёткую политику по работе с ИИ. Определить, какие категории данных строго запрещено вводить в публичные ИИ-сервисы (персональные данные, коммерческая тайна, служебная информация, защищаемые по закону сведения), и донести это до каждого сотрудника.

2. Использовать корпоративные или защищённые версии ИИ. По возможности разворачивать генеративные модели в собственном периметре или использовать корпоративные варианты (с отдельными соглашениями об обработке данных, аудитом и возможностью отключить использование данных для обучения моделей).

3. Комбинировать организационные и технические меры. Недостаточно просто «запретить ChatGPT»; важны DLP-системы, фильтрация трафика, контроль облачных приложений и регулярные проверки соблюдения политики безопасности.

4. Регулярно обучать персонал. Объяснять не только «что нельзя», но и почему нельзя: как работают генеративные модели, какие риски создаёт неконтролируемый обмен данными и какие реальные инциденты уже произошли в мире.

История с CISA демонстрирует: ошибка одного человека на руководящем уровне может иметь последствия национального масштаба. По мере повсеместного внедрения генеративного ИИ организациям необходимо заблаговременно выстраивать политику безопасности, инвестировать в обучение сотрудников и использовать технические средства защиты, которые минимизируют человеческий фактор. Тем, кто ещё не пересмотрел свои правила работы с ИИ, имеет смысл сделать это сейчас — до того, как «удобный инструмент» превратится в источник утечки критичных данных.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.