Скандал навколо виконувача обов’язків директора Агентства з кібербезпеки та захисту інфраструктури США (CISA) Мадху Готтумуккали став показовим прикладом того, як неналежне використання генеративного ШІ може створити ризики навіть у структурі, що формально відповідає за кіберзахист країни. За даними Politico, посадовець завантажив службові документи агентства в публічний сервіс ChatGPT.
Як керівник CISA використав ChatGPT і що саме викликало тривогу
Згідно з повідомленнями американських ЗМІ, невдовзі після свого призначення до CISA Готтумуккала завантажив у ChatGPT контрактні документи з грифом “for official use only”. Такі матеріали не належать до державної таємниці, однак містять інформацію, яка не призначена для відкритого доступу та може мати чутливий характер для державних програм і партнерів.
Факт передачі цих даних у зовнішній хмарний сервіс був автоматично зафіксований внутрішніми DLP-системами (Data Loss Prevention) Міністерства внутрішньої безпеки США (DHS). Такі рішення відстежують спроби виведення службової інформації за межі захищеного периметра і є стандартним інструментом кіберзахисту у великих організаціях.
Примітно, що більшість співробітників DHS взагалі не мають доступу до публічного ChatGPT. Для роботи з генеративним ШІ їм дозволено використовувати лише внутрішні інструменти на кшталт DHSChat, розгорнуті у захищеній інфраструктурі відомства. За даними ЗМІ, Готтумуккала отримав індивідуальний дозвіл на використання саме ChatGPT від OpenAI, однак мета такого винятку публічно не пояснюється.
Чому генеративний ШІ становить ризик для службової інформації
Основна загроза полягає в тому, що публічні сервіси штучного інтелекту обробляють дані на інфраструктурі постачальника. Навіть якщо в налаштуваннях вказано, що дані користувача не використовуються для подальшого навчання моделі, організація фактично втрачає повний технічний та юридичний контроль над ними.
Теоретично фрагменти введеної інформації можуть опинитися в навчальних датасетах, бути відновлені за результатом зламу інфраструктури провайдера або потрапити в знеособленому вигляді до відповідей моделі. Для сервісу з сотнями мільйонів активних користувачів по всьому світу навіть мала ймовірність таких витоків є неприйнятною, коли йдеться про матеріали державних органів.
Для документів зі статусом “for official use only” несанкціонований доступ може ускладнити реалізацію державних програм, підірвати довіру до інституцій та створити додаткові можливості для розвідки іноземних держав і кібершпигунства.
Глобальний тренд: перехід до закритих інсталяцій ШІ
У відповідь на ці ризики уряди різних країн переходять до моделі закритих, контрольованих розгортань генеративного ШІ. Це можуть бути як локально встановлені мовні моделі в межах власних дата-центрів, так і спеціальні “державні” версії хмарних сервісів із сегрегацією даних, окремими юридичними угодами та посиленим аудитом доступу.
Ключову роль у такій моделі відіграють: жорстке класифікування даних (чіткі списки, що не можна завантажувати у публічні сервіси), технічні обмеження (DLP, CASB-рішення, блокування доступу до небажаних ресурсів, проксі з інспекцією трафіку) та системне навчання персоналу, а не лише формальні інструкції.
Розслідування DHS та інші питання до керівництва CISA
За даними Politico, внутрішнє розслідування DHS стосовно інциденту з ChatGPT триває ще з серпня минулого року. Перевіряється потенційний вплив на національну безпеку та те, наскільки дії керівника відповідали затвердженим політикам обробки службової інформації.
Можливі наслідки для Готтумуккали, за інформацією джерел, варіюються від офіційного попередження та обов’язкового переонавчання до часткового чи повного обмеження допуску до секретних відомостей. Для керівника агентства, відповідального за кібербезпеку критичної інфраструктури, втрата такого допуску фактично означає неможливість ефективно виконувати свої обов’язки.
Це не єдине джерело критики на його адресу. Конгрес США вже ставив питання щодо масштабного скорочення штату CISA — приблизно з 3400 до 2400 співробітників — та повідомлень про проблеми з проходженням поліграфа при отриманні доступу до особливо чутливих даних кібервирозвідки.
Практичні уроки для державних і комерційних організацій
Історія з CISA демонструє, що ризикові рішення можуть ухвалювати навіть досвідчені керівники, добре обізнані з технологіями. Щоб мінімізувати подібні інциденти, організаціям доцільно запровадити кілька базових кроків.
По-перше, потрібна формалізована політика використання генеративного ШІ: чіткі заборони на введення персональних даних, комерційної таємниці, службових документів і будь-яких відомостей, що регулюються законом. Ця політика має бути зрозумілою кожному співробітнику, а не існувати лише на папері.
По-друге, варто перейти на корпоративні або захищені версії ШІ-рішень з договірним регулюванням обробки даних, можливістю відключити використання інформації для навчання моделі, централізованим аудитом і контрольованим доступом.
По-третє, організаційні обмеження потрібно підкріплювати технічними засобами захисту: DLP, контроль хмарних застосунків, моніторинг аномальної активності та регулярні перевірки дотримання політик безпеки.
Нарешті, критично важливе регулярне навчання персоналу. Пояснення принципів роботи генеративних моделей, розбір реальних інцидентів (у тому числі кейсу CISA) та відпрацювання практичних сценаріїв допомагають перетворити політику безпеки з формальності на реальний інструмент зниження ризиків.
Інцидент із завантаженням службових документів у ChatGPT — це сигнал для всього публічного сектору та бізнесу: генеративний ШІ не є “нейтральним інструментом”, якщо організація не контролює, які дані в нього потрапляють і де вони далі зберігаються. Чим раніше будуть впроваджені зрозуміла політика, технічні бар’єри та програми навчання, тим менше шансів, що “зручний сервіс” перетвориться на канал витоку критично важливої інформації.