Аналітична компанія Gartner опублікувала звіт «Cybersecurity Should Block AI Browsers for Now», у якому прямо рекомендує організаціям тимчасово обмежити або заблокувати використання AI‑браузерів. На думку експертів, нинішнє покоління таких інструментів створює надмірні ризики для кібербезпеки та конфіденційності — від витоків чутливих даних до несанкціонованих транзакцій від імені користувачів.
Що таке AI‑браузери і чому вони становлять загрозу
Під AI‑браузерами Gartner розуміє рішення на кшталт Perplexity Comet та ChatGPT Atlas, які поєднують класичний веб‑браузер із вбудованою панеллю на базі великих мовних моделей (LLM). Така панель може аналізувати вміст сторінок, історію переглядів, інформацію про відкриті вкладки, а також виконувати дії в інтернеті за агентним принципом — від автозаповнення форм до навігації по складних веб‑інтерфейсах.
Автори звіту — Деніс Сю (Dennis Xu), Євгеній Миролюбов (Evgeny Mirolyubov) та Джон Уоттс (John Watts) — наголошують, що налаштування AI‑браузерів «за замовчуванням» орієнтовані на максимальну зручність, а не на безпеку. Це означає мінімальні обмеження збору даних, широкі повноваження ІІ‑агентів та слабку інтеграцію з корпоративними політиками доступу й контролю.
Витік конфіденційних даних через ІІ‑панелі та хмарні бекенди
Ключова технічна загроза, на яку вказує Gartner, пов’язана з тим, як AI‑браузери обробляють дані користувача. Бокові панелі часто автоматично надсилають до хмарного бекенду провайдера активний контент сторінки, історію браузера та відомості про відкриті вкладки. У корпоративному середовищі до цього набору неминуче потрапляють комерційна таємниця, персональні дані клієнтів, внутрішні документи, дані доступу до систем.
Фахівці Gartner рекомендують насамперед оцінити безпеку бекенду AI‑браузера: де фізично розміщуються дані, як вони шифруються, чи використовуються для навчання моделей, які треті сторони мають доступ. Якщо рівень захищеності або прозорість процесів викликає сумніви, Gartner радить повністю заблокувати встановлення й використання AI‑браузерів для працівників.
Навіть у разі прийнятної оцінки сервісу організаціям варто чітко донести до персоналу, що будь-які дані, які відображаються у вікні браузера з активною ІІ‑панеллю, потенційно можуть бути передані у хмару. Практичний підхід — заборонити роботу з критично важливою інформацією в таких вкладках або технічно відключити AI‑функції у захищених сегментах мережі.
Агентні можливості AI‑браузерів: нові вектори атак
Окрема зона ризику — агентні функції AI‑браузерів, коли ІІ отримує право самостійно діяти в інтернеті від імені користувача: переходити за посиланнями, заповнювати форми, ініціювати замовлення чи інші транзакції без ручного підтвердження кожного кроку.
Непрямі prompt‑injection атаки на AI‑агентів
Gartner виділяє сценарій, коли зловмисник розміщує на веб‑сторінці приховані інструкції, орієнтовані саме на ІІ‑агента. Під час аналізу сторінки модель сприймає їх як легітимний запит, змінює свою поведінку і може передати конфіденційні дані на сторонній ресурс або виконати шкідливі дії. Це класичний prompt injection, але у веб‑контексті наслідки виходять за межі текстової відповіді й переходять у площину реальних операцій.
Помилки моделі та небажані транзакції
Великі мовні моделі схильні до так званих «галюцинацій» — впевнених, але помилкових висновків. У випадку AI‑браузера це може призвести до некоректного заповнення юридично значущих форм, відправки хибних фінансових запитів або зміни налаштувань у бізнес‑системах. На відміну від звичайної помилкової відповіді в чаті, тут модель впливає на реальні процеси та може створити регуляторні та фінансові ризики.
Фішинг та компрометація облікових даних
Якщо ІІ‑агенту делеговано зберігання логінів і паролів, його можна спрямувати на фішингові сайти, де він автоматично введе облікові дані. У такому разі організація може втратити контроль над критично важливими обліковими записами без безпосередньої участі співробітника. Традиційні засоби протидії фішингу, орієнтовані на поведінку людини, виявляються малоефективними проти «автопілота», що працює за логікою моделі.
Зловживання автоматизацією з боку співробітників
Gartner звертає увагу і на людський фактор. Працівники можуть використовувати AI‑браузери, щоб автоматизувати обов’язкові, але рутинні процеси, які вимагають їхньої особистої участі. Типовий приклад — доручити ІІ «пройти» за них обов’язковий курс з кібербезпеки. Формально вимога виконана, але реальний рівень обізнаності співробітників щодо загроз падає, що вже саме по собі підвищує ризик інцидентів.
Фінансові помилки в закупівлях та операціях
Ще один практичний ризик — використання агентних AI‑функцій у системах закупівель і бронювання. Неточність моделі при заповненні форми може призвести до замовлення неправильних товарів, бронювання квитків на помилкові дати або інші фінансові втрати. У великих організаціях навіть невисокий відсоток таких помилок може масштабуватися до відчутних операційних збоїв.
Рекомендації Gartner для безпечного використання AI‑браузерів
З огляду на ці ризики Gartner вважає, що AI‑браузери поки занадто небезпечні для вільного застосування в корпоративному середовищі без попереднього аналізу. Організаціям пропонується комплексний підхід:
- Провести формальну оцінку ризиків для кожного конкретного AI‑браузера та його хмарного бекенду з урахуванням регуляторних вимог і галузевих стандартів.
- Визначити заборонені сценарії використання: робота з критичними системами, закупівлями, платежами, обліковими записами з підвищеними привілеями, доступом до виробничих середовищ тощо.
- Обмежити повноваження ІІ‑агентів, по можливості відключивши доступ до електронної пошти, фінансових застосунків, внутрішніх адміністративних консолей та систем керування доступом.
- Налаштувати політики конфіденційності та мінімізації даних: забороняти зберігання історії, обмежувати обсяг інформації, що відправляється в хмару, застосовувати токенізацію чи анонімізацію там, де це можливо.
- Системно навчати співробітників специфічним ризикам AI‑інструментів, пояснювати заборонені типи даних та регулярно оновлювати інструкції з безпечного використання ІІ‑панелей у браузері.
У світлі позиції Gartner бізнесу варто вже зараз переглянути політику використання AI‑браузерів, запровадити технічні обмеження та процеси управління ризиками штучного інтелекту. Компанії, які проактивно вибудують контроль за новими ІІ‑інструментами, зможуть зменшити ймовірність витоку даних, фінансових втрат і санкцій регуляторів та водночас безпечніше використовувати потенціал штучного інтелекту в корпоративній інфраструктурі.