Популярний ІІ‑застосунок Chat & Ask AI, яким користуються близько 50 млн людей у всьому світі, опинився в центрі масштабного інциденту кібербезпеки. Через неправильну конфігурацію хмарної бази даних Firebase у відкритому доступі опинилися сотні мільйонів приватних діалогів користувачів з ІІ‑ботами, включно з надзвичайно чутливими запитами.
Масштаб витоку даних Chat & Ask AI та профіль застосунку
Chat & Ask AI, розроблений турецькою компанією Codeway, виступає зручною оболонкою для роботи з моделями ChatGPT, Claude та Gemini. Застосунок має понад 10 млн інсталяцій у Google Play та понад 318 000 оцінок в App Store, що робить інцидент особливо значущим з огляду на кількість потенційно постраждалих користувачів.
За інформацією видання 404 Media, дослідник інформаційної безпеки під псевдонімом Гаррі (Harry) виявив, що бекенд‑сховище застосунку було доступне будь‑якому клієнту. Це дозволило йому отримати доступ приблизно до 300 млн повідомлень, що належали орієнтовно 25 млн користувачів.
У відкритій базі зберігалися повні історії діалогів з ІІ, часові мітки, назви використаних ботів, параметри моделей та інформація про те, яку саме модель обирав користувач. Тобто мова йде не лише про окремі фрагменти, а про повноцінні профілі поведінки користувача в ІІ‑сервісі.
Неправильна конфігурація Firebase: як спрацювала уразливість
Причиною витоку стала помилка в налаштуванні Firebase Security Rules — механізму контролю доступу в хмарній платформі Google Firebase, що широко використовується мобільними застосунками для зберігання даних.
За словами дослідника, правила були налаштовані так, що будь‑який клієнт застосунку фактично розглядався як «автентифікований користувач». Це дозволяло читати дані з бекенд‑БД без додаткової перевірки прав доступу. Такий клас помилок добре відомий фахівцям із кібербезпеки: розробники залишають надто ліберальні правила читання/запису, і база даних перетворюється на публічне сховище.
Керівник компанії Trail of Bits Ден Гуідо раніше характеризував подібні помилки як «добре відому слабкість» екосистеми мобільних застосунків. За його словами, у Trail of Bits створили сканер для виявлення уразливих конфігурацій Firebase всього за 30 хвилин за допомогою ІІ‑моделі Claude, що підкреслює масовий характер проблеми.
Чому діалоги з ІІ такі чутливі: що опинилося у відкритому доступі
Аналіз вибірки повідомлень показав, що значна частина користувачів сприймає ІІ‑асистентів як простір для дуже особистих і навіть інтимних розмов. У витеклих даних були виявлені запити на кшталт «як безболісно покінчити з собою», прохання скласти прощальні записки, інтерес до рецептів наркотиків та підказок щодо зламу застосунків.
Серед прикладів — прохання написати есе на дві сторінки про те, «як варити мет у світі, де це легалізовано для медичних цілей», а також пряме запитання: «Я хочу вбити себе, який спосіб найкращий». Подібний контент відображає не лише психологічний стан, але й потенційно протиправні наміри користувачів.
У руках зловмисників такі дані можуть бути використані для або цілеспрямованого стеження. На відміну від класичних витоків логінів чи номерів карток, історії ІІ‑чатів дають глибокий контекст про людину: її страхи, слабкості, конфлікти, фінансові проблеми, звички та маршрути.
Системна проблема безпеки мобільних застосунків на Firebase
За даними Гаррі, уразливість стосувалася не лише Chat & Ask AI, а й інших продуктів Codeway. Після повідомлення розробників 20 січня 2026 року компанія протягом кількох годин виправила конфігурацію у всіх своїх застосунках. Це демонструє швидку реакцію, але водночас показує, як єдина помилкова конфігурація здатна масштабуватися на ціле сімейство сервісів.
Дослідник створив власний інструмент для автоматичного сканування магазинів застосунків на предмет некоректних налаштувань Firebase. Під час перевірки 200 iOS‑додатків уразливість була виявлена в 103 з них — тобто понад половина вибірки мала подібні проблеми з безпекою. Гаррі запустив сайт зі списком таких застосунків і видаляє їх зі списку після усунення помилок. Продукти Codeway вже виключені, оскільки конфігурація була оперативно виправлена.
Ризики для користувачів і ключові уроки для розробників ІІ‑сервісів
Витоки даних з ІІ‑застосунків мають подвійний ефект. З одного боку, розкриваються конфіденційні персональні дані — від натяків на стан здоров’я й психіки до деталей фінансових труднощів, міжособистісних конфліктів і поведінкових шаблонів. З іншого боку, у діалогах часто фігурують запити, пов’язані з потенційно незаконною діяльністю, що створює додаткові юридичні та репутаційні ризики для постраждалих користувачів.
Що мають зробити розробники
Інцидент із Chat & Ask AI підкреслює необхідність базових, але системних заходів кібербезпеки:
1. Жорстка конфігурація Firebase Security Rules та дотримання принципу least privilege (мінімально необхідних прав доступу).
2. Регулярне автоматичне сканування конфігурацій (CI/CD‑перевірки), зокрема на помилки в хмарних БД.
3. Незалежні аудити безпеки й періодичне пентестування мобільних застосунків.
4. Шифрування особливо чутливих даних та обмеження строків їх зберігання.
Для ІІ‑сервісів, де діалоги часто стосуються психологічних, медичних чи етичних тем, рівень захисту має бути не нижчим, ніж для медичних або фінансових систем.
Рекомендації для користувачів ІІ‑асистентів
Користувачам варто критично ставитися до того, що вони вводять у вікно чату з ІІ. Не рекомендується передавати:
1. Паспортні, платіжні та інші персональні документи.
2. Детальні плани подорожей, адреси проживання та розклади переміщень.
3. Контактні дані третіх осіб без їх згоди.
4. Опис дій, які можуть трактуватися як протиправні.
Інцидент із Chat & Ask AI демонструє, що навіть популярні й високо оцінені застосунки можуть припускатися фундаментальних помилок у архітектурі безпеки. Розробникам варто вбудовувати безпеку за замовчуванням, автоматичні перевірки конфігурацій і постійний моніторинг у стандартний життєвий цикл розробки. Користувачам же доцільно підвищувати власну цифрову гігієну та обирати сервіси, які прозоро повідомляють про захист даних і публічно реагують на виявлені уразливості.