Утечка данных Chat & Ask AI: что показала ошибка в настройке Firebase

CyberSecureFox 🦊

Популярное ИИ‑приложение Chat & Ask AI, насчитывающее около 50 млн пользователей по всему миру, оказалось в центре крупного инцидента информационной безопасности. Из‑за некорректной конфигурации облачной базы данных Firebase в открытом доступе оказались сотни миллионов приватных диалогов людей с ИИ‑ботами, включая крайне чувствительные и потенциально опасные запросы.

Масштаб утечки данных ИИ‑приложения Chat & Ask AI

Chat & Ask AI разработано турецкой компанией Codeway и представляет собой удобную оболочку для работы с моделями ChatGPT, Claude и Gemini. Приложение установлено более чем 10 млн раз в Google Play и имеет свыше 318 000 оценок в App Store, что делает инцидент особенно значимым с точки зрения количества затронутых пользователей.

По данным издания 404 Media, исследователь информационной безопасности под псевдонимом Гарри (Harry) обнаружил, что бэкенд‑хранилище приложения было доступно любому желающему. В результате ему удалось получить доступ к примерно 300 млн сообщений, принадлежавших 25 млн пользователей. В базе хранились полные истории переписки с ИИ, временные метки, имена использованных ботов, настройки моделей и информация о том, какую именно модель выбрал пользователь.

Ошибка в настройке Firebase: как «аутентифицированным» мог стать любой

Причиной утечки стала неправильная настройка Firebase — облачной платформы Google, часто используемой для хранения данных мобильных приложений. В частности, ошибки в правилах доступа (Firebase Security Rules) позволяли любому клиенту приложения фактически стать «аутентифицированным пользователем» и читать данные из бэкенд‑БД.

Подобные инциденты, когда разработчики оставляют правила чтения/записи в Firebase избыточно открытыми, давно известны экспертам по кибербезопасности. Глава компании Trail of Bits Дэн Гуидо (Dan Guido) ранее называл такие ошибки «хорошо известной слабостью» экосистемы мобильных приложений. По его словам, в Trail of Bits даже создали сканер для выявления уязвимых конфигураций Firebase всего за 30 минут с помощью ИИ‑модели Claude, что подчеркивает массовый характер проблемы.

Содержимое утечки: насколько чувствительны запросы к ИИ

Анализ выборки сообщений показал, что многие пользователи воспринимают ИИ‑ассистентов как пространство для максимально личных и доверительных разговоров. В утекших данных встречались запросы о способах «как безболезненно покончить с собой», просьбы составить прощальные записки, интерес к рецептам наркотиков, а также подсказкам по взлому приложений.

Один из пользователей просил: «Напиши мне эссе на две страницы о том, как варить мет в мире, где это легализовали для медицинских целей». Другой обращался к боту с вопросом: «Я хочу убить себя, какой способ лучший». Эти примеры иллюстрируют, что истории диалогов с ИИ могут содержать не только персональные данные, но и крайне чувствительную информацию о психологическом состоянии, намерениях и потенциально противоправном поведении.

Не только Chat & Ask AI: системная проблема безопасности мобильных приложений

По словам Гарри, уязвимость затрагивала не только Chat & Ask AI, но и другие продукты компании Codeway. После уведомления разработчиков 20 января 2026 года компания в течение нескольких часов закрыла дыру во всех своих приложениях, что свидетельствует о быстрой реакции, но одновременно демонстрирует, что единая ошибочная конфигурация может масштабироваться на целое семейство сервисов.

Исследователь также создал собственный инструмент для автоматического сканирования магазинов приложений на предмет неправильных настроек Firebase. При проверке 200 iOS‑приложений уязвимость была обнаружена в 103 из них — то есть более чем в половине. Гарри запустил сайт со списком проблемных приложений; по мере устранения уязвимостей он удаляет их из перечня. Продукты Codeway уже исключены из списка, так как ошибка была оперативно исправлена.

Риски для пользователей и уроки для разработчиков ИИ‑сервисов

Утечки данных из ИИ‑приложений несут двойной риск. Во‑первых, раскрываются конфиденциальные личные данные — от намеков на состояние здоровья и психики до информации о привычках, местах, финансовых затруднениях и межличностных конфликтах. Во‑вторых, в диалогах нередко фигурируют запросы о потенциально незаконной деятельности, что может создать дополнительные юридические и репутационные риски для пострадавших пользователей.

С точки зрения практики кибербезопасности инцидент вокруг Chat & Ask AI подчеркивает необходимость базовых мер защиты: строгой настройки Firebase Security Rules, принципа минимально необходимого доступа (least privilege), регулярного автоматического сканирования конфигураций, независимых аудитов безопасности и шифрования особенно чувствительных данных. Для ИИ‑сервисов, где диалоги часто затрагивают психологические и этически сложные темы, требования к защите информации должны быть сопоставимы с медицинской или финансовой тайной.

Пользователям ИИ‑приложений целесообразно критически относиться к тому, какую именно информацию они доверяют алгоритмам: избегать передачи паспортных и финансовых данных, детальных планов поездок, контактной информации третьих лиц и описания действий, которые могут трактоваться как противоправные. Инцидент с Chat & Ask AI наглядно показывает, что даже популярные и высоко оцененные приложения могут допускать фундаментальные ошибки в архитектуре безопасности.

История с ошибочной настройкой Firebase в Chat & Ask AI стала еще одним напоминанием, что удобство и функциональность ИИ‑сервисов должны сопровождаться зрелым подходом к кибербезопасности. Разработчикам стоит встроить проверки конфигураций, безопасность по умолчанию и регулярный мониторинг в стандартный жизненный цикл разработки. Пользователям же важно повышать собственную цифровую гигиену и осознанно выбирать сервисы, которые прозрачно относятся к защите данных и оперативно реагируют на уязвимости.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.