Утечка данных ИИ-игрушки Bondu: как детские чаты оказались в открытом доступе

CyberSecureFox 🦊

История с плюшевыми динозаврами Bondu с встроенным чат-ботом стала показательным примером того, какие риски несут ИИ-игрушки для конфиденциальности детей. Из-за ошибки в настройке веб-портала любой пользователь с учетной записью Gmail мог получить доступ к переписке детей с игрушкой, а также к их персональным и семейным данным.

Как ИИ-игрушка Bondu допустила утечку данных детей

Инцидент обнаружили специалисты по информационной безопасности Джозеф Такер (Joseph Thacker) и Джоэль Марголис (Joel Margolis). Поводом стала обычная бытовая ситуация: соседка одного из экспертов купила своим детям игрушку Bondu и попросила оценить ее с точки зрения безопасности. Уже через несколько минут анализа исследователи нашли открытый веб-портал Bondu.

Проблема заключалась в том, что для входа в консоль было достаточно авторизоваться через Google-аккаунт. Не применялась корректная проверка прав доступа и разделение данных по пользователям, поэтому после входа пользователь видел не только свои данные, но и полный перечень разговоров всех владельцев игрушки.

Какие персональные данные детей оказались доступны

Через уязвимый портал можно было просмотреть не только чаты, но и чувствительную информацию о детях и их семьях. В открытом доступе оказались:

имена детей и даты их рождения; имена членов семьи; «развивающие цели», которые родители указывали для ребенка в приложении; полные текстовые транскрипты всех разговоров с ИИ-игрушкой Bondu.

По данным компании, утечка затронула более 50 000 чатов, то есть практически всю историю взаимодействия детей с игрушкой, за исключением вручную удаленных бесед. Один из исследователей охарактеризовал ситуацию как серьезное нарушение детской приватности: чужой человек мог узнать, как дети называют игрушку, какие у них любимые игры и закуски, какие события происходят в семье.

Реакция Bondu и предпринятые меры

После получения уведомления об инциденте компания оперативно закрыла доступ к консоли и уже на следующий день перезапустила портал с корректной аутентификацией и авторизацией. Руководитель Bondu Фатин Анам Рафид заявил, что на исправление ушло несколько часов, а затем был проведен дополнительный аудит безопасности.

По утверждению компании, не обнаружено доказательств, что уязвимость использовали злоумышленники. Однако, как часто бывает в подобных ситуациях, отсутствие явных следов не означает, что доступ к данным никто не получал: не все действия в таких системах корректно логируются и сохраняются длительное время.

Риски для безопасности детей и семьи

Детские чаты с ИИ-игрушкой содержат гораздо больше, чем безобидные ответы на вопросы. На основе протоколов разговоров можно собрать достаточно подробный профиль ребенка и семьи: режим дня, любимые места, увлечения, отношения в семье, иногда — адрес или ориентиры рядом с домом или школой.

С точки зрения кибербезопасности это создает широкие возможности для социальной инженерии и целевых атак против детей. Как справедливо заметили исследователи, такой массив данных фактически становится «мечтой для похитителя»: зная интересы и привычки ребенка, злоумышленник может выстроить доверительную коммуникацию или использовать информацию для шантажа и манипуляций.

Проблема безопасности ИИ-игрушек в целом

Ситуация с Bondu не является уникальной, а иллюстрирует системную проблему: большинство ИИ-игрушек и «умных» гаджетов для детей хранят подробную историю взаимодействий. Логи используются для улучшения диалоговых моделей и персонализации, но при этом увеличивают объем конфиденциальных данных, которые необходимо защищать.

Передача детских данных провайдерам ИИ‑моделей

В Bondu для генерации ответов используются внешние ИИ-платформы, включая Google Gemini и, по заявлениям компании, GPT‑5 от OpenAI. Это означает, что часть сведений из детских диалогов передается сторонним провайдерам моделей, пусть и в «минимизированном» виде. Компания подчеркивает, что работает в корпоративном режиме, где промпты не применяются для обучения моделей.

Тем не менее любые интеграции с внешними ИИ-сервисами повышают риски: данные путешествуют по цепочке поставщиков, и конфиденциальность каждого звена влияет на безопасность ребенка. В ряде юрисдикций, в том числе в ЕС и США, подобная обработка детских данных подпадает под более жесткое регулирование и может заинтересовать регуляторов.

Разработка с помощью ИИ и уязвимые веб‑порталы

По оценке исследователей, портал Bondu, вероятно, создавался с активным использованием ИИ-инструментов и так называемого «вайбкодинга» — когда разработчики полагаются на сгенерированные фрагменты кода, не проводя полноценный анализ безопасности и тестирование. В итоге критичные элементы авторизации и контроля доступа оказываются реализованными с ошибками.

С ростом популярности генеративного ИИ такие случаи будут встречаться чаще: ускорение разработки без обязательных практик secure coding и аудита безопасности формирует новые классы уязвимостей в потребительских продуктах, в том числе предназначенных для детей.

Инцидент с Bondu наглядно показывает, что любой «умный» детский гаджет должен рассматриваться как потенциальный источник утечки данных. Родителям имеет смысл оценивать не только развивающий потенциал ИИ-игрушек, но и то, какие данные они собирают, как долго хранятся чаты, применяется ли шифрование и есть ли у компании прозрачная политика конфиденциальности. Стоит по возможности ограничивать объем передаваемой информации, регулярно проверять настройки аккаунта и удалять старые записи, если такая функция доступна.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.