Одна из крупнейших баг-баунти платформ HackerOne оказалась в центре дискуссии о том, как в индустрии кибербезопасности применяются искусственный интеллект (ИИ) и данные исследователей. Поводом стали подозрения части сообщества, что отчёты об уязвимостях могут использоваться для обучения ИИ-моделей без явного согласия авторов.
Запуск Agentic PTaaS и вопросы об источниках данных для ИИ
Внимание исследователей привлёл новый продукт компании — Agentic PTaaS, который HackerOne позиционирует как «непрерывное тестирование безопасности с использованием автономных ИИ-агентов и человеческой экспертизы». В описании подчёркивается, что ИИ-агенты опираются на «проприетарную базу знаний об эксплоитах, накопленную HackerOne за годы тестирования реальных корпоративных систем».
Именно формулировка о многолетней базе знаний вызвала закономерный вопрос: из каких именно данных сформирована эта база и используются ли в ней баг-репорты исследователей? Ряд багхантеров публично выразили опасения, что их работа могла стать частью тренировочного датасета для ИИ без отдельного уведомления и выбора (opt-in/opt-out).
Некоторые исследователи акцентировали, что, когда «белые хакеры» начинают сомневаться в том, что правовые механизмы и условия использования платформ работают в их интересах, мотивация участвовать в программах bug bounty снижается, а риск утечки ценных знаний на «тёмную сторону» растёт.
Официальная позиция HackerOne: отчёты не используются для обучения генеративного ИИ
На фоне растущей критики CEO HackerOne Кара Спраг (Kara Sprague) опубликовала развёрнутый комментарий в LinkedIn. Она заявила, что HackerOne не обучает генеративные ИИ‑модели — ни собственные, ни сторонние — на отчётах исследователей или конфиденциальных данных клиентов.
Отдельно подчёркивается, что такие данные не применяются и для тонкой настройки (fine-tuning) существующих моделей. По словам Спраг, поставщикам ИИ-моделей в договорах прямо запрещено хранить или повторно использовать данные исследователей и заказчиков для обучения своих моделей. Это соответствует лучшим практикам по защите данных при работе с облачными LLM‑сервисами: многие крупные провайдеры сейчас предлагают «no-training» режимы именно для корпоративных клиентов.
В рамках новой стратегии ИИ-поддержки HackerOne развивает агентную систему HackerOne Hai, которая, по словам компании, предназначена для ускорения процессов верификации отчётов, подготовки рекомендаций по исправлениям и обработки выплат, при этом не подрывая целостность и конфиденциальность вклада багхантеров.
Реакция конкурентов: прозрачная политика ИИ как фактор доверия
Intigriti: акцент на праве собственности исследователей
Скандал вокруг HackerOne побудил конкурирующие платформы публично обозначить свою политику в отношении ИИ. Основатель и CEO Intigriti Стейн Янс заявил, что компания рассматривает результаты работы багхантеров как их интеллектуальную собственность и подчёркнуто заверил сообщество: «ваша работа принадлежит вам».
По его словам, Intigriti применяет ИИ-инструменты прежде всего для повышения эффективности обработки отчётов и улучшения взаимодействия между исследователями и заказчиками, а не для построения собственных закрытых моделей на основе чужих находок.
Bugcrowd: строгие ограничения на обучение ИИ
Платформа Bugcrowd уже закрепила свою позицию в официальных условиях использования. Третьим сторонам запрещено обучать любые ИИ- и LLM‑модели на данных исследователей и клиентов. При этом сами багхантеры обязаны ответственно использовать генеративный ИИ: автоматически сгенерированные и не проверенные вручную отчёты не принимаются к рассмотрению.
Такой подход отражает ключевой тренд рынка bug bounty: платформы стремятся балансировать между выгодой от применения ИИ и необходимостью сохранять доверие комьюнити, для которого прозрачность обращения с отчётами об уязвимостях критична.
Почему обучение ИИ на отчётах об уязвимостях вызывает столько споров
Bug bounty‑программы часто затрагивают критически важные уязвимости, детали инфраструктуры компаний, конфиденциальные логи и фрагменты кода. Передача таких данных в тренировочные выборки ИИ-моделей создаёт несколько уровней риска:
Во‑первых, возможна утечка знаний через модель. Даже если вероятность воспроизведения конкретного отчёта невысока, исследования показывают, что модели могут «запоминать» фрагменты чувствительных данных. Для уязвимостей нулевого дня (zero‑day) это особенно опасно.
Во‑вторых, нарушается принцип минимизации данных, который закреплён во многих регуляциях (GDPR, обсуждаемый EU AI Act и др.). Компании, работающие с ИИ в кибербезопасности, вынуждены особенно тщательно документировать правовые основания обработки таких данных.
В‑третьих, любое ощущение «эксплуатации» труда багхантеров без дополнительного вознаграждения или ясных условий подрывает мотивацию сообщества. Учитывая, что по данным отраслевых отчётов (например, Verizon DBIR, ENISA) атаки всё активнее используют ранее известные, но не исправленные уязвимости, падение активности исследователей может иметь прямое влияние на общий уровень киберустойчивости компаний.
На фоне дискуссии HackerOne анонсировала обновление Terms and Conditions, чтобы формализовать уже озвученные устные обещания и снять часть опасений сообщества. Это логичный шаг: без чётко прописанных правил любая активность в области ИИ легко превращается в источник репутационных рисков.
История с HackerOne показывает, что в эпоху ИИ прозрачность обращения с данными становится ключевым конкурентным преимуществом bug bounty платформ. Исследователям и заказчикам имеет смысл внимательно изучать политику ИИ и разделы о конфиденциальности в условиях использования сервисов, задавать прямые вопросы о том, как и где могут использоваться их отчёты, и при необходимости требовать отдельного согласия на любые формы обучения моделей. Компании, которые выстраивают честные и понятные правила работы с ИИ сегодня, с высокой вероятностью станут наиболее надёжными партнёрами по кибербезопасности завтра.