ИИ и безопасность паролей: почему ChatGPT, Claude и Gemini не подходят для генерации секретов

CyberSecureFox 🦊

Широкое распространение крупных языковых моделей (LLM) привело к тому, что многие пользователи и разработчики поручили им генерацию паролей. На первый взгляд такие пароли выглядят сложными: они длинные, содержат буквы разного регистра, цифры и специальные символы. Однако исследование компании Irregular показывает, что за внешней «красотой» скрывается системная уязвимость: ИИ-пароли предсказуемы и могут быть подобраны за считанные часы.

Как проверяли надёжность паролей, сгенерированных ИИ

Специалисты Irregular протестировали три популярные модели: ChatGPT, Claude и Gemini. Каждую систему 50 раз просили сгенерировать пароль длиной 16 символов с обязательным использованием прописных и строчных букв, цифр и спецсимволов. Такой формат обычно считается «золотым стандартом» для сильных паролей.

Полученные пароли затем прогнали через распространённые онлайн-сервисы проверки надёжности. Эти инструменты оценили ИИ-пароли как очень сильные и «пообещали», что на их взлом уйдут десятилетия и даже столетия. Однако проблема в том, что подобные сервисы исходят из допущения о случайном выборе символов и не знают о скрытых паттернах, характерных для текстов, генерируемых LLM.

Повторяющиеся шаблоны в паролях ChatGPT, Claude и Gemini

Детальный анализ показал, что ИИ создают не истинно случайные строки, а следуют устойчивым шаблонам. Так, из 50 паролей, сгенерированных Claude, уникальными оказались лишь 30. Ещё 20 дублировались, причём 18 раз модель вернула буквально одну и ту же строку. У значительной части паролей совпадали первые и последние символы — то есть начало и окончание строки следовали предсказуемому паттерну.

Похожее поведение продемонстрировали ChatGPT и Gemini: у них тоже проявились характерные последовательности в начале и структуре паролей. Примечательная деталь — ни в одном из 50 паролей Claude не было повторяющихся символов. На первый взгляд это может показаться плюсом, но на практике такой «аккуратный» результат лишь подтверждает, что модель использует усвоенный шаблон, а не действует как генератор истинной случайности.

Отдельно исследователи протестировали модель генерации изображений Google Nano Banana Pro, попросив ИИ нарисовать стикер с «случайным» паролем. Анализ показал те же закономерности, что и у Gemini: визуальный формат запроса не избавляет от проблемы предсказуемых шаблонов.

Реальная энтропия: почему ИИ‑пароли взламываются за часы

Чтобы объективно оценить стойкость паролей, эксперты применили формулу энтропии Шеннона и вероятностный анализ на основе лог-вероятностей самих моделей. Энтропия в битах показывает, насколько непредсказуемой является строка: чем выше показатель, тем сложнее перебором угадать пароль.

Для 16-символьных паролей, созданных LLM, энтропия составила примерно 27 бит по символьной статистике и около 20 бит при оценке через лог-вероятности моделей. Для сравнения, по-настоящему случайный пароль той же длины при использовании сопоставимого набора символов должен давать порядка 98–120 бит энтропии. Разница — на порядки.

Практическое следствие этого разрыва очевидно: по оценке Irregular, ИИ‑пароль можно подобрать за несколько часов с помощью обычного брутфорса даже на относительно старом «железе». При наличии современного GPU и оптимизированных словарей, учитывающих ИИ‑паттерны, время подбора ещё сокращается.

Почему языковые модели не могут быть безопасным генератором паролей

Корень проблемы — в самой природе LLM. Языковые модели обучаются максимизировать правдоподобие текста: они предсказывают следующий токен (символ или слово) так, чтобы результат выглядел естественным и типичным для обучающей выборки. Это прямо противоречит требованию к безопасным паролям — быть максимально непохожими на ожидаемые последовательности.

Даже при изменении параметров вроде temperature или сложных промптов модель остаётся инструментом генерации предсказуемых текстов, а не криптографически стойких случайных строк. LLM не являются и не должны рассматриваться как криптографический генератор случайных чисел, который требуется стандартами вроде NIST SP 800‑63 для надёжной аутентификации.

Реальные риски: утечка ИИ‑паттернов в код и инфраструктуру

Исследователи обнаружили, что характерные последовательности, присущие ИИ‑паролям, уже массово встречаются в открытых репозиториях. Поиск таких паттернов на GitHub показывает их в тестовом коде, технической документации и файлах конфигурации. Это означает, что разработчики активно используют ИИ для генерации паролей и секретов в реальных проектах.

Для атакующего это создаёт новые возможности. Зная, какие шаблоны предпочитает та или иная модель, злоумышленник может строить специализированные словари и гибридные атаки, значительно ускоряющие брутфорс. В результате даже формально «сложные» пароли, засветившиеся в коде или логах, перестают быть серьёзным барьером.

Как безопасно генерировать пароли и что делать тем, кто уже полагался на ИИ

Эксперты Irregular рекомендуют организациям и разработчикам пересмотреть все пароли, которые могли быть сгенерированы с помощью ChatGPT, Claude, Gemini и других LLM, и заменить их на значения, созданные специализированными средствами. Речь идёт как о пользовательских учётных записях, так и о токенах, API‑ключах, паролях к БД, сервисным аккаунтам и т.д.

Для повседневной работы безопаснее использовать менеджеры паролей с встроенным генератором на основе криптографически стойкого ГСЧ. Рекомендуется применять длинные и уникальные пароли (16–20+ символов для важных учётных записей), не повторять один и тот же пароль на разных сервисах и по возможности включать многофакторную аутентификацию. Разработчикам стоит хранить секреты в специализированных хранилищах (vault‑решениях), а не в коде или открытых конфигурациях.

ИИ уже стал незаменимым инструментом для анализа кода, создания документации и автоматизации рутины, однако его использование для генерации паролей и иных секретов несёт системный риск. Осведомлённость о природе этих рисков и переход на проверенные практики управления паролями — необходимый шаг для любой компании, которая серьёзно относится к кибербезопасности. Сейчас подходящее время провести инвентаризацию паролей, отказаться от ИИ‑генерации секретов и выстроить надёжную политику аутентификации на годы вперёд.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.