Паролі, згенеровані ШІ (LLM): чому вони виглядають сильними, але ламаються за години

CyberSecureFox 🦊

Масове впровадження великих мовних моделей (LLM) призвело до того, що користувачі та розробники дедалі частіше доручають їм генерацію паролів. Такі паролі здаються ідеальними: довгі, з різними регістрами, цифрами й спецсимволами. Однак дослідження компанії Irregular демонструє, що за цією «красою» ховається системна вразливість: паролі ШІ передбачувані й можуть бути підібрані за кілька годин.

Як перевіряли надійність паролів, згенерованих ШІ

Фахівці Irregular протестували три популярні мовні моделі: ChatGPT, Claude та Gemini. Кожну систему 50 разів просили створити пароль довжиною 16 символів із використанням великих і малих літер, цифр та спеціальних знаків — типового формату, який багато стандартів вважають «сильним паролем».

Отримані паролі перевірили за допомогою поширених онлайн-сервісів оцінки надійності. Ці інструменти класифікували їх як дуже сильні і «гарантували» десятиліття або навіть століття, необхідні для злому. Проблема в тому, що такі сервіси припускають істинно випадковий вибір символів і не враховують приховані патерни, притаманні текстам, які генерують LLM.

Передбачувані шаблони в паролях LLM

Детальний аналіз виявив, що мовні моделі генерують не справді випадкові рядки, а дотримуються стійких шаблонів. Для Claude із 50 паролів лише 30 виявилися унікальними: 20 дублювалися, причому 18 разів модель повернула абсолютно однаковий рядок. У багатьох паролів збігалися перші й останні символи, тобто початок і кінець були передбачуваними.

Схожа поведінка спостерігалася в ChatGPT та Gemini: моделі відтворювали характерні послідовності, особливо на початку паролів і в їхній структурі. Показовий факт — у жодному з 50 паролів Claude не було повторюваних символів. З точки зору людини це «акуратний» результат, але для безпеки це тривожний сигнал: модель діє за засвоєним шаблоном, а не як генератор випадковості.

Окремо дослідники перевірили модель генерації зображень Google Nano Banana Pro, попросивши намалювати стікер із «випадковим» паролем. Аналіз тексту на зображенні показав ті самі закономірності, що й у Gemini: зміна формату запиту (текст/картинка) не усуває патерни ШІ.

Ентропія Шеннона: скільки насправді «важать» паролі ШІ

Щоб об’єктивно виміряти стійкість паролів LLM, Irregular застосувала ентропію Шеннона та ймовірнісний аналіз на основі лог-імовірностей самих моделей. Ентропія в бітах показує непередбачуваність рядка: що вище показник, то складніше підібрати пароль перебором.

Для 16-символьних паролів, згенерованих ШІ, ентропія склала приблизно 27 біт за символьними статистиками і близько 20 біт за лог-імовірностями моделей. Для порівняння, криптографічно випадковий пароль такої ж довжини з аналогічним набором символів має давати орієнтовно 98–120 біт ентропії. Різниця — на порядки, а не на відсотки.

Практичний наслідок очевидний: за оцінками Irregular, такий пароль ШІ можна підібрати за кілька годин за допомогою звичайного брутфорсу навіть на відносно старому обладнанні. Використання сучасних GPU та словників, оптимізованих під патерни LLM, ще більше скорочує час злому.

Чому мовні моделі не можуть бути безпечним генератором паролів

Корінь проблеми закладений у самій архітектурі LLM. Мовні моделі навчаються максимізувати правдоподібність тексту: вони обирають наступний токен так, щоб результат виглядав природно й типово для навчальних даних. Для паролів потрібно протилежне — максимальна непередбачуваність і відсутність «людяних» закономірностей.

Зміна параметрів на кшталт temperature або побудова складних промптів не перетворює LLM на криптографічно безпечний генератор випадкових чисел (CSPRNG). Стандарти на кшталт NIST SP 800‑63 та рекомендації OWASP прямо вимагають використання криптостійких джерел випадковості для аутентифікації — мовні моделі до таких не належать і не повинні так використовуватися.

Реальні ризики: патерни ШІ вже в коді та інфраструктурі

Дослідники знайшли характерні для ІІ-паролів послідовності в публічних репозиторіях. Пошук таких шаблонів на GitHub показує їх у тестах, документації, конфігураційних файлах і навіть у прикладах API-ключів. Це означає, що розробники активно використовують генерацію паролів ШІ у реальних проєктах.

Для зловмисників це створює новий вектор атаки. Знаючи, які шаблони типово генерує певна модель, можна будувати спеціалізовані словники та гібридні атаки, поєднуючи перебір із знанням патернів. У результаті формально «складні» паролі, що потрапили в код або логи, перестають бути серйозною перешкодою.

Як безпечно генерувати паролі замість використання ШІ

Що робити тим, хто вже користувався ШІ для паролів

Irregular рекомендує організаціям і розробникам переглянути та замінити всі паролі й секрети, які могли бути згенеровані ChatGPT, Claude, Gemini та іншими LLM. Це стосується не лише облікових записів користувачів, а й API‑ключів, токенів доступу, паролів до БД, сервісних акаунтів, SSH‑ключів та інших критичних секретів.

Кращі практики безпечної генерації та зберігання паролів

Для щоденної роботи варто використовувати менеджери паролів із вбудованими генераторами на базі криптографічно стійкого ГВЧ (CSPRNG). Рекомендовано застосовувати довгі та унікальні паролі (від 16–20 символів для важливих акаунтів), не повторювати пароль на різних сервісах і скрізь, де можливо, вмикати багатофакторну аутентифікацію (MFA).

Розробникам доцільно зберігати секрети в спеціалізованих vault‑рішеннях (на кшталт секретних сховищ у хмарних платформах), а не в коді чи відкритих конфігураціях. Автоматизація розгортання повинна будуватися так, щоб секрети передавалися динамічно і могли регулярно ротуватися без ручного втручання.

Штучний інтелект вже став потужним інструментом для аналізу коду, документації та автоматизації, але використання генерації паролів ШІ створює системний ризик для кібербезпеки. Знання про низьку ентропію та передбачувані шаблони LLM — привід прямо зараз провести інвентаризацію паролів, відмовитися від ІІ як джерела секретів і впровадити зрілі політики аутентифікації, які залишатимуться надійними протягом наступних років.

Залишити коментар

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються дані ваших коментарів.