Псевдонім у соцмережі більше не гарантує реальної анонімності. Нове дослідження, виконане командою з ETH Zurich, програми MATS (ML Alignment & Theory Scholars) та компанії Anthropic, демонструє, що сучасні великі мовні моделі (LLM) вже сьогодні здатні масово співставляти «анонімні» акаунти з конкретними людьми, спираючись лише на їхню відкриту онлайн-активність.
Деанонімізація за допомогою LLM: точність, порівняна з ручними методами
Мета дослідження полягала в тому, щоб оцінити, наскільки ефективно LLM виконують завдання деанонімізації користувачів — визначення особи власника акаунта за змістом його публікацій і поведінковими патернами. В окремих експериментах моделі досягали до 68% за метрикою recall (частка успішно деанонімізованих акаунтів) і до 90% за метрикою precision (частка коректних збігів серед усіх «вгаданих» особистостей).
Для порівняння: класичні підходи до деанонімізації зазвичай спираються на попередньо зібрані та структуровані датасети й вимагають значних людських та обчислювальних ресурсів. Навіть відомий кейс Netflix Prize, де ще у 2000‑х роках дослідники (зокрема Нараянан і Шматіков) деанонімізували користувачів за анонімізованими рейтингами фільмів, потребував суттєвих зусиль. Сучасні LLM працюють безпосередньо з неструктурованим текстом, автоматично виділяючи слабкі, але стабільні сигнали, які раніше було важко масштабовано аналізувати.
Як тестували деанонімізацію: від Hacker News і LinkedIn до Netflix і Reddit
Зв’язування акаунтів Hacker News та LinkedIn
В одному зі сценаріїв дослідники поєднали публікації користувачів на Hacker News з їхніми профілями в LinkedIn, використовуючи відкриті кросплатформні згадки. Після цього всі явні ідентифікатори — імена, нікнейми, посилання — було видалено. LLM потрібно було відновити відповідність акаунтів лише за змістом постів: темами, професійною термінологією, описом досвіду та інтересів.
Історія переглядів Netflix як «цифровий відбиток»
Інший датасет базувався на історичних даних Netflix: вподобаннях, рекомендаціях, записах переглядів та транзакціях. Цей підхід напряму відсилає до класичної атаки на датасет Netflix Prize, але тепер дослідники показали, що аналогічні деанонімізувальні атаки можна масштабувати й автоматизувати за допомогою LLM, значно знижуючи поріг входу для потенційних зловмисників.
Reddit: ідентифікація за стилем і тематикою коментарів
Окремі експерименти стосувалися Reddit, де історію активності користувачів розбивали на фрагменти. Модель отримувала частини коментарів і мала вирішити, чи належать ці повідомлення одній і тій самій людині. Аналізувалися мовні особливості (лексика, синтаксис), теми, частота та контекст згадуваних об’єктів.
Найбільш показовим став приклад із кінематографічними спільнотами Reddit: r/movies та п’ятьма пов’язаними сабреддитами (r/horror, r/MovieSuggestions, r/Letterboxd, r/TrueFilm, r/MovieDetails). Дослідники виявили, що чим більше фільмів обговорює користувач, тим легше його деанонімізувати. При точності 90% вдавалося співставити особистості:
3,1% користувачів, які згадали лише один фільм; 8,4% — тих, хто обговорював від п’яти до дев’яти фільмів; і вже 48,1% — серед користувачів, що писали про десять і більше стрічок. Таким чином, звичайна медіа-активність формує стійкий «цифровий відбиток».
Опитування користувачів ІІ від Anthropic
У ще одному тесті проаналізовано відповіді 125 учасників опитування Anthropic про їхнє повсякденне використання штучного інтелекту. На основі лише вільних текстових відповідей LLM змогли точно ідентифікувати приблизно 7% респондентів. Хоча цей показник здається помірним, дослідники підкреслюють, що йдеться про деанонімізацію без будь-яких явних ідентифікаторів.
Чому LLM роблять деанонімізацію масовою та стійкою
У третьому великому експерименті LLM порівняли з класичною атакою на кшталт Netflix Prize, використовуючи дані про 5000 реальних користувачів Reddit та 5000 штучних профілів. Традиційні статистичні методи швидко втрачали точність із ускладненням задачі, тоді як LLM зберігали стабільну ефективність на різних підмножинах і сценаріях.
Ключова відмінність полягає в тому, що мовні моделі аналізують не тільки часові патерни, перетини по темах чи об’єктах, а й глибоку семантику та індивідуальний стиль письма. Сукупність лексики, довжини речень, типових формулювань, структур мислення та улюблених тем створює унікальний мовний «почерк», який важко приховати навіть за різними нікнеймами та платформами.
Наслідки для користувачів, бізнесу та держав: нова реальність анонімності
Якщо точність та масштабованість таких методів надалі зростатимуть, анонімність в інтернеті істотно зміниться. Дослідники попереджають, що уряди потенційно можуть застосовувати LLM для виявлення анонімних критиків чи опозиційних авторів, а великі корпорації — для побудови надточних профілів поведінки та таргетингу.
Зростає і ризик кіберзлочинності. Чим простіше зловмисникам деанонімізувати акаунти, тим легше проводити цільові атаки соціальної інженерії, фішингові кампанії, шантаж або доксинг. Особливо небезпечно те, що користувач може суб’єктивно вважати себе захищеним, використовуючи псевдонім чи розділяючи активність між кількома сервісами.
Як зменшити ризики: кроки для платформ, провайдерів LLM і користувачів
Автори роботи наголошують: протидія деанонімізації на базі LLM потребує участі всіх зацікавлених сторін. Онлайн-платформам варто обмежувати обсяги та частоту API-запитів до користувацького контенту, впроваджувати механізми виявлення автоматизованого скрапінгу й блокувати масовий експорт даних, придатних для побудови ідентифікаційних моделей.
Постачальники великих мовних моделей мають запроваджувати жорсткі політики використання, які прямо забороняють деанонімізацію фізичних осіб, а також відстежувати патерни запитів до моделей. Спроби систематично зіставляти акаунти чи витягувати приховані персональні дані повинні блокуватися на рівні інфраструктури та модераційних механізмів.
Користувачам варто переосмислити власну модель загроз. Рекомендовано уникати однакових нікнеймів та біографій на різних платформах, не публікувати зайві персональні деталі, відділяти професійну та особисту присутність у мережі, періодично переглядати налаштування конфіденційності й обмежувати трекінг сторонніми сервісами.
Розвиток великих мовних моделей показує, що формальна анонімізація та псевдоніми більше не є надійним щитом. Реальна приватність дедалі більше залежить від керованого цифрового сліду: того, що ми пишемо, які теми системно піднімаємо і як розподіляємо свою активність між платформами. Чим раніше користувачі, компанії та регулятори усвідомлять цю зміну парадигми й інтегрують захист приватності у свої стратегії кібербезпеки, тим вищими будуть шанси зберегти контроль над власною цифровою ідентичністю.