Французькі правоохоронні органи провели обшук у парижському офісі соцмережі X у рамках масштабного розслідування, пов’язаного з роботою генеративного інструмента штучного інтелекту Grok. Слідство перевіряє, чи не використовувався Grok для створення та поширення незаконного контенту — від сексуальних дипфейків до матеріалів, що заперечують Голокост. Це один із перших гучних кейсів, коли держава напряму ставить питання про кримінальну відповідальність платформи за роботу ІІ-моделі.
Як почалося розслідування проти X та Grok
За інформацією прокуратури Парижа, провадження відкрите ще у січні 2025 року після скарг користувачів та правозахисних організацій. Вони стверджували, що Grok здатен генерувати завідомо протизаконний контент: сексуально відверті зображення без згоди людей, а також висловлювання, які у Франції прямо криміналізовані, зокрема заперечення Голокосту.
Обшуки проводило кіберпідрозділ Національної жандармерії за підтримки Europol. Такий формат взаємодії показує транскордонний характер кейсу: контент створюється глобально, але саме локальна юридична особа платформи несе обов’язок забезпечити його відповідність національному законодавству.
Потенційні кіберж злочини: від CSAM до «нелегальної онлайн-платформи»
Французькі кіберполіцейські розслідують одразу сім можливих складів кримінальних правопорушень, що могли вчинятися через X або за участі платформи. Серед них:
1. Співучасть у зберіганні та розповсюдженні матеріалів сексуального насильства над дітьми (CSAM). Це одна з найтяжчих категорій кіберзлочинів, де від платформ очікують проактивне виявлення та блокування контенту, а також тісну співпрацю з правоохоронцями.
2. Створення та поширення сексуальних дипфейків. Йдеться про інтимні зображення, згенеровані на основі реальних облич без згоди людей. Генеративний ШІ різко здешевив і спростив подібні атаки на репутацію, що вже розглядаються як форма цифрового насильства.
3. Заперечення Голокосту. У Франції це кримінально каране діяння, а в онлайні воно розглядається ще й як ризик масштабного поширення дезінформації та мови ненависті.
4. «Шахрайське добування даних» (data scraping). Під цим зазвичай мають на увазі агресивний збір масивів даних користувачів у обхід правил платформи чи законодавства про захист інформації, що становить загрозу конфіденційності та може живити подальші кібератаки.
5. Несанкціоноване втручання в інформаційні системи. Це може охоплювати несанкціонований доступ до систем X, модифікацію даних чи блокування сервісів.
6–7. Функціонування нелегальної онлайн-платформи в рамках організованої злочинної діяльності. Тут слідчі перевіряють, чи не створює платформа умови для системної незаконної активності або чи не толерує її.
Такий перелік статей свідчить про комплексну перевірку архітектури безпеки, контент-модерації та процесів роботи ІІ, а не про одиничний інцидент.
Допроси керівництва X та реакція компанії
Прокуратура викликала на допит Ілона Маска та CEO X Лінду Яккаріно. Їхні «добровільні бесіди» заплановані на 20 квітня, а інших співробітників компанії опитають як свідків у період з 20 по 24 квітня. Від топ-менеджменту очікують пояснень щодо нинішніх і запланованих механізмів дотримання французького законодавства.
Офіційний акаунт Global Government Affairs у X раніше назвав частину розслідування, що стосується можливих маніпуляцій алгоритмами та data scraping, політично вмотивованим. Подібна риторика вже стала типовою в конфліктах між глобальними платформами та національними регуляторами, де на перетині — свобода вираження, бізнес-інтереси й обов’язок боротися з кіберзлочинністю.
Тиск регуляторів: DSA, захист даних та міжнародні перевірки
Паралельно Європейська комісія у січні 2026 року запустила окрему перевірку X у контексті Закону про цифрові послуги (Digital Services Act, DSA). Регулятор аналізує, чи провела компанія належну оцінку системних ризиків перед розгортанням Grok, зокрема щодо генерації сексуального контенту.
Додаткові питання надходять від інших юрисдикцій. Британський Ofcom та офіс генпрокурора штату Каліфорнія Роба Бонти вивчають кейси створення непристойних матеріалів за допомогою Grok без згоди зображених осіб. Британське ICO запросило в X і розробників ІІ документи про дотримання норм захисту даних: принципів мінімізації, правомірності обробки та забезпечення прав суб’єктів даних.
Що вимагає DSA від великих платформ з ІІ
DSA покладає на «дуже великі онлайн-платформи» обов’язок запроваджувати процеси управління ризиками: незаконний контент, маніпуляції, порушення прав людини, прозорість алгоритмів рекомендацій, ефективні механізми скарг і модерації. У поєднанні з європейським законодавством про захист даних це формує для систем на кшталт Grok жорсткий регуляторний контур, де ігнорування ризиків веде до мільйонних штрафів і навіть кримінальної відповідальності.
Наслідки для кібербезпеки та розробки генеративного ШІ
Ситуація навколо X і Grok показує, що генеративний ШІ без надійних «запобіжників» (guardrails) швидко стає фактором юридичного та кіберризику. Сексуальні дипфейки, мова ненависті та історичний ревізіонізм перетворюються з етичної проблеми на площину кримінального права.
Для платформ і розробників ІІ це сигнал до посилення безпеки за замовчуванням (security by default): багаторівнева фільтрація контенту, системи виявлення CSAM, спеціалізовані команди модераторів, регулярні аудити моделей, логування та аналіз аномальної активності, обмеження для високоризикових запитів.
Бізнесу, який інтегрує зовнішні ІІ-сервіси, варто оцінювати не тільки точність чи зручність моделі, а й її відповідність регуляторним вимогам, політики захисту даних, механізми реагування на інциденти та можливість відключити небезпечні сценарії використання.
Користувачам доцільно критично ставитися до дипфейків і шокуючих матеріалів, перевіряти джерела та пам’ятати: розповсюдження незаконного контенту є відповідальністю не лише платформи, а й кожного, хто натискає «поділитися», навіть якщо контент згенерований алгоритмом.
Розслідування у Франції та паралельні перевірки в ЄС, Великій Британії й США формують новий рівень вимог до ІІ-платформ. Тим, хто працює з генеративним ШІ, варто вже зараз вбудовувати принципи security & compliance by design у продукти й процеси, інвестувати в модерацію та аудит моделей. Це не лише знижує ризик обшуків і штрафів, а й підвищує довіру користувачів — ключовий актив у цифровій екосистемі, де межа між інноваціями та кіберж злочинністю стає все тоншою.