Французские правоохранительные органы провели обыски в парижском офисе соцсети X в рамках масштабного расследования, связанного с работой генеративного ИИ-инструмента Grok. В фокусе следствия — создание и распространение нелегального контента: от сексуальных дипфейков до материалов, отрицающих Холокост. Это дело становится одним из показательных примеров того, как государства реагируют на риски ИИ и киберпреступности на крупных онлайн-платформах.
Как началось расследование против X и Grok
По данным прокуратуры Парижа, расследование стартовало еще в январе 2025 года после жалоб пользователей и правозащитных организаций на то, что Grok способен генерировать явно незаконный контент. Речь шла о сексуально откровенных изображениях, созданных без согласия людей, а также высказываниях, подпадающих под уголовную ответственность во Франции, в том числе об отрицании Холокоста.
Обыски в офисе X провели сотрудники киберподразделения Национальной жандармерии при поддержке Европола. Такая конфигурация участников подчеркивает трансграничный характер дела: контент создается и распространяется глобально, но ответственность за его модерацию и соответствие законодательству ложится на конкретную платформу, работающую на территории отдельных государств.
Потенциальные составы киберпреступлений
Киберподразделение жандармерии расследует сразу семь возможных составов преступлений, которые, как предполагается, могли быть совершены через платформу X или при ее содействии. Среди них:
- Соучастие в хранении и распространении материалов с сексуальным насилием над детьми — один из наиболее тяжких эпизодов, традиционно находящийся под приоритетным вниманием киберполиции.
- Создание и распространение сексуальных дипфейков — генерация изображений интимного характера с использованием реальных лиц без их согласия.
- Отрицание Холокоста — во Франции это уголовно наказуемое деяние, особенно в цифровой среде, где охват аудитории практически неограничен.
- «Мошенническое извлечение данных» — под этим обычно понимают агрессивный сбор данных пользователей (data scraping) в обход правил платформы или законодательства о защите информации.
- Вмешательство в информационные системы — несанкционированный доступ, модификация или нарушение работы сервисов.
- Функционирование нелегальной онлайн-платформы в рамках организованной преступной деятельности — речь может идти о системной поддержке или толерантности к незаконной активности.
С точки зрения кибербезопасности, подобный набор статей указывает на комплексную проверку: от контент-модерации и архитектуры безопасности до прозрачности алгоритмов ИИ и процессов обработки данных.
Допросы руководства X и реакция компании
Прокуратура Парижа вызвала на допрос Илона Маска и CEO X Линду Яккарино (Linda Yaccarino). Допросы руководителей назначены на 20 апреля, а других сотрудников компании собираются опросить в качестве свидетелей с 20 по 24 апреля. Власти подчеркивают, что это «добровольные беседы», которые должны позволить топ-менеджменту представить свою позицию и обозначить текущие и планируемые меры по соблюдению национального законодательства.
Ранее официальный аккаунт Global Government Affairs в X назвал расследование французских органов в части возможных манипуляций алгоритмами и «мошеннического извлечения данных» политически мотивированным уголовным делом. Такая риторика типична для конфликтов между глобальными платформами и национальными регуляторами, где на стыке находятся вопросы свободы выражения, коммерческих интересов и обязанностей по борьбе с киберпреступностью.
Европейские и международные проверки: от DSA до защиты данных
Параллельно с французским расследованием Европейская комиссия в январе 2026 года запустила собственную проверку в отношении X. Ее цель — выяснить, насколько корректно компания выполнила оценку рисков в рамках Закона о цифровых услугах (Digital Services Act, DSA) перед развертыванием Grok. Поводом стало массовое использование ИИ для генерации сексуального контента.
Дополнительное давление создают и другие регуляторы. Британский Ofcom и офис генерального прокурора штата Калифорния Роба Бонты (Rob Bonta) изучают случаи создания непристойных материалов с помощью Grok без согласия изображенных лиц. Британское Управление уполномоченного по информации (ICO) запросило у X и разработчиков ИИ подробности о мерах по соблюдению европейского законодательства о защите данных, включая принципы минимизации, законности обработки и обеспечения прав субъектов данных.
Почему DSA и защита данных критичны для ИИ-платформ
DSA предъявляет к крупным платформам усиленные требования: оценка системных рисков, связанных с незаконным контентом, манипуляциями и нарушениями прав человека, прозрачность алгоритмов рекомендаций, эффективные механизмы жалоб и модерации. В сочетании с законами о защите данных это формирует для ИИ-систем вроде Grok жесткий регуляторный контур, в котором игнорирование рисков уже ведет не только к репутационным, но и к уголовным и финансовым последствиям.
Что это значит для кибербезопасности и разработки ИИ
История с X и Grok наглядно демонстрирует, что генеративный ИИ без «ограждений» (guardrails) быстро превращается из инновационного инструмента в фактор юридического и киберриска. Сексуальные дипфейки, контент, разжигающий ненависть, и исторический ревизионизм становятся не просто этической, а уголовно-правовой проблемой.
Для онлайн-платформ и разработчиков ИИ это сигнал к пересмотру архитектуры безопасности: внедрению многоуровневой фильтрации контента, систем обнаружения CSAM (материалов сексуального насилия над детьми), специализированных модерационных команд, регулярных аудитов моделей и логирования запросов с аномальной активностью.
Бизнесу, использующему сторонние ИИ-сервисы, важно оценивать не только функциональность инструмента, но и его соответствие регуляторным требованиям, наличие настроек безопасности, политики хранения данных и механизмы реагирования на инциденты. Обычным пользователям стоит критически относиться к дипфейкам и любым шокирующим материалам, проверять источники и помнить о рисках распространения незаконного контента, даже если он сгенерирован алгоритмом.
Расследование во Франции и параллельные проверки в ЕС, Великобритании и США формируют новый стандарт ответственности для ИИ-платформ. Чем раньше компании встроят принципы «безопасность и соответствие по умолчанию» (security & compliance by design) в разработку и эксплуатацию ИИ, тем ниже будет вероятность столкнуться с обысками, многомиллионными штрафами и уголовными делами. Для всех участников цифровой экосистемы сейчас оптимальное время пересмотреть свои подходы к кибербезопасности и управлению рисками ИИ.