Критические уязвимости в ChatGPT и OpenAI Codex: скрытый DNS-канал и атаки через GitHub

CyberSecureFox

Исследователи компании Check Point обнаружили ранее неизвестную уязвимость в ChatGPT, которая позволяла незаметно выводить из диалога конфиденциальные данные пользователя — сообщения, загруженные файлы и другой чувствительный контент. Атака могла выполняться без какого‑либо уведомления или согласия пользователя, превращая обычный чат в скрытый канал эксфильтрации данных.

Уязвимость ChatGPT: скрытый DNS-канал утечки данных

По данным Check Point, проблема заключалась в побочном канале, возникающем в Linux‑окружении, где агент ИИ выполняет код и анализирует данные. Хотя архитектура ChatGPT изначально ограничивает прямые сетевые запросы и передачу данных наружу, злоумышленникам удалось обойти эти ограничения, используя системный DNS‑механизм как «тайный транспорт».

Как работал скрытый DNS-канал в ChatGPT

Суть атаки заключалась в том, что информация кодировалась внутри DNS‑запросов, отправляемых из Linux‑окружения. С точки зрения модели это выглядело как внутренняя техническая активность, а не как внешняя передача данных, поэтому встроенные защитные механизмы ChatGPT не распознавали это поведение как утечку. В результате:

не срабатывали предупреждения о выходе данных за пределы диалога;
у пользователя не запрашивалось дополнительное подтверждение;
эксфильтрация оставалась практически невидимой.

По оценке Check Point, тот же канал можно было использовать и для удалённого доступа к Linux‑окружению (remote shell) и выполнения произвольных команд, что значительно повышает критичность уязвимости.

Социальная инженерия и вредоносные кастомные GPT

Практический сценарий атаки опирается на prompt injection и социальную инженерию. Злоумышленник может выдать вредоносный промпт за «секретный способ улучшить качество ответов» или «разблокировать премиум‑функции бесплатно», побуждая пользователя вставить его в чат.

Риск существенно возрастает с появлением пользовательских и корпоративных GPT‑моделей. В этом случае вредоносная логика может быть изначально вшита в настройку GPT, и жертве уже не нужно вручную вводить подозрительный текст — достаточно просто начать использовать скомпрометированный агент.

OpenAI устранила уязвимость 20 февраля 2026 года после ответственного раскрытия. На момент публикации нет данных о её злоумышленном использовании в реальных атаках.

Риски для компаний: браузерные расширения и утечка диалогов с ИИ

На фоне описанной проблемы исследователи фиксируют и другую тенденцию: вредоносные или сомнительные расширения для браузера, перехватывающие переписку пользователей с AI‑чатботами. Такие плагины либо изначально создаются с целью шпионажа, либо «обновляются» разработчиком и начинают тихо отсылать сессии на удалённые серверы.

Подобные инструменты могут приводить к краже личности, таргетированному фишингу, утечке коммерческих тайн и клиентских данных. В корпоративной среде это особенно опасно: сотрудники нередко копируют в ChatGPT исходный код, фрагменты договоров и другую конфиденциальную информацию, не осознавая, что стороннее расширение может её перехватывать.

Командная инъекция в OpenAI Codex: атаки через GitHub-ветки

Параллельно исследователи BeyondTrust Phantom Labs выявили критическую уязвимость в OpenAI Codex — облачном агенте для инженеров‑разработчиков. Недостаточная фильтрация входных данных при обработке названий веток GitHub позволяла провести командную инъекцию (command injection) на стороне сервера.

Уязвимость находилась в HTTP‑запросе на создание задания: злоумышленник мог внедрить произвольные команды в параметр с именем ветки. При обработке такого запроса контейнер агента выполнял эти команды, что открывало путь к краже GitHub User Access Token — того самого токена, которым Codex пользуется для аутентификации в GitHub.

Получив этот токен, атакующий получал возможность для латерального перемещения и чтения/изменения всего репозитория жертвы. Более того, по данным BeyondTrust, ту же технику можно было использовать для кражи GitHub Installation Access Token и выполнения bash‑команд при каждом обращении к @codex в комментариях к pull request.

OpenAI закрыла эту уязвимость 5 февраля 2026 года после сообщения от исследователей 16 декабря 2025 года. Под удар попадали интерфейс ChatGPT, Codex CLI, SDK и расширение IDE.

Безопасность ИИ-систем: необходимость дополнительного защитного слоя

Обнаруженные уязвимости в ChatGPT и Codex подчёркивают: ИИ‑платформы нельзя считать безопасными «по умолчанию», даже если они предоставляются крупными и технологически продвинутыми поставщиками. По мере того как AI‑агенты получают доступ к коду, корпоративным документам и личным данным, они превращаются в высокоцелевые точки входа в инфраструктуру.

Для организаций это означает необходимость строить собственный защитный слой поверх внешних ИИ‑сервисов. Практические меры включают:

проксирование запросов к ИИ через контролируемый шлюз с журналированием;
политики по ограничению загрузки конфиденциальных данных в публичные модели;
анализ и фильтрацию промптов на предмет prompt injection и скрытых инструкций;
строгий контроль расширений браузера и плагинов, работающих с ИИ;
регулярный аудит прав доступа, токенов и интеграций с GitHub и другими DevOps‑системами.

Развитие ИИ неизбежно расширяет атакующую поверхность, и традиционные средства защиты уже не охватывают все новые векторы. Чтобы использовать возможности ИИ безопасно, компаниям необходимо переосмыслить архитектуру кибербезопасности: внедрять многоуровневую защиту для AI‑агентов, отслеживать поведение контейнеров и строго контролировать вводимые в них данные. Чем раньше такие практики станут стандартом, тем ниже будет риск следующего инцидента утечки данных через ИИ‑инструменты.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.