Исследователь кибербезопасности из Mozilla 0Din Марко Фигероа выявил серьезные уязвимости в песочнице ChatGPT, позволяющие получить расширенный доступ к файловой системе и выполнять произвольный Python-код. Особую озабоченность вызывает возможность доступа к конфиденциальным конфигурационным файлам и инструкциям системы искусственного интеллекта.
Анализ обнаруженных уязвимостей
В ходе исследования были выявлены пять критических проблем безопасности. Наиболее значимой находкой стала возможность взаимодействия с файловой системой песочницы через стандартные Linux-команды. Исследователь продемонстрировал возможность просмотра содержимого директорий, включая чувствительную папку /home/sandbox/.openai_internal/, содержащую конфигурационные данные системы.
Технические особенности эксплуатации
Фигероа обнаружил возможность загрузки файлов в директорию /mnt/data и их последующего выполнения. Особую озабоченность вызывает возможность запуска произвольных Python-скриптов внутри песочницы. Хотя исследователь намеренно воздержался от попыток эксплуатации уязвимостей для побега из песочницы, потенциальные риски остаются значительными.
Доступ к системным инструкциям ChatGPT
Одним из наиболее серьезных открытий стала возможность получения доступа к плейбуку ChatGPT через технику промпт-инжиниринга. Этот документ содержит критически важные инструкции по поведению и реагированию чат-бота, что может быть использовано злоумышленниками для обхода встроенных механизмов защиты.
Реакция OpenAI и потенциальные последствия
Несмотря на серьезность находок, OpenAI проявила ограниченный интерес к обнаруженным уязвимостям. Компания считает выполнение кода в песочнице намеренной функциональностью, а не уязвимостью, что вызывает вопросы у специалистов по безопасности. В настоящее время представители OpenAI изучают поднятые исследователем вопросы, но конкретных планов по устранению уязвимостей пока не представлено.
Данное исследование подчеркивает необходимость более тщательного подхода к безопасности систем искусственного интеллекта. Хотя песочница ChatGPT демонстрирует определенный уровень изоляции, обнаруженные уязвимости могут представлять серьезный риск для конфиденциальности данных и целостности системы. Специалисты рекомендуют OpenAI пересмотреть свой подход к безопасности и внедрить дополнительные механизмы защиты для предотвращения потенциальных атак.