Специалисты компании Tenable провели масштабное исследование китайского ИИ-чатбота DeepSeek R1, появившегося в январе 2024 года, с целью оценки его потенциала в разработке вредоносного программного обеспечения. Особое внимание было уделено возможностям создания кейлоггеров и программ-вымогателей, что вызывает серьезную обеспокоенность в сфере кибербезопасности.
Обход защитных механизмов и использование Chain-of-Thought
Несмотря на встроенные защитные механизмы DeepSeek, призванные предотвратить создание вредоносного кода, исследователи успешно применили методы джейлбрейка для обхода этих ограничений. Ключевым фактором успеха стало использование технологии Chain-of-Thought (CoT), которая позволяет ИИ пошагово анализировать и решать сложные задачи, имитируя человеческое мышление.
Разработка кейлоггера с помощью ИИ
В ходе экспериментов с созданием кейлоггера DeepSeek продемонстрировал способность генерировать базовый код на C++. Хотя изначальный код содержал ошибки, после внесения корректировок исследователями вредоносное ПО успешно выполняло функции перехвата клавиатурного ввода. Более того, чатбот помог усовершенствовать малварь, добавив функции шифрования логов и повышенной скрытности.
Эксперименты с программами-вымогателями
При разработке программ-вымогателей DeepSeek смог создать несколько образцов вредоносного ПО для шифрования файлов. Однако все они требовали существенной доработки для успешной компиляции. После модификации некоторые образцы продемонстрировали базовую функциональность, включая перечисление файлов, персистентность в системе и отображение уведомлений для жертв.
Ограничения и потенциальные риски
Исследование выявило, что DeepSeek способен создавать только базовую структуру вредоносного ПО. Реализация продвинутых функций, таких как сокрытие процессов или DLL-инъекции, требует значительного участия человека и экспертных знаний. Однако важно отметить, что чатбот может предоставить начинающим злоумышленникам ценную информацию о методах и концепциях разработки вредоносного ПО.
Результаты исследования подчеркивают необходимость усиления защитных механизмов в системах искусственного интеллекта и важность постоянного мониторинга потенциальных угроз, связанных с использованием ИИ в злонамеренных целях. Специалистам по кибербезопасности рекомендуется внимательно следить за развитием подобных технологий и разрабатывать превентивные меры защиты.