OpenAI пресекла попытки северокорейских хакеров использовать ChatGPT в злонамеренных целях

CyberSecureFox 🦊

Компания OpenAI выявила и заблокировала серию аккаунтов, связанных с известными северокорейскими хакерскими группировками, которые использовали платформу ChatGPT для подготовки кибератак. Согласно февральскому отчету об угрозах, злоумышленники применяли искусственный интеллект для изучения потенциальных целей и разработки методов проникновения в их системы.

Идентификация хакерских группировок

Среди заблокированных аккаунтов были обнаружены учетные записи, связанные с VELVET CHOLLIMA (также известной как Kimsuky и Emerald Sleet) и STARDUST CHOLLIMA (APT38, Sapphire Sleet). Выявление этих аккаунтов стало возможным благодаря сотрудничеству OpenAI с партнером из индустрии кибербезопасности.

Методы использования ChatGPT злоумышленниками

Северокорейские хакеры применяли ChatGPT для различных целей, включая исследование криптовалютных технологий и разработку вредоносного программного обеспечения. Особое внимание уделялось работе с открытым исходным кодом, в частности:

  • Разработка и отладка RAT (Remote Access Trojans)
  • Создание инструментов для брутфорс-атак на RDP
  • Модификация существующих средств защиты для злонамеренного использования

Раскрытие инфраструктуры атак

В процессе разработки вредоносного ПО хакеры непреднамеренно раскрыли URL-адреса своих командных центров, содержащих вредоносные файлы. Эта информация была передана специализированным сервисам сканирования, что позволило усилить защиту потенциальных жертв.

Мошеннические схемы трудоустройства

OpenAI также обнаружила использование платформы в схеме трудоустройства северокорейских ИТ-специалистов. Злоумышленники использовали ChatGPT для создания убедительных легенд, помогающих замаскированным агентам получать работу в западных компаниях с целью генерации доходов для КНДР.

Китайские операции влияния

В отчете также упоминаются две операции, предположительно связанные с китайскими группами. Операция Peer Review использовала ChatGPT для разработки инструментов мониторинга социальных сетей, а кампания Sponsored Discontent была направлена на создание дезинформационного контента на различных языках.

Данный инцидент демонстрирует растущую тенденцию использования инструментов искусственного интеллекта злоумышленниками и подчеркивает важность постоянного мониторинга и контроля доступа к подобным технологиям. Организациям рекомендуется усилить меры безопасности и внимательно следить за признаками подозрительной активности, связанной с использованием ИИ-систем.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.