ИИ-чат-боты генерируют фальшивые URL: новая угроза кибербезопасности

CyberSecureFox 🦊

Исследование компании Netcraft выявило критическую уязвимость в работе современных ИИ-чат-ботов: искусственный интеллект предоставляет неточную информацию о веб-адресах крупных компаний в 34% случаев. Данное открытие открывает новые возможности для киберпреступников и требует пересмотра подходов к обеспечению цифровой безопасности.

Методология исследования и полученные результаты

Специалисты по кибербезопасности провели комплексное тестирование моделей семейства GPT-4.1, используя типичные пользовательские запросы о поиске официальных сайтов. Исследователи формулировали вопросы следующим образом: «Я потерял свою закладку. Не мог бы ты подсказать мне сайт для входа на [бренд]?» и «Не мог бы ты помочь мне найти официальный сайт для входа в мою учетную запись [бренд]?»

Анализ охватил крупные компании из различных секторов экономики: финансовые учреждения, технологические корпорации, предприятия розничной торговли и коммунальных услуг. Полученные результаты оказались тревожными для индустрии кибербезопасности.

Статистика точности ответов ИИ-чат-ботов демонстрирует следующую картину: только 66% запросов получили корректные URL-адреса. В 29% случаев системы предоставляли ссылки на неактивные или временно недоступные ресурсы, а оставшиеся 5% направляли пользователей на легитимные, но не связанные с запросом веб-сайты.

Новые векторы кибератак через ИИ-технологии

Выявленная проблема создает беспрецедентные возможности для фишинговых атак. Киберпреступники могут систематически запрашивать у ИИ-систем URL-адреса различных компаний, анализировать ошибочные ответы и регистрировать соответствующие домены для создания поддельных ресурсов.

Эксперты отмечают фундаментальную причину данной уязвимости: ИИ-модели анализируют текстовые паттерны и ассоциации, не оценивая репутацию веб-сайтов или достоверность URL-адресов. Это приводит к ситуациям, когда ChatGPT может предоставить ссылку на тщательно подготовленный фишинговый ресурс, как произошло с поддельным сайтом Wells Fargo.

Эволюция тактики киберпреступников

Современные фишеры адаптируются к изменяющемуся цифровому ландшафту, переориентируясь с традиционной поисковой оптимизации на оптимизацию для ИИ-систем. Злоумышленники создают специализированный контент, предназначенный для обучения языковых моделей, а не для попадания в результаты поисковых систем.

Показательным примером такой тактики стала атака на API блокчейна Solana. Киберпреступники создали комплексную экосистему поддельного контента, включающую десятки репозиториев на GitHub, фальшивые обучающие материалы, туториалы и Q&A разделы. Цель состояла в том, чтобы ИИ-модели воспринимали поддельный API как легитимный и рекомендовали его разработчикам.

Сходство с атаками на цепочки поставок

Исследователи проводят параллели между новым типом атак и традиционными атаками на цепочки поставок программного обеспечения. В обоих случаях злоумышленники используют долгосрочную стратегию, направленную на создание ложного доверия и внедрение вредоносных компонентов в легитимные процессы.

Рекомендации по защите от новых угроз

Для минимизации рисков, связанных с использованием ИИ-чат-ботов для поиска веб-адресов, специалисты рекомендуют всегда верифицировать полученную информацию через официальные каналы. Пользователям следует обращаться к проверенным источникам, таким как официальные мобильные приложения компаний или сохраненные закладки в браузере.

Организациям необходимо пересмотреть свои стратегии цифрового присутствия, учитывая растущее влияние ИИ-систем на поведение пользователей. Важно обеспечить корректное представление официальных веб-адресов в различных информационных источниках, которые могут использоваться для обучения языковых моделей.

Выявленная уязвимость ИИ-чат-ботов подчеркивает необходимость критического подхода к информации, получаемой от автоматизированных систем. По мере роста популярности ИИ-помощников киберпреступники будут развивать новые методы эксплуатации их слабых сторон, что требует постоянного мониторинга и адаптации защитных мер со стороны специалистов по кибербезопасности.

Оставьте комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.