Конфликт между разработчиком искусственного интеллекта Anthropic и Министерством обороны США привёл к беспрецедентному решению: президент Дональд Трамп распорядился в течение шести месяцев полностью прекратить использование технологий Anthropic всеми федеральными ведомствами. Формальным поводом стали разногласия вокруг того, как могут применяться модели Claude в военной и разведывательной сфере.
Условия применения ИИ: массовая слежка и автономное оружие
Ключевой предмет спора — две жёсткие оговорки, на которых настаивала Anthropic. Компания требовала закрепить в контракте запрет на массовое наблюдение за гражданами США внутри страны и на использование её моделей в полностью автономных системах вооружений, где решение о применении силы принимает алгоритм без участия человека.
Пентагон, в свою очередь, настаивал на формулировке о «любой законной форме использования» ИИ без подобных исключений. С точки зрения военного ведомства, такие ограничения сужают оперативные возможности и могут противоречить гибкому применению технологий в условиях современных конфликтов и киберопераций.
Контракт Anthropic с Пентагоном и роль Claude Gov
Anthropic стала первой крупной ИИ-компанией, заключившей масштабный контракт с Пентагоном на сумму около 200 млн долларов. Для засекреченных правительственных сетей были разработаны специальные модели Claude Gov, интегрированные через платформы Palantir и защищённую облачную инфраструктуру Amazon, предназначенную для работы с секретной военной информацией.
Такие решения применяются для поддержки планирования операций, анализа разведданных и моделирования сценариев. В кибербезопасности подобные системы используются для выявления аномалий в сетевом трафике, корреляции инцидентов и ускорения реакции на кибератаки. Однако любой «военный ИИ» по определению относится к технологиям двойного назначения, что усиливает регуляторные и этические риски.
Операция против Мадуро и эскалация конфликта
Напряжённость вокруг Anthropic усилилась после сообщений СМИ о том, что Claude якобы применялся при планировании операции по захвату президента Венесуэлы Николаса Мадуро. По данным публикаций, сотрудник Palantir передал военным озабоченность одного из специалистов Anthropic относительно сценариев использования модели.
Руководство Anthropic официально опровергло, что компания выражала опасения или пыталась вмешиваться в оперативное применение своих технологий Пентагоном. Тем не менее, именно после этого эпизода министр обороны Пит Хегсетх выдвинул ультиматум: до определённой даты компания должна согласиться на новые условия без исключений по массовой слежке и автономному оружию. Генеральный директор Anthropic Дарио Амодей отказался пересматривать позицию, подчеркнув, что никакое давление ведомства не изменит этические принципы компании.
Статус «угрозы национальной безопасности» и риски для цепочки поставок
В ответ Пентагон присвоил Anthropic статус «угрозы национальной безопасности для цепочки поставок». Такой ярлык обычно применяется к иностранным поставщикам, которых подозревают в подрыве безопасности инфраструктуры, и практически блокирует участие компании в оборонных контрактах.
Последствия для подрядчиков и кибербезопасности
Все подрядчики Министерства обороны получили распоряжение оперативно прекратить сотрудничество с Anthropic. С точки зрения кибербезопасности это означает необходимость в сжатые сроки провести аудит зависимостей, выявить, где именно используются модели Claude и связанные сервисы, и заменить их альтернативными решениями без ухудшения уровня защиты и устойчивости систем.
Подобные «форсированные миграции» ИИ-платформ усиливают операционные риски: растёт вероятность ошибок интеграции, нарушений в обработке чувствительных данных и временного ослабления мониторинга угроз. Международная практика (например, кейсы с заменой телеком-оборудования после ограничений против отдельных вендоров) показывает, что такой переход нередко занимает годы и требует значительных инвестиций.
Реакция индустрии ИИ и шаг OpenAI
Решение Пентагона и Белого дома раскололо индустрию искусственного интеллекта. Сотни сотрудников OpenAI и Google подписали открытое письмо в поддержку позиции Anthropic. В то же время Илон Маск публично поддержал правительство, заявив, что компания якобы враждебна западной цивилизации.
Практически сразу после ультиматума главе Anthropic генеральный директор OpenAI Сэм Альтман объявил о новой сделке с Пентагоном на использование моделей OpenAI в закрытых сетях. Он подчеркнул, что соглашение формально содержит те же ключевые ограничения — запрет на массовую слежку внутри страны и на применение ИИ в полностью автономном оружии, а ответственность за применение силы должна оставаться за человеком.
Этот эпизод показывает, как этические рамки ИИ становятся фактором конкурентной борьбы. Похожая ситуация уже наблюдалась в 2018 году вокруг проекта Maven в Google, когда протест сотрудников привёл к отказу компании от ряда военных инициатив и пересмотру внутренних принципов по ИИ.
Текущий конфликт демонстрирует глубокое противоречие между требованиями национальной безопасности и глобальными трендами по ответственному использованию ИИ, зафиксированными, например, в этических принципах DoD и подходах NIST к управлению рисками ИИ. Для государств и бизнеса это сигнал: необходимы прозрачные политики применения ИИ, регулярный аудит цепочек поставок, оценка правовых и репутационных рисков, а также тесное взаимодействие команд безопасности, юристов и разработчиков.
Организациям, внедряющим ИИ в критически важные системы, стоит уже сейчас формализовать ограничения по массовому сбору данных, автономному принятию решений и использованию моделей в силовых сценариях. Это не только снижает киберриски, но и повышает доверие пользователей и регуляторов. Следить за развитием истории вокруг Anthropic и Пентагона важно всем, кто строит свою стратегию кибербезопасности и цифрового суверенитета на горизонте ближайших лет.