Суперечка між розробником штучного інтелекту Anthropic та Міністерством оборони США вийшла за межі звичайного контрактного спору й переросла в політичне рішення: президент Дональд Трамп розпорядився протягом шести місяців повністю припинити використання технологій Anthropic усіма федеральними відомствами. Формальним тригером стали розбіжності щодо військового застосування моделей Claude.
Як суперечка навколо Claude призвела до урядової заборони
Ключовим предметом конфлікту стали дві жорсткі умови, на яких наполягала Anthropic. Компанія вимагала зафіксувати в договорі заборону на масове спостереження за громадянами США всередині країни та на використання її моделей у повністю автономних системах озброєння, де рішення про застосування сили ухвалює алгоритм без участі людини.
Пентагон натомість наполягав на більш широкій формулі «будь-яке законне використання» ІІ без подібних виключень. З точки зору оборонного відомства, такі обмеження зменшують оперативну гнучкість, ускладнюють адаптацію ІІ до сучасних конфліктів і кібервійни та потенційно суперечать інтересам національної безпеки.
Claude Gov, секретні мережі та роль ІІ у військовій кібербезпеці
Anthropic стала першою великою ІІ-компанією, яка уклала масштабний контракт із Пентагоном орієнтовно на 200 млн доларів. Для захищених урядових і військових мереж були створені спеціалізовані моделі Claude Gov, інтегровані через платформи Palantir і захищену хмарну інфраструктуру Amazon, розраховану на роботу з секретною інформацією.
Такі моделі застосовуються для планування операцій, аналізу розвідданих, моделювання сценаріїв конфліктів, а також для кіберзахисту критичних систем: виявлення аномалій у трафіку, кореляції інцидентів, прискорення реагування на кібератаки. Водночас будь-який «військовий ІІ» є технологією подвійного призначення, що посилює регуляторні, етичні та репутаційні ризики.
Операція проти Мадуро: інформаційний каталізатор ескалації
Напруження посилилося після публікацій у ЗМІ про нібито використання Claude під час планування операції із захоплення президента Венесуели Ніколаса Мадуро. За повідомленнями, співробітник Palantir передав військовим занепокоєння одного з фахівців Anthropic щодо можливих сценаріїв застосування моделі.
Керівництво Anthropic офіційно заперечило, що компанія намагалася втручатися в оперативне використання ІІ Пентагоном або висловлювала формальні заперечення. Попри це, саме після цього епізоду міністр оборони Піт Хегсетх висунув ультиматум: до встановленої дати Anthropic має погодитися на нові умови без жодних обмежень щодо масового стеження та автономної зброї. Генеральний директор Дарио Амодей відмовився змінювати позицію, підкресливши незмінність етичних принципів компанії.
Статус «загрози національній безпеці» та ризики для ланцюгів постачання
У відповідь Пентагон присвоїв Anthropic статус «загрози національній безпеці для ланцюга постачання». Такий ярлик зазвичай застосовується до іноземних постачальників, яких підозрюють у підриві безпеки інфраструктури, і фактично блокує участь компанії в оборонних програмах та суміжних контрактах.
Що це означає для підрядників і кібербезпеки інфраструктури
Усім підрядникам Міністерства оборони наказано оперативно припинити співпрацю з Anthropic. Із погляду кібербезпеки це означає необхідність у стислі строки виконати аудит залежностей, виявити всі місця використання моделей Claude та пов’язаних сервісів, а також замінити їх альтернативними рішеннями без зниження рівня захисту.
Подібні «форсовані міграції» ІІ-платформ суттєво підвищують операційні ризики: зростає імовірність помилок інтеграції, порушень у обробці чутливих даних і тимчасового послаблення моніторингу загроз. Міжнародний досвід вилучення критичного обладнання окремих постачальників із телеком- і держінфраструктури показує, що повна заміна часто триває роками та потребує значних інвестицій у безпечний перехід.
Реакція індустрії ІІ та нова угода OpenAI з Пентагоном
Рішення Пентагону й Білого дому розкололо спільноту штучного інтелекту. Сотні співробітників OpenAI та Google підписали відкрите звернення на підтримку позиції Anthropic щодо етичних обмежень. Водночас Ілон Маск публічно став на бік уряду, заявивши, що компанія нібито загрожує західній цивілізації.
Майже одразу після ультиматуму Anthropic генеральний директор OpenAI Сем Альтман оголосив про нову угоду з Пентагоном щодо використання моделей OpenAI у закритих мережах. Він підкреслив, що договір формально містить ті самі ключові обмеження — заборону на масове внутрішнє стеження та на застосування ІІ у повністю автономних системах озброєння, залишаючи юридичну відповідальність за застосування сили за людиною.
Ситуація демонструє, як етика штучного інтелекту стає інструментом конкурентної боротьби. Подібний конфлікт уже виникав у 2018 році навколо проєкту Maven у Google, коли внутрішній протест співробітників змусив компанію переглянути участь у низці військових ініціатив і оновити власні принципи використання ІІ.
Уроки для стратегій кібербезпеки та управління ІІ
Поточний конфлікт оголює глибоке протиріччя між вимогами національної безпеки та глобальними трендами відповідального використання ІІ, зафіксованими, зокрема, в етичних принципах DoD і підходах NIST до управління ризиками штучного інтелекту. Для організацій це сигнал до дій, а не лише до спостереження.
Компаніям, які впроваджують ІІ у критично важливі системи, варто вже зараз формалізувати власні політики: визначити межі масового збору даних, рамки автоматизації рішень, у тому числі силових, і процедури людського контролю. Важливими стають регулярний аудит ланцюгів постачання ІТ та ІІ-рішень, оцінка правових і репутаційних наслідків, а також постійна взаємодія команд безпеки, юристів та розробників. Чим раніше такі правила будуть прописані й протестовані, тим вищими будуть стійкість кіберзахисту та довіра користувачів і регуляторів.