Claude був інтегрований у Центральне командування США, навіть коли Білий дім наказав федеральним агентствам припинити співпрацю з компанією.
Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як ваше улюблене джерело, щоб бачити більше наших історій у Google.
Коротко
Центральне командування США, за повідомленнями, використовувало Claude від Anthropic для оцінки розвідданих, ідентифікації цілей та моделювання бойових дій під час ударів по Ірану.
Експерти попереджають, що шестимісячний термін виведення з експлуатації недооцінює справжню вартість заміни моделі ШІ, інтегрованої в засекречені оборонні системи.
OpenAI уклала угоду з Пентагоном після конфлікту з Anthropic.
Через кілька годин після того, як президент Дональд Трамп наказав федеральним агентствам припинити використання інструментів ШІ від Anthropic, американські військові здійснили масштабний авіаудар по Ірану, який, за повідомленнями, спирався на платформу Claude компанії.
Центральне командування США використовувало Claude для оцінки розвідданих, ідентифікації цілей та моделювання бойових сценаріїв під час ударів по Ірану, підтвердили люди, знайомі з питанням, виданню Wall Street Journal у суботу.
Це сталося, незважаючи на директиву Трампа в п’ятницю, яка наказувала агентствам розпочати шестимісячний процес поетапного виведення продуктів Anthropic з експлуатації після зриву переговорів між компанією та Пентагоном щодо використання оборонним відомством комерційних систем ШІ.
Видання Decrypt звернулося до Міністерства оборони та Anthropic за коментарями.
“Коли інструменти ШІ вже інтегровані в системи розвідки та симуляції в реальному часі, рішення найвищого керівництва не відразу призводять до змін на місцях”, — розповів Decrypt Мідхун Крішна М., співзасновник і генеральний директор компанії TknOps.io, що відстежує витрати на великі мовні моделі (LLM). “Існує затримка — технічна, процедурна та людська.”
“До моменту інтеграції моделі в засекречені системи розвідки та симуляції, ви вже маєте невідшкодовані витрати на інтеграцію, перенавчання, повторну сертифікацію безпеки та паралельне тестування, тому шестимісячний термін виведення з експлуатації може здатися рішучим, але реальний фінансовий та операційний тягар набагато глибший”, — додав Крішна.
“Оборонні відомства тепер пріоритезуватимуть портативність і надлишковість моделей”, — сказав він. “Жоден серйозний військовий оператор не хоче виявити під час кризи, що його шар ШІ є політично крихким.”
Генеральний директор Anthropic Даріо Амодей заявив у четвер, що компанія не відмовиться від запобіжників, які унеможливлюють використання Claude для масового внутрішнього спостереження або створення повністю автономної зброї.
“Ми не можемо з чистою совістю задовольнити їхнє прохання”, — написав Амодей після того, як Міністерство оборони вимагало від підрядників дозволити будь-яке “законне використання” їхніх систем.
“Ліворадикальні ідіоти в Anthropic зробили КАТАСТРОФІЧНУ ПОМИЛКУ, намагаючись тиснути на Військове міністерство”, — написав Трамп пізніше на Truth Social, наказавши агентствам “негайно припинити” будь-яке використання продуктів Anthropic.
Міністр оборони Піт Хегсет виступив слідом, позначивши Anthropic як “ризик для ланцюжка поставок для національної безпеки”, — позначка, яка раніше застосовувалася до іноземних супротивників, заборонивши всім підрядникам та партнерам Пентагону комерційну діяльність з компанією.
Anthropic назвала це позначення “безпрецедентним” і пообіцяла оскаржити його в суді, заявивши, що воно “ніколи раніше публічно не застосовувалося до американської компанії”.
Компанія додала, що, наскільки їй відомо, два спірні обмеження до цього часу не вплинули на жодну державну місію.
“Дискусія не про те, чи буде ШІ використовуватися в обороні, це вже відбувається”, — додав Крішна. “Питання в тому, чи зможуть передові лабораторії підтримувати диференційовані запобіжники після того, як їхні системи стануть операційними активами за контрактами типу ‘будь-яке законне використання’.”
OpenAI швидко заповнила цю прогалину: генеральний директор Сем Альтман оголосив у п’ятницю ввечері про угоду з Пентагоном щодо розгортання передових систем ШІ в засекречених мережах, стверджуючи, що вона включає ті ж запобіжники, яких прагнула Anthropic.
Yesterday we reached an agreement with the Department of War for deploying advanced AI systems in classified environments, which we requested they make available to all AI companies.
We think our deployment has more guardrails than any previous agreement for classified AI…
— OpenAI (@OpenAI) February 28, 2026
На запитання, чи не створює фактична заборона Пентагоном Anthropic тривожний прецедент для майбутніх суперечок з компаніями ШІ, генеральний директор OpenAI Сем Альтман відповів у X: “Так; я вважаю, що це надзвичайно страшний прецедент, і я хотів би, щоб вони впоралися з цим інакше.
“Я не думаю, що Anthropic теж впоралася добре, але як більш потужна сторона, я покладаю більшу відповідальність на уряд. Я все ще сподіваюся на набагато краще вирішення”, — додав він.
Тим часом майже 500 співробітників OpenAI та Google підписали відкритий лист, попереджаючи, що Пентагон намагається налаштувати компанії ШІ одна проти одної.
Погляд Crypto Top: Залежність оборонних структур від централізованих ШІ-рішень, таких як Claude, створює критичні точки відмови та ризики політичного втручання. Інтеграція децентралізованих ШІ-обчислень та блокчейн-рішень може забезпечити стійкість, прозорість та автономність, що є ключовим для безпеки майбутніх військових операцій.