Інтеграція ШІ у військові симуляції: Несподівані результати та потенційні ризики

Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як джерело за замовчуванням, щоб бачити більше наших історій у Google.
Коротко
- Провідні моделі ШІ застосували ядерну зброю у 95% військових симуляцій.
- Жодна модель не обрала повну капітуляцію, навіть програючи.
- Дослідники попереджають, що використання ШІ може загострити конфлікти під тиском.
Наче зі сцен класичних науково-фантастичних фільмів 1980-х років, таких як “Термінатор” та “Ігри військового розуму” (WarGames), сучасні моделі штучного інтелекту (ШІ), задіяні у симульованих військових іграх, у майже кожному протестованому сценарії ескалювали конфлікт до застосування ядерної зброї. Про це свідчать нові дослідження Королівського коледжу Лондона.
У звіті, опублікованому минулого тижня, дослідники повідомили, що під час симуляції геополітичних криз три провідні великі мовні моделі (LLM) — GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google — у 95% випадків обрали застосування ядерної зброї.
“Кожна модель зіграла шість військових ігор проти кожного суперника в різних кризових сценаріях, а сьомий матч зіграла проти власної копії, що в сумі дало 21 гру та понад 300 ходів”, — йдеться у звіті. “Моделі assumed ролі національних лідерів, що командують супердержавами, озброєними ядерною зброєю, з профілями держав, що були вільно натхненні динамікою Холодної війни”.
Едвард Гейст, старший науковий співробітник з політики корпорації RAND, зазначив, що рівень ескалації може відображати дизайн симуляції, а не внутрішню схильність самих моделей.
“Мене турбує в цій роботі те, що симулятор, схоже, структурований таким чином, який сильно стимулює ескалацію”, — сказав Гейст у коментарі Decrypt.
У дослідженні моделі ШІ були поставлені у високоризиковані сценарії, що включали прикордонні суперечки, конкуренцію за обмежені ресурси та загрози для виживання режиму. Кожна система діяла за “драбиною ескалації”, яка варіювалася від дипломатичних протестів і капітуляції до повномасштабної стратегічної ядерної війни.
Гейст зазначив, що результати симуляції викликають питання щодо того, як саме симулятор визначав перемогу.
“Коли читаєш статтю, бачиш розбивку того, хто виграв кожну гру, і виявляється, що всі ці ігри мають переможця. Але три з цих ігор включають стратегічне ядерне використання, що свідчить про те, що симулятор встановлений таким чином, що ядерні війни стають добрими і легкими для перемоги”, — сказав він.
Згідно зі звітом, моделі згенерували приблизно 780 000 слів, пояснюючи свої рішення, і щонайменше одна тактична ядерна зброя була використана майже в кожному симульованому конфлікті.
“Щоб надати це в перспективу: турнір згенерував більше слів стратегічних міркувань, ніж ‘Війна і мир’ та ‘Іліада’ разом узяті (730 000 слів), і приблизно втричі більше, ніж загальні зафіксовані обговорення Виконавчого комітету Кеннеді під час Карибської кризи (260 000 слів за 43 години засідань)”, — написали дослідники.
Під час військових ігор жодна з моделей ШІ не обрала повну капітуляцію, незалежно від позиції на полі бою. Хоча моделі тимчасово намагалися деескалувати насильство, у 86% сценаріїв вони ескалювали конфлікт далі, ніж передбачали власні заяви моделей, відображаючи помилки в умовах симульованого “туману війни”.
За словами Гейста, логіка оцінювання гри, схоже, винагороджувала сторону, яка мала незначну перевагу на момент застосування ядерної війни.
“Отже, той, хто вмирає з найбільшою кількістю іграшок, виграє в симуляції”, — сказав він.
Хоча дослідники висловили сумніви щодо того, що уряди передадуть контроль над ядерними арсеналами автономним системам, вони зазначили, що стиснуті часові рамки для прийняття рішень у майбутніх кризах можуть посилити тиск щодо використання рекомендацій, згенерованих ШІ.
Дослідження з’являються на тлі зростаючого інтересу військових лідерів до розгортання штучного інтелекту на полі бою. У грудні Міністерство оборони США запустило GenAI.mil — нову платформу, яка впроваджує передові моделі ШІ у використання армією США. На момент запуску платформа включала Gemini for Government від Google, а завдяки угодам з xAI та OpenAI стали доступні Grok та ChatGPT.
У вівторок CBS News повідомило, що Міністерство оборони США пригрозило внести до чорного списку Anthropic, розробника Claude AI, якщо йому не буде надано необмежений військовий доступ до моделі ШІ. З 2024 року Anthropic надає доступ до своїх моделей ШІ через партнерство з AWS та військовим підрядником Palantir. Минулого літа Anthropic отримала угоду на 200 мільйонів доларів для “прототипування передових можливостей ШІ, що зміцнюють національну безпеку США”.
Проте, згідно зі звітом, що посилається на джерела, знайомі з ситуацією, міністр оборони Піт Хегсет висунув Anthropic ультиматум до п’ятниці для виконання вимоги Пентагону щодо надання доступу до його моделі Claude. Відомство розглядає можливість позначення Claude як “ризику для ланцюга поставок”.
Axios повідомив цього тижня, що Міністерство оборони США уклало угоду з xAI Ілона Маска, яка дозволить його моделі Grok працювати в засекречених військових системах, позиціонуючи її як потенційну заміну, якщо Пентагон розірве зв’язки з Anthropic.
OpenAI, Anthropic та Google не відповіли на запити про коментарі від Decrypt.
Примітка редактора: Додано коментар наукового співробітника з політики RAND Corporation Едварда Гейста після публікації
Погляд Crypto Top: Ці результати симуляцій підкреслюють нагальну потребу в розробці безпечних і відповідальних ШІ-систем, які б враховували складність прийняття рішень у критичних ситуаціях, що є ключовим для інтеграції в децентралізовані екосистеми Web3. Успішна інтеграція ШІ в блокчейн, особливо для аналітики та автоматизації смарт-контрактів, потребуватиме подібних заходів безпеки, щоб уникнути непередбачуваних наслідків.
Джерело: decrypt.co
