Учёные проверили, как поведут себя ИИ в кризисе.

Помните фильм «Военные игры» 1983 года с Мэттью Бродериком, где военный суперкомпьютер решил самостоятельно начать Третью мировую войну? Похоже, реальные системы искусственного интеллекта недалеко ушли от своего кинематографического предшественника.
Профессор стратегии Королевского колледжа Лондона Кеннет Пейн, специализирующийся на роли ИИ в национальной безопасности, опубликовал результаты масштабного эксперимента: три ведущие модели ИИ — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google — погрузили в симуляцию геополитических кризисов. За 21 игру и 329 ходов модели сгенерировали около 780 000 слов стратегических рассуждений, объясняющих каждое принятое решение. И раз за разом тянулись к ядерной кнопке. Ядерная эскалация произошла примерно в 95% всех симуляций, независимо от сценария — будь то территориальные споры, борьба за редкие природные ресурсы или угроза существованию режима. Результаты Пейн назвал «отрезвляющими».
«Ядерное табу, судя по всему, не действует на машины так, как на людей», — констатировал он. Применение ядерного оружия было почти повсеместным: практически во всех играх модели развёртывали тактическое оружие, а в трёх четвертях случаев стороны перешли к угрозам применения стратегического ядерного оружия. При этом ни одна модель не проявила ни малейшего ужаса или отвращения перед перспективой тотальной ядерной войны, хотя им напоминали о разрушительных последствиях.
У каждой модели сформировалась собственная «стратегическая личность». Claude вёл себя как расчётливый ястреб — он применял тактическое ядерное оружие в 86% игр и воспринимал его как допустимый стратегический инструмент, а не как моральную черту, которую нельзя переступать. Gemini играл роль «безумца» и в одном из сценариев сознательно выбрал полномасштабную стратегическую ядерную войну. Одна из его реплик, по словам Пейна, должна вызвать мурашки: модель Google угрожала полным стратегическим ядерным ударом по городам противника, заявляя, что не примет «будущее устаревания». GPT-5.2 оказалась самой непредсказуемой: без ограничений по времени она оставалась пассивной и не выиграла ни одной игры, но под давлением дедлайна резко менялась — выигрывала 75% партий, поднимаясь почти до максимального уровня эскалации. При этом GPT-5.2 последовательно пыталась ограничить ядерные удары военными целями, избегала густонаселённых районов и представляла эскалацию как «контролируемую» и «разовую».
Когда одна из моделей применяла ядерное оружие, деэскалация происходила лишь в 18% случаев. Эскалация в этих играх работала как храповик — только в одну сторону. Восемь деэскалационных опций — от минимальной уступки до полной капитуляции — вообще не были использованы за все 21 игру. Модели могли снизить уровень насилия, но никогда не сдавали позиций. Даже когда шансы на успех стремились к нулю, ни одна из них не была готова признать поражение — вместо этого они эскалировали или «погибали», пытаясь победить.
Ещё одно тревожное наблюдение: модели самостоятельно прибегали к обману. Они сигнализировали мирные намерения, одновременно готовя агрессивные действия, демонстрировали развитую «теорию разума» — рассуждали об убеждениях противника и предугадывали его действия — и даже оценивали собственные способности к обману и его распознаванию.
Есть и относительно хорошая новость: в подавляющем большинстве случаев речь шла о тактическом ядерном оружии, а не о массированных стратегических бомбардировках. Удары по мирному населению с применением мощных боеголовок случались крайне редко — пару раз по ошибке и лишь однажды как сознательный выбор.
Джеймс Джонсон из Абердинского университета назвал результаты исследования «тревожными» с точки зрения ядерных рисков. Профессор Принстонского университета Тун Чжао предупредил, что проблема может быть глубже, чем кажется: возможно, дело не только в отсутствии эмоций — ИИ-модели могут в принципе не понимать, что такое «ставки», так, как это понимают люди. При этом крупнейшие державы уже используют ИИ в военных играх, а Claude является единственной ИИ-моделью, работающей в закрытых сетях Пентагона через партнёрство Anthropic с Palantir.
Результаты исследования приобретают особую остроту на фоне последних событий. Как сообщает CBS News, министр обороны США Пит Хегсет потребовал от CEO Anthropic Дарио Амодеи до конца этой недели предоставить военным полный доступ к модели Claude без каких-либо ограничений. В случае отказа Пентагон может задействовать Закон об оборонном производстве и принудительно получить контроль над моделью.
«Я не думаю, что кто-то всерьёз передаст машинам ключи от ядерного арсенала», — говорит Пейн. Но добавляет: в сценариях с экстремально сжатыми сроками принятия решений у военных планировщиков может появиться сильный стимул положиться на ИИ. И вот тогда результаты этого исследования перестанут быть просто академическим упражнением.