Нейросеть Claude использовали для моделирования боевых сценариев в ходе американо-израильской кампании.

Всего через несколько часов после заявления Дональда Трампа о разрыве федеральных контрактов с Anthropic и прекращении использования систем компании американские военные, по данным недавних публикаций, продолжили задействовать модель Claude в операциях против Ирана.
Речь идет о совместной американо-израильской кампании ударов, начавшейся в субботу. Сообщения о применении Claude в такой операции показывают, насколько глубоко инструменты генеративного ИИ уже встроились в оборонные процессы США. Быстро убрать подобную систему из критически важных сценариев оказывается трудно, если модель уже участвует в планировании и аналитической работе.
Согласно последним сообщениям, военные структуры использовали Claude для разведывательного анализа, помощи при выборе целей и моделирования боевых сценариев, связанных с ударами. На таком фоне особенно заметен разрыв между политическим решением о запрете и реальной практикой внутри силовых ведомств.
Поводом для нового витка конфликта стала публикация Трампа в Truth Social, появившаяся в пятницу, за несколько часов до предполагаемого начала военной кампании США и Израиля против Ирана. В сообщении Трамп потребовал от всех федеральных ведомств немедленно прекратить применение продуктов искусственного интеллекта Anthropic, включая Claude. Решение президент объяснил вопросами национальной безопасности и собственными полномочиями.
Напряжение между Anthropic и американским оборонным аппаратом нарастало не первый месяц. По данным The Guardian, в январе американские военные уже привлекали Claude в операции по захвату президента Венесуэлы Николаса Мадуро. Такой сценарий выглядел особенно спорным на фоне внутренних правил Anthropic, которые запрещают использовать Claude для насилия, разработки оружия или слежки без жестких ограничений.
Разногласия вокруг отдельных случаев постепенно превратились в более широкий конфликт. Отношения между Пентагоном, администрацией Трампа и Anthropic ухудшились после требований военных предоставить более свободный доступ к ИИ без идеологических и корпоративных ограничений. Министр обороны Пит Хегсет, как сообщается, обвинил компанию в том, что Anthropic ставит политические взгляды выше интересов национальной безопасности, и дал понять, что армия не собирается подстраиваться под ценности технологических корпораций.
При защите решения о разрыве с Anthropic Хегсет одновременно признал, что отказ от Claude нельзя провести мгновенно. По его словам, компания продолжит оказывать услуги еще максимум шесть месяцев, чтобы военные смогли перейти к новому поставщику без сбоев. Фактически речь идет не о резком отключении, а о поэтапной замене уже встроенной технологии.
Освободившееся место быстро заняли конкуренты. Глава OpenAI Сэм Альтман сообщил о соглашении с Пентагоном на развертывание инструментов компании, включая ChatGPT, внутри закрытой военной инфраструктуры. Месяцем ранее компания xAI Илона Маска также заключила контракт, который позволяет использовать модель Grok в защищенных военных средах США. Соглашение распространяет на Grok стандартные условия Минобороны и открывает путь к более широкому применению модели в законных военных задачах.
История вокруг Claude показывает более крупную проблему: как только ИИ становится частью разведки, симуляций и подготовки ударов, спор о допустимых границах быстро выходит за рамки корпоративной этики и превращается в вопрос военной инфраструктуры, госзаказа и политического влияния.