США объявили Anthropic угрозой нацбезопасности. Но сначала — пусть найдёт все дыры в государственных сетях

10749
США объявили Anthropic угрозой нацбезопасности. Но сначала — пусть найдёт все дыры в государственных сетях

Ну и что, что они враги?  Claude слишком хорош, чтобы им не воспользоваться.

image

Пентагон начал использовать модель Mythos от Anthropic для поиска и исправления уязвимостей в правительственном ПО США. И вот почему это выглядит так необычно: Минобороны одновременно внедряет модель для защиты государственных сетей и продолжает готовить отказ от продуктов Anthropic в ближайшие месяцы.

Mythos представили 7 апреля в рамках Project Glasswing. Это закрытая инициатива Anthropic, в рамках которой отдельным организациям дают доступ к ещё не выпущенной модели Claude Mythos Preview. Использовать её разрешают только для оборонительных задач в кибербезопасности: поиска уязвимостей, анализа кода и подготовки исправлений.

По данным Anthropic, Mythos умеет находить старые и сложные ошибки в браузерах, инфраструктурном ПО и других программных системах. Почему это идеальный инструмент для Пентагона? Старые уязвимости могут годами лежать в коде незамеченными, а затем превращаться в входную точку для атак на государственные сети.

Технический директор Минобороны США и заместитель министра по исследованиям и разработкам Эмиль Майкл заявил, что ведомство всё равно продолжает выполнять план по выводу продуктов Anthropic из своей работы. Но для Mythos сделали исключение. По его словам, модель помогает быстрее находить и закрывать слабые места в сетях, где ошибки существовали давно, но раньше их поиск занимал больше времени. А аналоги либо слабее, либо их (в необходимом виде) вовсе не существует.

При этом Майкл подчеркнул и обратную сторону нового расклада. ИИ ускоряет защиту, но те же методы могут ускорить атаки. Если оборонительные команды быстрее находят уязвимости и выпускают патчи, злоумышленники тоже получают инструменты для более быстрого анализа кода и подготовки эксплойтов. Поэтому государственным структурам приходится не просто внедрять такие модели, а резко сокращать время между обнаружением ошибки и её исправлением.

Правда, Пентагон считает, что преимущество у Anthropic в этой нише - не навсегда. Со временем похожие модели появятся у OpenAI, xAI и Google. Если это произойдёт, госзаказчики смогут выбирать между несколькими поставщиками.

Конфликт между Пентагоном и Anthropic начался из-за условий использования моделей компании. Минобороны признало Anthropic риском для цепочки поставок после того, как стороны не договорились о правилах применения ИИ в ведомстве. В марте Anthropic подала иск против администрации Дональда Трампа, пытаясь оспорить попадание в чёрный список.

На практике Пентагон оказался в противоречивом положении. Ведомство не хочет зависеть от поставщика, которого само считает проблемным, но не готово отказаться от инструмента, если он помогает закрывать критические киберриски быстрее обычных средств. Mythos в этой истории - не просто модель для анализа кода, а примером новой зависимости: лучшие ИИ-системы могут понадобиться государству даже тогда, когда отношения с разработчиком уже испорчены.