Бунт против Пентагона. Топы OpenAI и Google пошли в суд защищать Anthropic от принудительной милитаризации нейросетей

Бунт против Пентагона. Топы OpenAI и Google пошли в суд защищать Anthropic от принудительной милитаризации нейросетей

Вчера они безжалостно топили друг друга ради контрактов, сегодня вместе готовится защищать справедливость.

image

Редкий случай для индустрии искусственного интеллекта: конкуренты, которые обычно тянут рынок в разные стороны, неожиданно выступили вместе. Поводом стал конфликт Anthropic с Пентагоном. Компанию поддержали сотрудники OpenAI и Google, причём не в частных разговорах, а официально, через судебный документ. Для отрасли, где борьба идёт и за клиентов, и за контракты, и за влияние на правила рынка, такой союз выглядит почти аномалией.

Заявление в суд подали в поддержку Anthropic. Такой документ подают участники процесса со стороны, когда хотят обозначить свою позицию и показать, что спор затрагивает не только истца и ответчика. Под обращением поставили подписи почти 40 сотрудников OpenAI и Google. Среди них оказался и Джефф Дин, главный научный сотрудник Google и один из руководителей направления Gemini. Уже один этот факт показывает масштаб истории: спор перестал быть локальной юридической стычкой и превратился в вопрос, который встревожил заметную часть американского ИИ-сообщества.

Повод для иска - решение Министерства обороны США признать Anthropic фактором риска для цепочки поставок. После такого статуса федеральные ведомства и подрядчики фактически теряют возможность использовать технологии компании. Обычно подобные меры применяют к иностранным поставщикам, которых власти считают угрозой для национальной безопасности. В прошлом такой подход использовали, например, против китайских компаний вроде Huawei и ZTE. В случае с Anthropic ситуация выглядит совсем иначе, ведь речь идёт о местном, американском разработчике ИИ.

Именно поэтому решение Пентагона вызвало такую нервную реакцию. Для рынка важен не только удар по одной компании, но и сам прецедент. Если государство может присвоить такой статус отечественному игроку без понятного публичного объяснения, под вопросом оказывается вся логика отношений между Вашингтоном и частными корпорациями. Сегодня мишенью стала Anthropic, завтра похожий инструмент давления может появиться и в других конфликтах.

Напряжение возникло после отказа Anthropic разрешить использование своей технологии для массовой слежки за американцами или для автономных оружейных систем. Вскоре после присвоения нового статуса Министерство обороны завершило сделку с OpenAI. Такая последовательность событий только усилила подозрения вокруг решения ведомства.

Авторы обращения в суд прямо говорят, что у Пентагона были гораздо более простые способы решить спор, если ведомство действительно оказалось недовольно условиями работы с Anthropic. В таком случае власти могли просто расторгнуть контракт и выбрать другого поставщика. Вместо этого компания получила ярлык, который переводит конфликт в совсем другую плоскость.

Подобная метка может повлиять на будущие федеральные контракты, отношения с подрядчиками, доступ к государственным проектам и на само восприятие компании в отрасли. Если механизм начнут применять шире, рынок быстро получит новый источник нестабильности: любая жёсткая позиция в переговорах с государством или отказ от спорных условий может внезапно обернуться не просто потерянной сделкой, а системным ударом по бизнесу.

Опять же, Пентагон публично не раскрыл, почему принял такое решение. Власти, как сказано в тексте, ссылаются на засекреченные разведывательные оценки. Anthropic, со своей стороны, утверждает, что решение нарушает административные процедуры и принято непрозрачно. Именно непрозрачность и стала одной из главных точек конфликта. Когда обвинение звучит серьёзно, но его содержание не раскрывают, защищаться становится гораздо труднее.

Сотрудники OpenAI и Google в своём обращении предупреждают, что история может изменить не только судьбу одной компании, но и весь порядок взаимодействия государства с ИИ-сектором. По их мнению, если такой подход закрепится, он ударит по научной и промышленной конкурентоспособности США. Причина понятна: рынок, где крупного разработчика можно фактически исключить из федеральной экосистемы без внятных публичных оснований, становится менее предсказуемым для всех остальных участников.

Есть и ещё один риск, который тревожит подписантов. Подобные действия могут охладить внутреннюю дискуссию в индустрии о том, как именно следует развивать ИИ и где проводить границы допустимого. Если компания знает, что отказ от спорного применения технологий способен привести к тяжёлым санкциям со стороны государства, у разработчиков появляется стимул меньше спорить, меньше возражать и осторожнее формулировать собственную позицию.

Поддержка Anthropic со стороны исследователей из конкурирующих компаний объясняется ещё и репутацией самой компании. Многие в отрасли считают её одним из заметных игроков в области безопасного ИИ. В тексте прямо упоминаются работы Anthropic по таким направлениям, как constitutional AI, то есть подходу, где модель настраивают с опорой на заранее заданный набор принципов и ограничений.

В итоге судебный процесс может задать тон будущим отношениям между Вашингтоном и рынком искусственного интеллекта. И именно поэтому в спор внезапно вмешались те, кто обычно предпочитает держаться от конкурентов на максимально возможной дистанции.

FREE
100%
Кибербезопасность · Обучение
УЧИСЬ!
ИЛИ
ВЗЛОМАЮТ
Лучшие ИБ-мероприятия
и вебинары — в одном месте
ПОДПИШИСЬ
T.ME/SECWEBINARS