OpenAI теряет корпоративный рынок из-за нового скандала.

Конфликт вокруг военных заказов для ИИ-компаний в США начался с жесткого требования к Anthropic. Министр обороны Пит Хегсет захотел убрать из договора ограничения, которые запрещали использовать модели компании в двух самых спорных сценариях: для массовой слежки внутри страны и для полностью автономного летального оружия. Военные добивались более широкой формулировки, которая разрешала бы применять Claude для любых задач, если власти сочтут их законными. Дарио Амодеи на такие условия не согласился.
Реакция последовала сразу. Администрация Дональда Трампа лишила Anthropic всех государственных контрактов. Проблема была не в самом сотрудничестве с армией. Американские военные уже использовали решения Anthropic при выборе целей в начале конфликта с Ираном. Спор начался в другом месте: компания была готова работать с оборонным сектором, но не захотела позволять машинам убивать без человека в цепочке решения.
Сэм Альтман сначала занял почти такую же позицию. Утром 27 февраля глава OpenAI решил поддержать коллег из Anthropic и напомнил сотрудникам во внутреннем меморандуме, что его компания тоже давно считает недопустимыми три вещи: массовую слежку, автономное летальное оружие и опасные автоматизированные решения без участия человека.
Но к вечеру всё перевернулось. Альтман подписал с американским военным ведомством контракт на 200 миллионов долларов, причем в соглашении уже не было тех ограничений, о которых он говорил несколькими часами раньше.
После такого разворота у всех возник логичный вопрос: как OpenAI сумела почти сразу получить контракт на 200 миллионов долларов, если Anthropic за отказ принять требования Пентагона просто лишилась госзаказов? OpenAI, вопреки утренним заявлениям Сэма Альтмана о недопустимости массовой слежки и автономного летального оружия, могла согласиться на куда более широкие условия использования своих моделей. Логика критиков сводится к следующему: если военные считают какое-то действие законным, значит технологии OpenAI можно задействовать и для такой задачи.
Даже в более спокойной политической обстановке такая оговорка выглядела бы тревожно. В нынешней американской ситуации она звучит еще жестче. Когда власть сама расширяет пределы допустимого под конкретную цель, ссылка на законность перестает быть надежной гарантией. Формально нейтральная фраза в таком случае превращается в очень широкий коридор для применения ИИ - от анализа больших массивов данных до участия в силовых операциях.
Подозрения усилились через несколько дней, когда OpenAI представила модель GPT-5.3 и отдельно подчеркнула: новая версия не будет излишне уклончивой и не станет предварять ответы нравоучительными оговорками. Иначе говоря, модель обещали сделать менее склонной к осторожным отказам и длинным моральным предупреждениям перед реакцией на запрос. В обычной продуктовой новости такая формулировка выглядела бы как разговор о более удобном общении с пользователем. Рядом с военным контрактом и спором о принципиальных запретах смысл меняется.
Проблема для OpenAI может оказаться не только репутационной, но и финансовой. Anthropic после конфликта с военным ведомством резко нарастила выручку. Годовой темп уже приблизился к 20 миллиардам долларов. Параллельно компания усиливает позиции в корпоративном сегменте, где сосредоточены основные деньги рынка. В 2025 году Anthropic заняла 40 процентов расходов бизнеса на большие языковые модели, тогда как доля OpenAI упала с 50 до 27 процентов. Картина для OpenAI выглядит неприятно: компания получает быстрые государственные деньги, а Anthropic тем временем укрепляется в более доходной части рынка.
Даже лидерство на массовом рынке уже не выглядит для OpenAI надежной опорой. ChatGPT долго оставался главным символом силы компании, но потребительский сегмент сам по себе плохо превращается в большую и устойчивую прибыль. Популярность у широкой аудитории дает охват и узнаваемость, но не гарантирует такой же отдачи в деньгах, как корпоративные контракты. К тому же и здесь позиции OpenAI уже не выглядят незыблемыми: на iPhone чат-боты Anthropic, по имеющимся данным, обошли ChatGPT по популярности.
Сам Альтман после волны критики начал публично говорить, что пытается улучшить уже подписанное соглашение с военными. Сотрудникам дали понять, что OpenAI не решает, как именно Пентагон будет использовать ее модели. Логика здесь предельно простая: кто-то может считать удар по Ирану оправданным, а гипотетическое вторжение в Венесуэлу - недопустимым, но права влиять на такие решения у сотрудников нет. После передачи технологии заказчику выбор остается за государством, а не за разработчика.