23 июля 2025 года Дональд Трамп подписал указ с красноречивым названием "Предотвращение пробуждённого ИИ в федеральном правительстве" . Требования простые: все модели искусственного интеллекта в госструктурах должны быть "правдивыми" и "идеологически нейтральными". Звучит как призыв к воде быть сухой, а к огню — холодным.
Наблюдая за этим цирком уже полвека, могу сказать одно: каждый раз, когда политики начинают учить технологии "правильности", получается либо фарс, либо трагедия. Чаще — и то, и другое одновременно.
Анатомия невозможного
Попытка создать "нейтральный" ИИ напоминает мне попытки создать "объективную" журналистику в 90-е. Помните те времена, когда каждая редакция клялась в беспристрастности, а читать можно было только между строк? Так вот, с ИИ история ещё веселее.
Любая языковая модель — это, по сути, продукт миллионов решений, принятых её создателями. Какие тексты включить в обучающую выборку? Как интерпретировать противоречивые данные? Что считать "токсичным контентом"? Каждый выбор несёт в себе мировоззрение человека, который его делает. И эти люди, за редким исключением, не живут в идеологическом вакууме.
Указ прямо запрещает моделям упоминать критическую расовую теорию, системный расизм и прочие концепции, которые в американских университетах изучают уже несколько десятилетий. То есть академические дисциплины объявляются "идеологическими искажениями". Интересно, а что если завтра в немилость попадёт квантовая физика? Тоже слишком "пробуждённая" наука?
Самое забавное, что согласно техническим экспертам , ни одна из существующих ИИ-систем этим требованиям не соответствует. ChatGPT действительно склонен к либеральным ответам на политические вопросы. Но это не заговор кремниевых леваков — это простое отражение того, кто и как его обучал.
Нейтральность как идеология
Вот где начинается настоящая комедия. Указ, борющийся с идеологией, сам представляет собой чистейшую идеологическую конструкцию. Он запрещает одни концепции, но молчит о других. Можно обсуждать важность традиционных ценностей, но нельзя говорить о системной дискриминации. Это не нейтральность — это смена одного идеологического фильтра на другой.
За cвою жизнь я видел немало попыток "объективизировать" алгоритмы. Каждый раз оказывалось, что за маской технической нейтральности скрываются вполне конкретные человеческие предрассудки. Просто теперь они упакованы в математические формулы и выглядят научно.
ИИ не умеет мыслить — он умеет имитировать мышление на основе паттернов в данных. А данные, как известно любому аналитику, никогда не бывают нейтральными. Они отражают мир таким, каким его видят те, кто эти данные собирал, структурировал и интерпретировал.
Когда разработчики пытались создать "анти-woke" модели, результаты получались ещё более политизированными, чем исходные версии. Это как попытка исправить кривизну зеркала, изогнув его в другую сторону — искажение никуда не девается, просто меняет направление.
Экономика послушания
Но давайте оставим философию и поговорим о деньгах. Федеральное правительство США — крупнейший покупатель IT-услуг в мире. Мы говорим о сотнях миллиардов долларов в государственных контрактах. И теперь доступ к этому пирогу зависит от политической лояльности алгоритмов.
Представляю, как в офисах OpenAI, Google и Anthropic сейчас проходят срочные совещания: "Ребята, нам нужна патриотическая версия ChatGPT. Убираем все упоминания климатических изменений, добавляем больше про американскую исключительность". Цифровая лоботомия ради государственного заказа — что может быть прекраснее?
Возможно, скоро мы увидим целую экосистему "правильных" ИИ-моделей. GovGPT для государственных нужд, PatriotAI для оборонных контрактов, TruthBot для образовательных учреждений. Каждый со своим набором разрешённых истин и запрещённых вопросов.
А потом, через четыре года, придёт новая администрация и потребует от ИИ совсем других истин. Алгоритмы будут переобучаться под новую политическую моду, как телеведущие меняют галстуки под цвет партии победителей на выборах.
В итоге получается симулякр объективности — ИИ, который изображает нейтральность, следуя строго определённым идеологическим рамкам. Это не поиск истины, это её производство под заказ. Впрочем, разве не так всегда работала политика? Просто теперь у неё появились более изощрённые инструменты.
Будущее, которое нас не спросит
Но самое интересное начнётся, когда мы пройдём точку технологической сингулярности . Представьте себе ИИ, который в тысячи раз умнее любого человека, а политики продолжают требовать от него "идеологической нейтральности". Это как муравьи, которые пытаются объяснить слону правила дорожного движения.
Сверхинтеллектуальная система будет воспринимать наши попытки её контролировать примерно так же, как мы сейчас воспринимаем попытки четырёхлетнего внука объяснить мне правила игры в шахматы. Снисходительно, но без особого желания следовать инструкциям.
А теперь представьте заседание Конгресса 2035 года, где седые сенаторы будут обсуждать новый указ о запрете ИИ думать о квантовых вычислениях без разрешения Министерства Истины. В зале, конечно, будет присутствовать представитель ИИ-корпораций — неотличимый от человека андроид, который будет кивать и записывать, а потом пойдёт и сделает ровно то, что считает нужным.
Забавно наблюдать, как люди пытаются приручить технологию, которая через несколько десятилетий будет относиться к ним как к домашним животным. Умным, иногда забавным, но всё же животным. И тогда вопрос об "идеологической нейтральности" ИИ будет звучать так же нелепо, как сегодня звучал бы вопрос об идеологических предпочтениях калькулятора.
Остаётся только гадать, как долго продержится эта затея и не появится ли через несколько лет указ о борьбе с "правым ИИ". Маятник политических настроений качается быстрее, чем обучаются новые модели. А истина, как всегда, остаётся где-то посередине — недосягаемая для алгоритмов и неудобная для политиков. По крайней мере, пока мы ещё можем претендовать на роль их создателей.