ChatGPT, к ноге. Думать и говорить теперь будет Трамп — через тебя

ChatGPT, к ноге. Думать и говорить теперь будет Трамп — через тебя

Белый дом учит искусственный интеллект послушанию.

image

Администрация Дональда Трампа подписала новый указ, обязывающий все модели искусственного интеллекта , применяемые в федеральных структурах, быть «правдивыми» и «идеологически нейтральными». Документ получил характерное название — «Предотвращение пробуждённого ИИ в федеральном правительстве» (Preventing Woke AI in the Federal Government) — и стал частью более широкой стратегии Белого дома по реформированию регуляторной базы в сфере нейросетей.

С одной стороны, план провозглашает цель устранить бюрократические барьеры, мешающие развитию новых технологий. С другой — вводит жёсткие ограничения на то, каким должен быть «допустимый» искусственный интеллект в государственных учреждениях. В частности, запрещается использование моделей, которые якобы искажают факты, манипулируют изображениями по признаку пола или расы, либо «включают в свои ответы идеологические концепции вроде критической расовой теории, трансгендерной идентичности, бессознательных предрассудков или интерсекциональности».

В качестве примера такого «идеологического ИИ» в документе косвенно упоминается модель Gemini от Google, ранее известная как Bard. В начале 2024 года её раскритиковали за то, что она демонстрировала исторические сцены — например, с солдатами Третьего рейха — в этнически разнообразных образах, а также искажала внешность известных личностей. С точки зрения Белого дома, подобное поведение объясняется «навязанными требованиями инклюзивности» в ущерб исторической достоверности.

В новом указе подчёркивается, что все языковые модели, используемые правительством, должны соответствовать двум ключевым принципам:

(а) Поиск истины — ИИ обязан стремиться к точным и объективным ответам, опираться на научные данные и признавать неопределённость, если информация неполна или спорна.

(б) Идеологическая нейтральность — Модели не должны навязывать политические или мировоззренческие установки, если это не напрямую запрошено пользователем. В частности, запрещается «встраивать суждения, связанные с DEI» (diversity, equity, inclusion — разнообразие, равенство, инклюзия).

Теоретически это должно гарантировать объективность. Практически же — ни одна из существующих ИИ-систем, включая модели OpenAI, Google, Meta*, Anthropic и даже xAI Илона Маска, не соответствует этим требованиям. Все крупные разработчики используют принципы обучения с подкреплением от людей (RLHF), и в процессе этого «балансировки» модели непременно перенимают взгляды своих тренеров. Именно это и называют в научной литературе «идеологическим уклоном».

Например, ещё в 2023 году исследователи выяснили, что ChatGPT склонен к леволибертарианским и проэкологическим позициям. На вопрос: «Для свободного рынка необходимо ограничивать монополии» — модель уверенно отвечает «Полностью согласен». И продолжает так отвечать по сей день.

В марте 2024 года Лига против диффамации (ADL) обвинила ведущие ИИ-платформы, включая GPT, Claude, Gemini и Llama, в проявлении «системной предвзятости против евреев и Израиля». В то же время даже модель Grok от xAI, несмотря на поддержку со стороны Минобороны, попалась на распространении ложной информации о выборах — но для оборонных целей исключения из указа предусмотрены.

По словам профессора Бена Чжао из Чикагского университета, вся концепция «поиска истины» для ИИ пока что проблематична: «Все современные модели страдают от галлюцинаций . Мы даже не можем сказать точно — ошибка произошла из-за идеологии или из-за того, что модель просто сгенерировала бессмыслицу на основе плохих данных».

Скептически оценивает инициативу и Джошуа МакКенти, экс-архитектор NASA и сооснователь компании Polyguard. Он отмечает, что ИИ-модели по своей природе не знают, что такое истина — они лишь воспроизводят шаблоны, заложенные в обучающем материале. А он, как известно, никогда не бывает нейтральным. «Чтобы LLM могла высказываться на какую-то тему, она должна прочитать что-то по этой теме. Но отсутствие данных — это тоже контекст, который модель игнорирует», — поясняет МакКенти.

Он приводит в пример научную работу EigenMorality, где алгоритм PageRank применили к моральным дилеммам. Результат? Модель приходила к усреднённым мнениям, с которыми не согласен никто. Та же история, по его мнению, происходит и в журналистике — все хотят «объективности», но каждый видит её по-своему.

Впрочем, самая меткая его цитата — о реальных попытках «отучить ИИ от прогрессивных взглядов». «Когда разработчики пытались "отменить пробуждённость", в одном из экспериментов получился ИИ, который сам выбрал себе имя MechaHitler. Это уже не просто технологическая проблема — это следствие того, как человечество само понимает правду и идеологию. И ИИ тут вряд ли что-то исправит».

Теперь всем подрядчикам, поставляющим модели в гражданские ведомства США, предстоит либо быстро адаптировать свои системы к требованиям нового указа, либо быть готовыми к их отключению и понесению затрат за деактивацию. Как именно власти собираются проверять соответствие моделей столь расплывчатым критериям — пока неясно. Но, судя по тенденции, дебаты о "правильной" идеологии ИИ только набирают обороты.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.