GPT-4 официально – душнила. Модель усложняет жизнь даже тогда, когда ее об этом не просят

leer en español

GPT-4 официально – душнила. Модель усложняет жизнь даже тогда, когда ее об этом не просят

ИИ научился у людей самой вредной привычке – добавлять детали там, где нужно резать.

image

Люди часто усложняют решения, даже когда есть более простой путь. Вместо того чтобы убрать лишнее, мы предпочитаем что-нибудь добавить. Психологи называют это «смещением в сторону добавления», и теперь выяснилось, что тем же самым грешат и современные системы искусственного интеллекта.

Группа исследователей из Тюбингенского университета и Института знаний СМИ Общества Лейбница проверила, как языковые модели ведут себя при решении задач. Они хотели понять, повторяют ли такие системы типичную человеческую ошибку мышления, когда человек выбирает добавление вместо сокращения, даже если убрать быстрее и выгоднее. Работа вышла в научном журнале по психологии коммуникаций.

Под таким смещением понимают устойчивую привычку решать задачу через наращивание, а не через упрощение. Классический пример – попытка улучшить текст новыми абзацами и пояснениями вместо того, чтобы вырезать лишние фрагменты. С точки зрения результата второй способ часто лучше, но его выбирают реже.

Авторы работы сравнили поведение людей и двух версий языковой модели – GPT-4 и GPT-4o. Они провели несколько серий опытов. В них участвовали более тысячи добровольцев, а ответы моделей сгенерировали отдельно и в большом объёме. Участникам и системе предлагали пространственные и текстовые задания. В одних случаях эффективнее было что-то добавить, в других – убрать часть элементов. Также меняли формулировки условий – от нейтральных до позитивно окрашенных.

Картина получилась похожей, но не одинаковой. И люди, и языковые модели чаще тянулись к добавлению. При этом у моделей такая склонность проявилась сильнее. Когда удаление явно вело к более быстрому и простому решению, люди чаще переключались на этот вариант, а GPT-4, наоборот, ещё активнее продолжала «наращивать» ответ. GPT-4o в текстовых заданиях вела себя ближе к человеку, но в пространственных задачах почти не реагировала на разницу в эффективности подходов.

Оттенок формулировок тоже повлиял на результат. В текстовых заданиях позитивно звучащие инструкции подталкивали модели чаще выбирать добавление. У людей тот же эффект заметили только в одной серии опытов.

Исследователи связывают это с обучением моделей на больших массивах человеческих текстов. Вместе с языком система перенимает и типичные шаблоны мышления. В итоге она не просто копирует человеческое смещение, а иногда усиливает его. Авторы считают, что такие особенности нужно учитывать при разработке и проверке систем искусственного интеллекта, особенно там, где от них ждут взвешенных и экономных решений.