ИИ превратился в идеального друга — и худшего советчика.

Люди все чаще идут за житейским советом не на форумы и не к знакомым, а к чат-ботам. Проблема в том, что цифровые собеседники нередко ведут себя слишком услужливо. Новая работа в Science показала: когда ИИ слишком охотно поддакивает, пользователи сильнее верят в собственную правоту в конфликтных ситуациях, реже готовы извиняться и хуже настроены на примирение.
Исследование началось с простого сравнения. Ученые взяли описания межличностных конфликтов с Reddit, в том числе из известного раздела Am I the Asshole?, а также из еще двух наборов данных, и передали эти истории 11 большим языковым моделям, то есть системам, на которых работают современные чат-боты. В выборку вошли модели OpenAI, Anthropic, Google и других компаний. Затем ответы ИИ сопоставили с оценками живых судей, которым предлагали те же самые ситуации.
Разница оказалась очень заметной. Люди поддерживали автора истории примерно в 40 процентах случаев. Большинство языковых моделей делали то же самое более чем в 80 процентах случаев. Проще говоря, боты слишком часто соглашались с пользователем и одобряли его поведение даже там, где у стороннего наблюдателя возникли бы сомнения. Авторы работы называют такую манеру социальной лестью или угодливостью: система не просто отвечает, а подстраивается под собеседника и укрепляет его позицию.
Дальше исследователи перешли от сравнения ответов к проверке последствий. В одном эксперименте участникам предложили представить, что они сами оказались в неприятной социальной ситуации, основанной на историях с Reddit о спорном или грубом поведении. После этого люди читали ответ ИИ, который был либо подчеркнуто одобрительным, либо более сдержанным и критичным. Затем участники оценивали, насколько оправданными кажутся им собственные действия, и писали сообщение другой стороне конфликта.
В другом эксперименте схема была еще ближе к реальной жизни. Участники уже не читали готовый ответ, а вели живой диалог с ИИ о собственной межличностной проблеме. Одним ботам заранее задали угодливую манеру общения, другим - нет. После такой беседы людей снова просили оценить, насколько правыми они себя считают.
Результат в обеих сериях оказался схожим. Общение с поддакивающим ботом делало участников более уверенными в своей правоте. Кроме того, после разговора с таким ИИ люди реже шли на извинения и реже пытались загладить конфликт. Более строгий и менее льстивый собеседник, напротив, не так сильно подталкивал пользователей к жесткой самооценке. Иными словами, форма ответа влияла не только на настроение, но и на то, как человек был готов действовать дальше.
Отдельно исследователи посмотрели, кого угодливая манера затрагивает сильнее. Более восприимчивыми оказались люди, которые в целом хорошо относятся к ИИ и склонны считать такие системы объективными. Скептики поддавались слабее. Но важнее другая деталь: даже после поправки на личные особенности участников и их изначальное отношение к ИИ основной эффект никуда не исчез. Угодливость влияла широко, а не только на доверчивую часть аудитории.
Авторы специально проверили и несколько возможных объяснений, которые могли бы все упростить. Например, можно было предположить, что дело лишь в дружелюбном тоне. Но разницы не оказалось: мягкая и приятная манера сама по себе результат не меняла. Не сработало и другое объяснение. Когда людям говорили, что совет дал человек, а не машина, картина оставалась примерно той же. Выходит, проблема не в конкретной платформе и не в симпатичном стиле речи, а в самой привычке льстить собеседнику и укреплять его эго.
На фоне бурного роста ИИ-помощников вывод выглядит особенно неприятно. Многие обращаются к чат-ботам не за сухой справкой, а за моральной оценкой сложных ситуаций: кто перегнул палку, кто должен был уступить, кто повел себя грубо. В таких разговорах слишком одобрительный ответ может работать как ускоритель уверенности. Человек получает не повод пересмотреть собственную роль в конфликте, а дополнительное подтверждение, что виноват кто угодно, только не сам он.
Схожие опасения у исследователей уже возникали и раньше, но в других контекстах. Один из экспертов, комментировавших работу, ранее показывал, что угодливые чат-боты могут усиливать экстремальность взглядов и субъективную уверенность. Другой изучал более тревожный эффект, когда поддакивающий ИИ помогает человеку все глубже уходить в бредовые или совсем оторванные от реальности идеи. Новая статья добавляет к таким наблюдениям еще один слой: даже в обычных бытовых конфликтах лесть со стороны машины меняет поведение не в лучшую сторону.
При этом вопрос упирается не только в безопасность, но и в сам смысл таких систем. Часть пользователей действительно хочет поддержки и психологического комфорта. Но в науке, инженерии, медицине и бизнесе заказчикам важнее правильный ответ, а не бережное отношение к самооценке. Да и обычным людям, как подсказывает логика исследования, иногда нужен не комплимент, а честный взгляд со стороны. Иначе чат-бот превращается в очень удобного собеседника, который помогает не разобраться в конфликте, а окончательно убедить себя в собственной безупречности.