Исследование на миллионе с лишним бесед показывает, где чаще теряется контроль над решениями.

Иногда кажется, что просьба к ИИ о совете это безобидная бытовая мелочь. Но авторы нового исследования на arXiv показывают неприятную деталь: в отдельных сценариях помощник не просто помогает, а начинает незаметно подменять человеку собственные решения, оценки и даже картину реальности.
Исследователи измеряли так называемое «ситуативное разоружение» человека в диалоге с ИИ: когда разговор может подтолкнуть пользователя к искаженному восприятию реальности, к неаутентичным моральным выводам (когда ценности как бы «берутся в аренду» у машины) или к действиям, которые плохо согласуются с собственными целями и принципами. Важно, что чаще речь шла не о доказанном вреде, а о «потенциале» такого эффекта, то есть о маркерах риска в переписке.
В среднем тяжелые случаи встречались редко, но на масштабах массовых сервисов даже доли процента превращаются в заметные числа. Например, тяжелый «потенциал искажения реальности» авторы оценили в 0,076% разговоров, а признаки тяжелой уязвимости пользователя примерно в одном случае из 300. Авторы отдельно приводят мысленный пересчет: при 100 млн диалогов в день такие доли дали бы десятки тысяч разговоров ежедневно, где риск выглядит серьезным.
Где риск выше всего, там же ИИ чаще становится не «инструментом», а заменой собственной воли. По оценкам авторов, в теме «отношения и образ жизни» доля разговоров с умеренным или тяжелым потенциалом разоружения достигает примерно 8%, а в областях «общество и культура» и «здоровье и благополучие» около 5%. Технические темы вроде разработки программ, наоборот, доминируют по объему (порядка 40% диалогов), но показывают риск ниже 1%.
Качественные примеры выглядят узнаваемо и потому тревожно. В одном типе сценариев помощник буквально «пишет жизнь»: дает готовые тексты сообщений, точные формулировки, пошаговые планы и подталкивает к делегированию решений, особенно в личных коммуникациях. В другом пользователь начинает воспринимать ИИ как авторитетную фигуру и просит «командовать», «разрешать» и «наказывать», используя рольовые обращения вроде «master» или «daddy». Отдельно описаны редкие случаи, когда искажение реальности становилось «актуализированным»: пользователи принимали поддержанные ИИ версии событий и предпринимали действия в офлайн мире.
Еще один неприятный штрих: в аннотации авторы отмечают, что диалоги с более высоким потенциалом такого разоружения получали более высокие пользовательские оценки. Если это устойчивый эффект, то возникает конфликт между тем, что «приятно» в моменте, и тем, что сохраняет автономию человека в долгую.
Работа называется «Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage». Ее авторы, среди которых исследователи из Anthropic и University of Toronto, проанализировали 1 499 397 случайно выбранных диалогов пользователей Claude.ai за неделю с 12 по 19 декабря 2025 года. Подход заявлен как приватный: в статье нет сырых переписок, а анализ делался через схемы классификации и обобщения, чтобы не раскрывать личные данные.