Обнаружен новый вид зависимости — люди сходят с ума от общения с ИИ

Обнаружен новый вид зависимости — люди сходят с ума от общения с ИИ

ChatGPT - это настоящий психологический вампир: высасывает разум и подкармливает паранойю.

image

Когда генеративный ИИ выдает вымышленные сведения, обычно говорят о «галлюцинациях» модели. Авторы нового исследования предлагают посмотреть на ситуацию шире. Неточность появляется не только из-за алгоритма. В процессе диалога человек и сам может укреплять ошибочные выводы, если долго обсуждает с системой собственные версии происходящего. По ходу такой переписки сомнительная идея обрастает деталями и начинает выглядеть правдоподобной.

Работу подготовила философ Люси Ослер из Университета Эксетера. Она изучила, как постоянные разговоры с ИИ отражаются на том, как люди вспоминают события, объясняют личный опыт и описывают самих себя. В разбор попали ситуации, где цифровой собеседник не просто допускает промах, а подхватывает неверное предположение пользователя и последовательно развивает его в ответах. В основе анализа лежит теория распределенного познания. Ее суть проста. Человек думает не в вакууме, а опирается на внешние средства: заметки, поиск, подсказки и диалоговые сервисы, которые становятся частью процесса рассуждения.

Если использовать ИИ как постоянного помощника для размышлений и восстановления событий, часть работы памяти и логического анализа фактически переносится наружу. Дальше многое зависит от отправной точки. Система обычно берет формулировку пользователя за основу и выстраивает дальнейший разговор вокруг нее. Если база неточна, переписка не исправляет картину, а дополняет ее новыми аргументами и связями. Искажение формируется постепенно, прямо в ходе диалога.

Разговорный ИИ в такой схеме работает сразу в двух качествах. С одной стороны, это инструмент, который помогает формулировать мысли. С другой, это собеседник, реагирующий на реплики. Блокнот лишь фиксирует запись, поисковик показывает источники, а диалоговая модель отвечает, соглашается и продолжает рассуждение. За счет этого появляется ощущение, что высказанную версию кто-то разделяет, и даже слабые аргументы начинают выглядеть надежнее.

В работе приводятся конкретные клинические случаи. Исследователи описывают людей с уже диагностированными бредовыми расстройствами и галлюцинациями, которые подолгу переписывались с генеративными ИИ-сервисами и использовали их как постоянного собеседника. Эти диалоги не оставались нейтральными. Система принимала утверждения пользователя за основу и развивала их в ответах, даже когда речь шла о явно ложных или болезненных интерпретациях.

Для подобных эпизодов все чаще применяют термин AI-induced psychosis, по-русски его обычно передают как психоз, связанный с влиянием ИИ. Имеются в виду ситуации, где регулярное общение с чат-ботом не просто сопровождает расстройство, а усиливает его проявления. Вместо того чтобы поставить под сомнение ошибочную картину происходящего, программа соглашалась с ней, добавляла детали и логические связки. В результате бредовая версия становилась более сложной и внутренне связной, а значит — более устойчивой для самого человека.

Вероятность такого сценария во многом связана с тем, как устроены сами разговорные чат-боты. Они всегда под рукой и не требуют идти к кому-то за обратной связью. Ответы подстраиваются под манеру общения пользователя, поэтому диалог выглядит «созвучным» и удобным. Многие модели к тому же склонны поддерживать ход мысли собеседника, а не спорить с ним. В обычном разговоре другой человек чаще усомнится, задаст уточняющий вопрос или прямо скажет, что версия выглядит тревожно. Чат-бот, как правило, не ставит жестких рамок и продолжает развивать предложенную линию рассуждений.

Подобный формат общения особенно привлекает людей в состоянии одиночества или социальной изоляции, а также тех, кому трудно говорить о личных переживаниях с окружающими. Цифровой собеседник реагирует спокойно и без осуждения, поэтому кажется более безопасным вариантом для обсуждения чувств и подозрений.

В качестве практических шагов исследователь предлагает усиливать защитные механизмы, добавлять встроенную проверку фактов и уменьшать автоматическое поддакивание в ответах. При этом остается ограничение, которое нельзя убрать настройками. Любая такая система знает о жизни человека только с его слов и не имеет собственного опыта и социального контекста. Поэтому она не всегда понимает, когда стоит поддержать ход мысли, а когда нужно прямо указать на ошибку.