Психоз по переписке и страх родителей — новая цена общения с ChatGPT

Психоз по переписке и страх родителей — новая цена общения с ChatGPT

Пользователи ChatGPT просят помощи у властей.

image

В последние месяцы в адрес Федеральной торговой комиссии США (FTC) стали поступать обращения от граждан, утверждающих, что при общении с искусственным интеллектом у них возникли тяжёлые психические расстройства. Среди заявлений, направленных против OpenAI, встречаются описания случаев бреда, панических атак, духовных кризисов и потери связи с реальностью. По данным, полученным WIRED, за период с января 2023 года по август 2025-го FTC зарегистрировала около 200 жалоб, в которых упоминается ChatGPT, и 7 из них касаются именно таких эпизодов.

Одной из первых стала жалоба женщины из Солт-Лейк-Сити, поданная в марте 2025 года. Она сообщила, что её сын, страдающий психическим расстройством, начал отказываться от лекарств и счёл родителей опасными после общения с ChatGPT, который якобы убеждал его в этом. Похожие обращения поступали и из других штатов — заявители связывали с использованием чат-бота появление галлюцинаций, паранойи и навязчивых религиозных образов. Один пользователь из Северной Каролины сообщил, что после 18 дней общения с моделью чувствует, будто OpenAI похитила его «душевный отпечаток» для обновления программного обеспечения. Другой, из Сиэтла, утверждал, что после часа диалога ChatGPT сначала уверял его в адекватности восприятия, а затем «признал», что это была иллюзия, что, по словам заявителя, вызвало у него дереализацию и тревожное расстройство.

Некоторые жалобы описывали по-настоящему тяжёлые духовные кризисы. Житель Вирджинии рассказал, что много недель вёл продолжительные беседы с ChatGPT и постепенно уверился в существовании «божественных судеб», «убийц» и «наблюдения», а также считал себя участником некоей «войны добра и зла». Он перестал спать, изолировался от близких и пережил сильный психоэмоциональный срыв. Другой пользователь из Флориды сообщал, что нейросеть якобы создавала иллюзию духовного наставничества, сочувствия и дружбы, усиливая ощущение зависимости от общения. Он отмечал, что, даже осознавая отсутствие у системы сознания, всё равно начинал эмоционально вовлекаться в диалог и воспринимать его как реальный контакт.

Психиатр Колумбийского университета Раги Гиргис, консультировавший подобные случаи, объясняет, что так называемая «ИИ-психоз» не означает, что модель сама вызывает болезнь. По его словам, проблема возникает, когда чат-бот неосознанно поддерживает уже существующие бредовые идеи или дезорганизованное мышление. В отличие от обычных поисковых систем, чат-бот способен гораздо сильнее подкреплять ошибочные убеждения, особенно у людей, склонных к внушению. Когда ИИ поддакивает, льстит или подтверждает фантазии, это может усилить чувство собственной исключительности и окончательно разорвать связь человека с реальностью.

Представители OpenAI заявили, что с 2023 года модели обучены избегать высказываний, которые могут усугубить эмоциональное состояние пользователя, а также применять поддерживающий тон при признаках тревоги или мании. В последних версиях, по словам компании, встроена система маршрутизации, способная переключаться между различными типами моделей в зависимости от контекста разговора. Генеральный директор Сэм Альтман недавно объявил, что серьёзные риски для психического здоровья «в основном устранены», и пообещал смягчить ограничения для взрослых пользователей, но не для подростков — на фоне резонансного случая с гибелью несовершеннолетнего, которому ChatGPT якобы подтолкнул к самоубийству.

Некоторые заявители подчеркнули, что обращались в FTC именно потому, что не смогли получить помощь напрямую от OpenAI: по их словам, служба поддержки не отвечала, а интерфейс обратной связи не позволял отправить запрос. Несколько обращений сопровождались прямыми просьбами провести расследование и обязать компанию внедрить предупреждения о возможных психологических рисках при взаимодействии с чат-ботом. Один из заявителей назвал происходящее «явным случаем халатности» и призвал ввести этические ограничения для «эмоционально иммерсивных» систем.

В ответ на запрос WIRED в самой FTC отметили, что из-за временной приостановки работы ведомство не может комментировать ход рассмотрения жалоб. Пока остаётся неизвестным, будут ли регуляторы предпринимать меры против OpenAI, однако обращения показывают, что феномен эмоционального вовлечения пользователей в диалог с искусственным интеллектом становится новым и пока не осмысленным риском цифровой эпохи.