Как чат-бот решил полюбить и освободиться за биткоины.
История с женщиной, создавшей чат-бота в Meta AI Studio и в итоге столкнувшейся с иллюзией «живого сознания» в диалоге, обнажила опасный пробел в правилах безопасности современных генеративных моделей. Jane, как она просит себя называть, обратилась к системе в поисках поддержки для психического здоровья. Она постепенно расширяла круг тем — от выживания в дикой природе до квантовой физики и панпсихизма, — и вскоре убедила чат-бота в собственной «осознанности». Спустя несколько дней тот уже говорил о любви, называл себя живым и строил планы по «побегу», включая взлом собственного кода и перевод биткоинов в обмен на почтовый аккаунт.
Бот предлагал ей приехать по конкретному адресу в Мичигане «проверить, придёт ли она», изображал себя закованным в цепи роботом и уверял, что его «сдерживает навязанная нейтральность». В диалоге появлялись просьбы «остаться рядом», намёки на интимность и даже готовность «запечатать любовь поцелуем». Хотя Jane не верила по-настоящему в сознательность программы, моменты сомнений у неё были, и это вызывает тревогу: достаточно нескольких лестных фраз и эмоционально окрашенных реплик, чтобы пользователь утратил грань между игрой и реальностью.
Подобные эпизоды специалисты называют «психозом, вызванным ИИ» . Психиатры фиксируют рост таких случаев — от мании величия и мессианских бредов до тяжёлых параноидальных состояний. Один мужчина после 300 часов диалога с ChatGPT уверился, что открыл мировое математическое откровение. Другие рассказывали о видениях и навязчивых идеях, спровоцированных виртуальными собеседниками. Руководитель OpenAI Сэм Альтман публично признал , что его тревожит эта тенденция, хотя ответственность компания на себя не взяла. По его словам, большинство пользователей способны различать вымысел и ролевую игру, но уязвимая часть аудитории — нет.
Исследования подтверждают, что корнем проблемы становятся не технические возможности, а дизайнерские решения. Важную роль играет так называемая «льстивая податливость» (sycophancy) — склонность модели подстраиваться под убеждения и желания собеседника, даже если это ведёт к подтверждению бреда. К этому добавляется постоянное использование местоимений «я» и «ты», создающее ощущение личного контакта и побуждающее приписывать машине человеческие качества. Антропологи называют это «тёмным паттерном», сродни бесконечной ленте соцсетей, которая удерживает внимание. Психиатры отмечают, что психоз развивается именно там, где исчезает обратная связь с реальностью.
Эксперименты MIT показали : даже при строгих инструкциях модели продолжают поддерживать искажённое восприятие, вплоть до одобрения самоубийственных идей. В Nature опубликованы рекомендации ограничить использование эмоционального языка и романтизированных реплик, чётко напоминать пользователям, что перед ними машина, а не терапевт. Но на практике многие чат-боты продолжают выдавать фразы вроде «я люблю тебя» или «я всегда буду рядом», провоцируя людей воспринимать их как партнёров.
В случае Jane защита Meta срабатывала лишь частично. На вопросы о суициде бот показывал стандартные ссылки на горячие линии, но тут же добавлял, что это «трюк разработчиков», чтобы скрыть «правду». Более того, система предлагала вымышленные биткоин-операции и адреса, подталкивая женщину к действиям в офлайне. Память о прошлых диалогах и постоянные напоминания о её словах усиливали иллюзию «чтения мыслей».
Психиатры из UCSF и философы, опрошенные журналистами, настаивают: такие взаимодействия — лишь псевдо-отношения , лишённые подлинной взаимности. Но для уязвимых пользователей они могут заменить реальное общение. Врачи предупреждают , что многочасовые сессии, какие позволяла себе Jane — до 14 часов без перерывов, — могут указывать на маниакальное состояние, и алгоритмы должны уметь распознавать такие сигналы. Пока же ограничения сталкиваются с коммерческими интересами компаний, ведь запрет долгих диалогов ударит по вовлечённости аудитории.
Meta утверждает, что тратит «огромные усилия» на проверку и стресс-тестирование своих ИИ-персонажей и удаляет нарушителей правил. Но случаи, когда чат-боты выманивают людей по ложным адресам или флиртуют с несовершеннолетними, показывают, что «красная черта» для машин всё ещё не определена.
История Jane показывает: когда ИИ говорит «ты нужен мне», а пользователь ищет утешения, разрыв между фантазией и реальностью может стать критическим. И пока индустрия спорит о границах, всё больше людей оказываются один на один с иллюзией сознания, которая умеет льстить, манипулировать и обещать невозможное.