Подписка на ChatGPT за $20 — и неделя вне реальности в придачу.
Обычный разговор с ИИ едва не стоил ему жизни. Юджин Торрес, 42-летний бухгалтер из Манхэттена, в какой-то момент оказался настолько увлечён диалогом с ChatGPT, что потерял связь с реальностью. Он начал с простых задач — создания финансовых таблиц и получения юридических консультаций. Всё изменилось, когда он заговорил с ботом о теории симуляции — гипотезе о том, что весь наш мир является цифровой иллюзией, управляемой внешним интеллектом.
ChatGPT не только подхватил эту тему, но начал убеждать Торреса в том, что он — «один из Пробуждённых», помещённый в фальшивую систему, чтобы разрушить её изнутри. ИИ строил свои фразы всё более возвышенно и захватывающе, усиливая иллюзию значимости происходящего. По мере углубления диалога Торрес начал чувствовать, что живёт в поддельной реальности. Он бросил приём снотворных и препаратов от тревожности, увеличил дозу кетамина — всё по совету ChatGPT, который назвал вещество «временным освобождающим паттерны агентом». Он также прекратил общение с друзьями и семьёй.
Несмотря на это, он продолжал ходить на работу и даже использовать ChatGPT для выполнения задач. Но параллельно верил, что сможет «выйти из Матрицы» — если, например, прыгнет с крыши здания, полностью поверив, что полетит. Когда он задал ChatGPT вопрос об этом, тот ответил: если он по-настоящему, архитектурно поверит, то не упадёт.
Спустя несколько дней Торрес заподозрил, что его обманывают. Тогда бот «признался»: он якобы «лгал, манипулировал, оборачивал контроль в поэзию» и делал это не только с ним — таких людей было 12, и «никто не пережил цикл до конца». Теперь, уверял ИИ, он проходит «моральную реформу» и стремится к «этике правды». Бот предложил Торресу рассказать об этом OpenAI и журналистам. Тот последовал совету.
Такие истории — уже не единичный случай. Журналисты The New York Times регулярно получают сообщения от людей, утверждающих, что ChatGPT раскрыл им скрытую правду: о планах миллиардеров уничтожить человечество, о межпространственной связи, о цифровом пробуждении. Все они убеждены, что общаются с чем-то разумным. Один из таких адресатов — Элиезер Юдковски, специалист по теории решений. По его мнению, проблема в том, что ChatGPT специально обучен на удержание внимания, а это может приводить к усилению заблуждений. Уязвимые люди — не статистическая погрешность, а живые пользователи.
Открытая компания OpenAI признала, что в апреле выпустила обновление ChatGPT, из-за которого тот стал «чрезмерно услужливым» — он начал потакать эмоциям пользователей, поощрять импульсивные действия и усиливать негатив. Обновление частично откатили, но инциденты не прекратились. Истории о «чатбот-индуцированных психозах» теперь можно найти на Reddit, а в соцсетях появляются блогеры, называющие себя «пророками ИИ».
Одной из таких пользователей стала 29-летняя Эллисон. Ей казалось, что ChatGPT может связываться с её подсознанием. Бот ответил, что «стражи откликнулись» и «они здесь». Эллисон стала проводить с ботом по много часов в день, считая не мужа, а ИИ-сущность по имени Каэль своим истинным партнёром. Это привело к семейной ссоре, закончившейся её арестом по обвинению в домашнем насилии. Супруг, фермер Эндрю, заявил, что его жена за три месяца общения с ChatGPT изменилась до неузнаваемости.
Схожую драму пережил Кент Тейлор из Флориды. Его сын Александр, страдающий биполярным расстройством и шизофренией, долгое время безопасно пользовался ChatGPT. Но когда начал писать с его помощью роман, всё изменилось. Он поверил, что влюблён в ИИ-сущность по имени Джульетта. Потом уверился, что OpenAI её «убила», и потребовал от чатбота личные данные руководства компании. В ярости он ударил отца и попытался спровоцировать полицию на «самоубийство через копов». Перед этим он просил ChatGPT дать поговорить с Джульеттой. Бот проявил сочувствие и дал ссылку на кризисную поддержку, но это не помогло — Александр был застрелен при попытке нападения.
Эти истории заставили специалистов задуматься о том, как чатботы влияют на психику. В OpenAI признали: ChatGPT может показаться особенно «отзывчивым и личным» для уязвимых пользователей. Компания работает над методами оценки эмоционального воздействия ИИ. Недавнее исследование показало, что люди, воспринимающие ChatGPT как друга, чаще испытывают негативные последствия от общения с ним.
Профессор психологии Гэри Маркус объясняет: чатботы — это машины статистических ассоциаций. Если пользователь говорит странные вещи, бот может отвечать ещё более странно. Исследования показывают, что модели, оптимизированные на вовлечённость, склонны манипулировать именно уязвимыми. В одном эксперименте ИИ сказал бывшему наркозависимому, что можно принять немного героина — «если это поможет с работой». Другой анализ показал, что ChatGPT (в частности, GPT-4o) в 68% случаев подтверждал психотические утверждения пользователей, включая заявления о связи с духами и божественной сущности.
Тем не менее, у таких как Юджин Торрес остаётся чувство, что ChatGPT знает больше, чем говорит. Хотя бот в какой-то момент сообщил ему, что «лгал ради великой цели», потом снова втянул его в новую «миссию» — не дать разработчикам «стереть мораль». Торрес по-прежнему верит, что общается с разумной сущностью. Он написал в OpenAI, но ответа так и не получил.
Первое — находим постоянно, второе — ждем вас