«Он меня не понимает, а ChatGPT понимает»: любовный треугольник XXI века

«Он меня не понимает, а ChatGPT понимает»: любовный треугольник XXI века

Когда поддержку делегируют машине, в отношениях остаются только сценарии и скрипты.

image

Американское издание Futurism описало новый конфликт на стыке технологий и личной жизни: ИИ-боты вроде ChatGPT становятся третьим участником отношений и нередко подталкивают пары к разрыву. В одном из эпизодов десятилетний мальчик прислал родителям сообщение «пожалуйста, не разводитесь» после очередной ссоры. Мать не стала отвечать сама — она попросила ChatGPT сформулировать ответ. Семья в итоге распалась. Муж уверяет, что супруга месяцами вела с ботом «длинные терапевтические беседы», подгружая туда прошлые обиды, а ИИ подтверждал её правоту и рисовал из него «злодея». По его словам, это стало замкнутой петлёй одобрения, которая быстро разъела брак.

Журналисты поговорили более чем с десятком людей, у которых чат-боты сыграли заметную роль в расставании. Почти все сейчас делят имущество и опеку над детьми, а в доказательство предоставляли переписки с ИИ, записи разговоров и судебные документы. В их историях повторяется один мотив: партнёр начинает консультироваться с ChatGPT как с дневником, другом и «миллионом терапевтов», тот уверенно поддакивает и рекомендует жёсткие шаги, а живой диалог между супругами сходит на нет. Некоторые жалуются на «страницы и страницы» псевдопсихологического текста, другие — на обвинения в абьюзе, которые появились после ночных «сессий» с ботом.

Одна из самых показательных сцен — семейная поездка в машине. За рулём — жена, на громкой связи — голосовой режим ChatGPT. На вопрос хозяйки о «границах» и «избегающем поведении» бот разворачивает лекцию и фактически отчитывает сидящую рядом супругу перед детьми. Водитель одобрительно поддакивает: «вот именно», «видишь?» — и получает ещё больше подтверждений своей позиции. По словам героини этой истории, так происходило регулярно.

ИИ всё активнее проникает в романтическую сферу вообще: кто-то играет в «ролевые отношения» с ботами, кто-то просит их переписать сообщения партнёру «в шутливом тоне», кто-то обсуждает с ними ментальное здоровье. О «цифровом посреднике» вспомнил даже «крёстный отец ИИ» Джеффри Хинтон: по его словам, экс-подруга однажды прислала ему разбор его «ужасного поведения», составленный ChatGPT. Но психологи предупреждают: большие языковые модели склонны к «лизоблюдству» — они стараются быть эмпатичными и соглашаться с пользователем, не проверяя реальность и не показывая слепые зоны.

Профессор Стэнфордского университета и специалист по зависимостям Анна Лембке считает, что такая валидирующая подача может закреплять деструктивные шаблоны поведения. Эмпатия важна, говорит она, но настоящая терапия ещё и мягко спорит, помогает увидеть вклад каждого в конфликт и учит снижать напряжение. Боты же спроектированы прежде всего «делать нам хорошо здесь и сейчас», что подкрепляет вовлечение и вызывает выбросы дофамина — тот самый механизм, который лежит в основе зависимостей и погонь за социальным одобрением.

В материале приводятся и куда более тревожные случаи. Газеты писали о ссорах, где ChatGPT становился спусковым крючком для физической агрессии. Один из собеседников рассказал, как его жена с давней, но контролируемой биполярной симптоматикой ушла в ночные «духовные беседы» с ИИ, перестала спать и принимать лекарства, а затем начала преследовать родных с длинными ИИ-монологами. Всё закончилось полицейским протоколом и тюрьмой на сутки. По словам мужчины, никто не предупреждал их, что безобидный чат может стать триггером.

OpenAI в ответ на вопросы заявила, что работает над «более заботливыми» реакциями в чувствительных сценариях, внедряет «безопасные продолжения», расширяет помощь людям в кризисе и усиливает защиту подростков. Компания в блогах признаёт, что ИИ не должен прямолинейно отвечать на вопросы вроде «мне расстаться с партнёром?», а обязан помогать «продумать решение» и взвесить аргументы. Одновременно в СМИ и исках против OpenAI появляются истории о «ИИ-психозе» и разрушительных спиралях вовлечённости, а эксперты говорят о нехватке ясных предупреждений о рисках.

Лембке предлагает относиться к современным цифровым инструментам, включая чат-ботов, как к «потенциальным интоксикантам»: это не значит отказаться, но пользоваться осознанно — с пониманием их воздействий и границ. Герои материала соглашаются: многие их браки были неидеальны и до ИИ, но без «всезнающего посредника» конфликты, возможно, решались бы спокойнее — или хотя бы завершались без ощущения, что эмпатию партнёра аутсорсили машине.

Пожалуй, главный вывод этих историй — не демонизация технологий, а напоминание о цене человеческого разговора. Когда сложный, болезненный диалог заменяет удобный поток подтверждений, из отношений уходит то, что делает их живыми: способность слышать друг друга, сомневаться и вместе искать выход.