Сможет ли искусственный интеллект заменить терапевта там, где просить о помощи стыдно.

В Китае среди молодежи быстро растет число случаев тревожных расстройств, депрессии и суицидов, а обращаться за психологической помощью многим по-прежнему мешают стигма и страх «потерять лицо». На этом фоне специалисты все чаще обсуждают, может ли ИИ стать хотя бы частичным ответом на дефицит поддержки – особенно там, где специалистов не хватает, а разговор о ментальном здоровье считается чем-то постыдным.
Клинический психолог Олив Ву и эксперт по ИИ Юк Минг Танг описали ситуацию в книге «DeepSeek и поддержка ментального здоровья среди китайской молодежи» (DeepSeek and Mental Health Support Among Chinese Youth). По данным, на которые они ссылаются, симптомы депрессии встречаются более чем у 20% китайских подростков, а суицид остается одной из ведущих причин смерти в группе 15–24 лет. Авторы связывают «тихий кризис» с давлением ожиданий – учебой, карьерой и семейными установками, включая нагрузку, характерную для поколения единственных детей, а также с разрывом в доступе к помощи между городом и сельскими районами.
На этом фоне популярные ИИ-платформы вроде DeepSeek становятся «первой линией» – инструментом, к которому проще обратиться анонимно и без осуждения, в любое время суток. Танг утверждает, что такие системы могут быть полезны для раннего выявления проблем, первичного отбора обращений и мониторинга состояния, а также потенциально лучше доходят до жителей удаленных и небогатых регионов за счет масштабируемости и невысокой стоимости.
При этом авторы подчеркивают: риск в том, что ИИ легко переоценить. Модели не обладают эмпатией в человеческом смысле, могут неверно интерпретировать тонкие эмоциональные состояния и культурные нюансы, а иногда – выдавать вредные советы из-за ошибок и «галлюцинаций». Отдельная боль – приватность: утечка чувствительных данных для людей в уязвимом состоянии способна лишь усилить кризис. Поэтому Ву и Танг предлагают рассматривать ИИ как дополнение, а не замену терапевта: с постоянным человеческим надзором, понятными границами ответственности и техническими мерами защиты данных, включая шифрование и анонимизацию. Они также предупреждают о перекосах в данных обучения – и необходимости репрезентативных датасетов, чтобы не закреплять неравенство в доступе к помощи.
В итоге авторы видят в ИИ шанс снизить барьеры и сделать поддержку доступнее не только в Китае, но и в других странах, где ментальное здоровье до сих пор табуировано. Но, по их мысли, успех такого подхода зависит не от «магии алгоритмов», а от этического внедрения, контроля качества и правил, которые ставят безопасность человека выше скорости инноваций.