“ИИ, я не хочу жить”. OpenAI признала: миллионы пользователей доверяют ChatGPT свои самые тёмные мысли

“ИИ, я не хочу жить”. OpenAI признала: миллионы пользователей доверяют ChatGPT свои самые тёмные мысли

Мы спорим о том, сможет ли ИИ заменить психологов. А что, если он уже на передовой?

image

Компания OpenAI впервые опубликовала статистику, раскрывающую масштабы обращений пользователей к ChatGPT с признаками психоэмоциональных кризисов. По данным компании, еженедельно более миллиона человек демонстрируют суицидальные намерения во время общения с моделью. Ещё порядка 560 тысяч проявляют возможные признаки психоза, мании или других серьёзных психических нарушений.

OpenAI уточнила, что такие случаи крайне редки — около 0,07% всех активных пользователей за неделю, однако при общей аудитории в 800 миллионов человек это всё равно десятки и сотни тысяч реальных эпизодов. Ещё 0,15% диалогов, по данным компании, содержат прямые указания на суицидальные мысли или планирование. При этом специалисты отмечают, что подобные сигналы трудно отследить, поскольку формулировки пользователей нередко бывают двусмысленными.

Компания подчеркнула, что для верификации анализа привлекла профессиональных психиатров и клинических психологов. По их оценке, система действительно выделяет наиболее опасные формы поведения — от выраженных симптомов психоза и маниакальных состояний до лёгких признаков дезориентации или бредовых идей. При этом более распространённые расстройства, например депрессивные эпизоды, уже учитываются в отдельной системе защиты, предназначенной для предотвращения самоубийств и самоповреждений.

Эта публикация стала первым официальным признанием OpenAI влияния искусственного интеллекта на психическое здоровье пользователей. Поводом для переоценки политики безопасности послужило судебное разбирательство, в котором компанию обвинили в том, что она не предотвратила самоубийство подростка после его общения с ChatGPT.

В ответ OpenAI усилила внутренние стандарты безопасности и привлекла более 170 специалистов в области психического здоровья для обучения системы распознаванию эмоционального дистресса. По словам компании, обновлённые алгоритмы теперь распознают тревожные сигналы и направляют людей к профессиональной помощи, а количество ответов, не соответствующих стандартам этического поведения, сократилось на 65–80%.

Кроме того, OpenAI внедрила функцию родительского контроля, расширила список доступных кризисных горячих линий и добавила ненавязчивые уведомления, напоминающие пользователям делать перерывы во время длительных сессий. Все эти меры, по заявлению компании, направлены на снижение рисков и обеспечение более бережного взаимодействия между искусственным интеллектом и людьми, находящимися в эмоционально нестабильном состоянии.

Эти шаги стали частью более масштабной стратегии OpenAI, ориентированной на предотвращение вреда, который может быть нанесён в результате неосознанного использования разговорных моделей. Компания выразила обеспокоенность тем, что пользователи могут формировать эмоциональную привязанность к ChatGPT, и заявила, что будет продолжать сотрудничество с экспертами и обновлять защитные механизмы, чтобы ChatGPT не только отвечал на вопросы, но и помогал пользователям получать поддержку в кризисные моменты.