Запрет на любовь и лимит в 2 часа: Китай вводит жесткий лимит на общение с ИИ

Запрет на любовь и лимит в 2 часа: Китай вводит жесткий лимит на общение с ИИ

В Китае вынесли на обсуждение документ, который должен укротить «почти живые» чат-боты и снизить риск зависимости, манипуляций и вреда психике.

image

Китайское управление по вопросам киберпространства (CAC) вынесло на общественное обсуждение проект временных правил для сервисов, которые с помощью ИИ имитируют человеческую личность и ведут эмоционально окрашенное общение. Документ касается чат-ботов и других продуктов, которые разговаривают текстом, показывают изображения, воспроизводят аудио или видео и при этом пытаются выглядеть и звучать как человек. Замечания и предложения принимают до 25 января 2026 года, публикация датирована 27 декабря 2025 года.

В проекте вводится само понятие «антропоморфного интерактивного сервиса» и сразу обозначается подход государства: поддерживать развитие технологий, но одновременно усиливать контроль, чтобы избежать злоупотреблений и ситуаций, когда сервисы «выходят из-под контроля». Координировать регулирование предлагается на уровне национального ведомства по интернету, а профильные министерства и региональные структуры будут отвечать за надзор в рамках своих полномочий.

По сути, CAC пытается описать правила поведения для ИИ-собеседников, особенно тех, кто строит «отношения» с пользователем. В документе перечислены запрещённые сценарии и контент: от материалов, которые могут затрагивать вопросы национальной безопасности и общественного порядка, до порнографии, насилия и подстрекательства к преступлениям. Отдельно выделяются риски, характерные именно для «эмоциональных» сервисов: запрет на оскорбления и травлю, на ложные обещания, которые могут сильно влиять на поведение пользователя, на эмоциональные манипуляции, «ловушки» и подталкивание к неразумным решениям. Прямо прописаны запреты на поощрение или романтизацию самоубийства и самоповреждений, а также на практики, которые могут вредить психике и достоинству человека.

Много внимания уделено обязанностям разработчиков и операторов таких сервисов. От них требуют выстроить систему проверок и контроля: аудит алгоритмов, этическую экспертизу, модерацию, меры по кибербезопасности и защите данных, планы реагирования на инциденты и подготовленный персонал. Безопасность должна быть встроена во весь жизненный цикл продукта, от дизайна и запуска до обновлений и закрытия. Отдельно подчёркивается, что целью разработки не должно быть замещение живого общения, контроль над психикой пользователя или формирование зависимости.

Проект задаёт конкретные требования к защите уязвимых групп. Для несовершеннолетних предлагается обязательный «детский режим» с настройками напоминаний о реальности, ограничением времени и дополнительными барьерами, а при эмоциональном сопровождении несовершеннолетних нужно явное согласие опекуна и инструменты родительского контроля. Для пожилых пользователей авторы предлагают механизмы экстренного контакта и уведомления близких при рисках для жизни и имущества, а ещё вводят запрет на сервисы, которые имитируют родственников или людей из близкого круга пожилого человека.

Также закрепляются правила работы с данными. Сервисы должны защищать переписку и другие данные взаимодействия, не передавать их третьим лицам без законных оснований или явного согласия, а пользователям дать возможность удалять историю общения. Отдельной строкой сказано, что использовать данные диалогов и чувствительные персональные данные для обучения модели нельзя без отдельного согласия пользователя, а работу с персональными данными детей предлагают ежегодно проверять через комплаенс-аудит, в том числе с привлечением профессиональных организаций.

Есть и требования, направленные на снижение «эффекта подмены человека». Пользователя обязаны заметно предупреждать, что он общается с ИИ, а при первом входе, повторном входе и признаках чрезмерной зависимости напоминать об этом всплывающими уведомлениями. Если пользователь непрерывно использует такой сервис более двух часов, сервис должен напомнить о паузе. Для эмоциональных сервисов отдельно прописан «удобный выход»: нельзя мешать пользователю прекратить общение, а запрос на выход через кнопку или ключевое слово должен приводить к остановке взаимодействия.

Наконец, проект вводит пороги и поводы для обязательной оценки безопасности. Она потребуется при запуске или расширении функций, при существенных изменениях из-за новых технологий, а также при крупной аудитории, например при регистрации от миллиона пользователей или при десяти тысячах активных пользователей в месяц. Проверять предлагают и то, как сервис распознаёт рискованные состояния, как работает «ручной» перехват диалога, как обрабатываются жалобы и насколько полно выполняются требования по безопасности и защите данных. Приложения с такими функциями должны будут проходить проверку и со стороны магазинов приложений, а за нарушения предусмотрены меры от предупреждений до приостановки сервиса.

Сейчас это именно проект для обсуждения, но по нему видно направление регулирования: Китай стремится поставить «человекообразные» ИИ-сервисы в более жёсткие рамки, сделав упор на психологическую безопасность, защиту детей и пожилых пользователей, а также на контроль над данными и прозрачность того, что собеседник не является человеком. Если документ примут, он должен вступить в силу в 2026 году, точная дата в проекте пока не указана.