Китай будет контролировать использование нейросетей

Китай будет контролировать использование нейросетей

Регуляторы установят контроль над алгоритмами ИИ и обяжут компании предоставлять обучающие данные.

image

Китай планирует ввести проверки безопасности сервисов генеративного ИИ перед их запуском. Поставщики услуг ИИ должны гарантировать, что контент является точным и защищает интеллектуальную собственность, а также никого не дискриминирует и не ставит под угрозу безопасность. Операторы ИИ также должны четко маркировать сгенерированный контент.

Новые правила , регулирующие использование ИИ будут относиться только к определённым отраслям. В феврале официальные лица Министерства науки и технологий заявили, что правительство будет настаивать на безопасном и контролируемом применении услуг ИИ, которое Ведомство считает стратегической отраслью.

Кроме того, регулятор подчеркнул, что услуги ИИ должны быть прозрачными в отношении данных и алгоритмов, используемых при обучении моделей, что усилило внимание Пекина к сохранению контроля над конфиденциальной и ценной информацией.

Согласно правилам, поставщики услуг должны предоставлять информацию о происхождении, размере и типах данных, используемых при обучении модели. Помимо данных, платформы ИИ должны делиться базовыми алгоритмами и другими используемыми технологиями.

В совокупности правила предназначены для того, чтобы платформы, подобные ChatGPT, подчинялись жесткому запрету Коммунистической партии на спорный или нежелательный контент в Интернете. Правила также могут стимулировать китайские компании Baidu и SenseTime предоставлять более четкие правила для будущих услуг. По словам Пекина, контент, который считается «отклоняющимся от общества», будет запрещен без уточнения.

Ваша приватность умирает красиво, но мы можем спасти её.

Присоединяйтесь к нам!