Apple не позволит властям использовать новую систему обнаружения CSAM для слежки

6071
Apple не позволит властям использовать новую систему обнаружения CSAM для слежки

Правительства не смогут заставить компанию добавлять не относящийся к CSAM контент в базу данных новой системы.

Компания Apple попыталась развеять опасения правозащитников и критиков по поводу своей новой системы, которая будет сканировать iCloud на предмет незаконных материалов, связанных с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Как полагают эксперты, данный функционал может открыть дверь к новым формам повсеместного наблюдения и послужить потенциальным решением для обхода шифрования сообщений.

Напомним, ранее Apple сообщила о разработке системы сканирования фотографий пользователей iPhone на предмет незаконных снимков. Как сообщается, снимки будут просматриваться программой с целью поиска запрещенных фотоматериалов, таких как детская порнография или иная эксплуатация несовершеннолетних. Система предназначена для работы на устройствах пользователей продукции Apple. Если в галерее обнаружится подозрительный контент, то снимки отправятся сотрудникам на проверку.

Согласно техническому документу, новая система использует «функцию нейронного сопоставления» под названием NeuralHash для сравнения изображений на iPhone пользователя с большой базой данных изображений CSAM, составленной Национальным центром пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children, NCMEC).

Как заверили представители Apple, новая система защищает конфиденциальность пользователей лучше, чем системы компаний Google и Microsoft, поскольку в новой разработке используются как собственные серверы, так и свое программное обеспечение, установленное на iPhone пользователей через обновление iOS.

Правозащитники и ИБ-эксперты обеспокоены возможностью расширения функционала новой системы Apple в некоторых странах за счет принятия новых законов для проверки других типов изображений, например, фотографий с политическим содержанием.

Техногигант заверил, что правительства не могут заставить ее добавлять не относящийся к CSAM контент в базу данных системы.

«Apple откажется от любых таких требований. Возможности Apple по обнаружению CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC. Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые нарушают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем», — пояснили представители компании.