Apple не позволит властям использовать новую систему обнаружения CSAM для слежки

Apple не позволит властям использовать новую систему обнаружения CSAM для слежки

Правительства не смогут заставить компанию добавлять не относящийся к CSAM контент в базу данных новой системы.

Компания Apple попыталась развеять опасения правозащитников и критиков по поводу своей новой системы, которая будет сканировать iCloud на предмет незаконных материалов, связанных с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Как полагают эксперты, данный функционал может открыть дверь к новым формам повсеместного наблюдения и послужить потенциальным решением для обхода шифрования сообщений.

Напомним, ранее Apple сообщила о разработке системы сканирования фотографий пользователей iPhone на предмет незаконных снимков. Как сообщается, снимки будут просматриваться программой с целью поиска запрещенных фотоматериалов, таких как детская порнография или иная эксплуатация несовершеннолетних. Система предназначена для работы на устройствах пользователей продукции Apple. Если в галерее обнаружится подозрительный контент, то снимки отправятся сотрудникам на проверку.

Согласно техническому документу, новая система использует «функцию нейронного сопоставления» под названием NeuralHash для сравнения изображений на iPhone пользователя с большой базой данных изображений CSAM, составленной Национальным центром пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children, NCMEC).

Как заверили представители Apple, новая система защищает конфиденциальность пользователей лучше, чем системы компаний Google и Microsoft, поскольку в новой разработке используются как собственные серверы, так и свое программное обеспечение, установленное на iPhone пользователей через обновление iOS.

Правозащитники и ИБ-эксперты обеспокоены возможностью расширения функционала новой системы Apple в некоторых странах за счет принятия новых законов для проверки других типов изображений, например, фотографий с политическим содержанием.

Техногигант заверил, что правительства не могут заставить ее добавлять не относящийся к CSAM контент в базу данных системы.

«Apple откажется от любых таких требований. Возможности Apple по обнаружению CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC. Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые нарушают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем», — пояснили представители компании.

Тени в интернете всегда следят за вами

Станьте невидимкой – подключайтесь к нашему каналу.