Нововведение появится в Великобритании, Канаде, Австралии и Новой Зеландии.
Функция Apple «Безопасность общения в сообщениях», предназначенная для автоматического размытия изображений наготы, теперь развертывается в других странах. После запуска в США в прошлом году функция будет доступна в приложениях «Сообщения» на iOS, iPadOS и macOS для пользователей в Великобритании, Канаде, Новой Зеландии и Австралии.
Опциональная функция сканирует входящие и исходящие изображения на наличие материалов «сексуального характера» для защиты детей. Если изображение найдено, оно становится размытым, и предоставляются рекомендации по поиску помощи, а также заверения в том, что можно не просматривать изображение и выйти из беседы.
У детей по всему миру будет возможность сообщить о помеченной фотографии взрослому, которому они доверяют.
Apple также расширяет развертывание новой функции для поиска в Spotlight, Siri и Safari, которая будет указывать пользователям на безопасные ресурсы, если они ищут темы, связанные с сексуальным насилием над детьми.
Напомним, ранее техногигант также планировал разработать систему сканирования фотографий пользователей iPhone на предмет запрещенного контента, связанным с насилием над детьми (Child Sexual Abuse Material, CSAM). Анонсированная компанией система сканирования изображений на телефоне CSAM вызвала опасения у правозащитников, по мнению которых, новая система откроет двери для слежки за пользователями. В связи с этим Apple решила на некоторое время отложить развертывание CSAM на устройствах пользователей.