Функция Apple Messages для сокрытия снимков с наготой выходит на международный уровень

Функция Apple Messages для сокрытия снимков с наготой выходит на международный уровень

Нововведение появится в Великобритании, Канаде, Австралии и Новой Зеландии.

image

Функция Apple «Безопасность общения в сообщениях», предназначенная для автоматического размытия изображений наготы, теперь развертывается в других странах. После запуска в США в прошлом году функция будет доступна в приложениях «Сообщения» на iOS, iPadOS и macOS для пользователей в Великобритании, Канаде, Новой Зеландии и Австралии.

Опциональная функция сканирует входящие и исходящие изображения на наличие материалов «сексуального характера» для защиты детей. Если изображение найдено, оно становится размытым, и предоставляются рекомендации по поиску помощи, а также заверения в том, что можно не просматривать изображение и выйти из беседы.

У детей по всему миру будет возможность сообщить о помеченной фотографии взрослому, которому они доверяют.

Apple также расширяет развертывание новой функции для поиска в Spotlight, Siri и Safari, которая будет указывать пользователям на безопасные ресурсы, если они ищут темы, связанные с сексуальным насилием над детьми.

Напомним, ранее техногигант также планировал разработать систему сканирования фотографий пользователей iPhone на предмет запрещенного контента, связанным с насилием над детьми (Child Sexual Abuse Material, CSAM). Анонсированная компанией система сканирования изображений на телефоне CSAM вызвала опасения у правозащитников, по мнению которых, новая система откроет двери для слежки за пользователями. В связи с этим Apple решила на некоторое время отложить развертывание CSAM на устройствах пользователей.


Один хакер может причинить столько же вреда, сколько 10 000 солдат! Подпишись на наш Телеграм канал, чтобы узнать первым, как выжить в цифровом кошмаре!