Security Lab

CSAM

1640
CSAM
CSAM (Child Sex Abuse Material) - материалы о сексуальном насилии над детьми.

CSAM является незаконным, так как его производство, распространение и потребление являются формами сексуального насилия над детьми.

Организации по защите детей, правоохранительные органы и другие соответствующие инстанции ведут активную борьбу с CSAM, чтобы защитить детей и пресечь данное явление.

Ваша приватность умирает красиво, но мы можем спасти её.

Присоединяйтесь к нам!

Обнаружены материалы сексуального насилия над детьми в обучающем наборе данных для Stable Diffusion

Число материалов, раскрытых Microsoft, может быть гораздо больше заявленного.

Совет по архитектуре Интернета: законы США и ЕС по сканированию устройств граждан уменьшают доверие к интернету

Под благими намерениями может скрываться массовое наблюдение и цензура.

Школьники создают непристойные ИИ-изображения сверстников

Школьники неосознанно помогают педофилам, делая одноклассников лёгкой добычей маньяков.

Соцсеть X потеряла контроль над детской порнографией после покупки Илоном Маском

Неадекватное поведение представителей X привело к штрафу регулятора.

Освещая тьму: Интерпол нанёс серьёзный удар по распространению материалов о сексуальном насилии над детьми

Бесчеловечные преступники были задержаны в Аргентине, Болгарии, Тайланде и даже России.

ИИ увеличивает риск сексуального насилия над детьми в реальной жизни

Борцы с киберпреступностью поднимают вопрос о тёмной стороне влияния ИИ на детей и педофилов.

Meta* открыла исходный код LLaMA энтузиастам, а те начали массово создавать чат-ботов для виртуального секса

Какой ценой допустимо продвигать инновации, и не пожалеет ли компания о своём решении?

В даркнете обнаружены тысячи реалистичных, но, к счастью, поддельных изображений сексуализированного насилия над детьми

Теперь правоохранителям ещё сложнее бороться с растлителями малолетних.

Опасная тенденция: генеративный ИИ и его роль в создании контента, подстрекающего насилие и экстремизм

Как бессовестные киберпреступники используют нейросети в своих гнусных целях.

Евросоюз призывает запретить сквозное шифрование сообщений граждан

Согласно документу, большинство стран ЕС поддерживают идею сканирования личных сообщений на предмет незаконного контента.

Австралия внедряет ИИ для защиты детей

Система AiLecs будет искать счастливых детей и ускорит расследования преступлений против них.

Великобритания призвала Facebook* читать сообщения пользователей

Технологические компании должны создать ПО для отслеживания запрещенных для детей материалов в сообщениях

Британия сможет легально читать сообщения граждан

Но только для защиты детей

ЕС вводит новые правила для борьбы с сексуальным насилием над детьми в Интернете

Мессенджеры смогут постоянно отслеживать сообщения пользователей

Илон Маск хочет ввести сквозное шифрование в twitter сообщениях

Отсутствие сквозного шифрования сообщений Twitter вызывает опасения

Google может сканировать Gmail и «Диск» на предмет запрещенного контента

Специально разработанное ПО ищет «хеши» ранее известного нелегального контента.

Apple удалила все ссылки на функцию CSAM на своем сайте

Компания намерена выделить дополнительное время на сбор информации и улучшение функции.

Apple внедрила в бета-версию iOS 15.2 бэкдор, по ее словам, с благими намерениями

Обновление iOS 15.2 может навсегда изменить опыт использования iPhone.

Представлен простой способ обхода систем обнаружения незаконных материалов

Существующие алгоритмы перцептивного хеширования недостаточно надежны для борьбы с распространением незаконного контента.

Apple отложила запуск системы проверки фотографий

ИТ-гигант отложил внедрение функции сканирования фотографий на смартфонах на неопределенный срок.

Apple использует систему сканирования CSAM еще с 2019 года

Сканируется лишь почта iCloud, а iCloud Photos и резервные копии iCloud пока еще нет.

Создатели CSAM призывают Apple не использовать опасную технологию

Исследователи бьют тревогу по поводу технологии, лежащей в основе планов Apple сканировать библиотеки фотографий пользователей iPhone.

Система сканирования CSAM от Apple может спровоцировать преследования по всему миру

Около 90 правозащитных организаций подписали открытое письмо и призвали Apple отказаться от массового сканирования.

Исследователи добились коллизии хэш-функции в системе сканирования CSAM от Apple

Как уверяет Apple, опасаться реальных атак с использованием коллизии хэш-функции в CSAM не стоит.

Apple не позволит властям использовать новую систему обнаружения CSAM для слежки

Правительства не смогут заставить компанию добавлять не относящийся к CSAM контент в базу данных новой системы.

Критики опасаются слежки из-за новой функции Apple для борьбы с запрещенным контентом

Развертывание такой мощной новой технологии представляет ряд опасностей для конфиденциальности.