Нейросети больше не про котиков. ИИ превратился в главный инструмент для создания детской порнографии

Нейросети больше не про котиков. ИИ превратился в главный инструмент для создания детской порнографии

Технологии развиваются быстрее, чем законы, которые должны их сдерживать.

image

В сети стремительно растёт объём запрещённого контента, созданного с помощью искусственного интеллекта. Новые данные показывают, что технологии, которые ещё недавно считались инструментом прогресса, всё чаще используют для тяжёлых преступлений — и масштабы проблемы уже вышли на рекордный уровень.

Организация Internet Watch Foundation опубликовала отчёт, в котором зафиксировала резкий рост материалов с сексуализированным насилием над детьми, созданных нейросетями. В 2025 году специалисты выявили 8029 изображений и видеороликов такого типа — на 14% больше, чем годом ранее. Отдельно отмечен скачок по видео: число подобных записей выросло более чем в 260 раз — с 13 случаев до 3443.

Большая часть видеоконтента относится к максимально тяжёлой категории по британскому законодательству. Речь идёт о сценах с крайней степенью насилия. Для сравнения, среди обычных нелегальных видео доля такого контента заметно ниже. Нейросети, по наблюдениям команды, позволяют создавать более жестокие и детализированные сценарии.

Авторы отчёта описывают обсуждения на закрытых форумах, где участники делятся способами улучшения реалистичности материалов. Преступники обсуждают использование скрытых камер для съёмки реальных детей, чтобы затем преобразовать записи в синтетические видео. Также упоминается интерес к генерации аудио — нейросети уже позволяют имитировать детские голоса.

В разговорах фигурируют ожидания скорого появления автономных ИИ-систем, способных по одному запросу создавать полноценные видеоролики без навыков монтажа. Участники таких сообществ воспринимают развитие технологий как возможность упростить производство запрещённого контента и сделать его более реалистичным.

На фоне этих данных усиливается давление на власти и технологические компании. Согласно опросу Savanta, 82% жителей Великобритании поддерживают введение обязательных требований к безопасности ИИ-систем ещё на этапе разработки. Почти столько же респондентов считают, что компании должны проверять продукты на потенциальный вред до их выхода на рынок.

Руководство Internet Watch Foundation настаивает на ужесточении регулирования и обязательной проверке моделей искусственного интеллекта перед запуском. Представители правоохранительных органов подчёркивают, что уже сейчас ежемесячно задерживают сотни подозреваемых по делам, связанным с онлайн-насилием, однако без участия индустрии остановить распространение такого контента невозможно.

Отчёт фиксирует не только текущую ситуацию, но и тревожные ожидания на ближайшие годы — технологии продолжают развиваться, а вместе с ними растёт и риск злоупотребления ими.

FREE
100%
Кибербезопасность · Обучение
УЧИСЬ!
ИЛИ
ВЗЛОМАЮТ
Лучшие ИБ-мероприятия
и вебинары — в одном месте
ПОДПИШИСЬ
T.ME/SECWEBINARS