Цифровые секты питаются нашим страхом: ученые выяснили, что делает радикалов в сети абсолютно неуязвимыми

3437
Цифровые секты питаются нашим страхом: ученые выяснили, что делает радикалов в сети абсолютно неуязвимыми

Банить главарей абсолютно бесполезно, пока фанатики продолжают сами изобретать свежих врагов.

image

Онлайн-сообщества ненависти могут годами удерживать участников не только из-за алгоритмов и слабой модерации. Новое исследование показывает другой механизм: такие группы снова и снова рассказывают истории про угрозу, врагов и разрушение привычного порядка. Одни сообщества повторяют один набор тезисов, другие постоянно добавляют новые обвинения, версии и конспирологические объяснения. В обоих случаях история помогает группе сохранять активность.

Работу провела группа вычислительных социальных исследователей, изучающих социальные и политические сети. Учёные проанализировали 10 лет публикаций, реакций и участия в Facebook-группах, где распространялся антисемитский и исламофобный контент. Результаты приняли к представлению на International Conference on Web and Social Media 2026.

Сначала исследователи изучили, кто публиковал сообщения и как активность авторов влияла на отклик аудитории. Группы, где большую часть контента писали несколько очень активных пользователей, чаще получали больше реакций и ответов. Затем команда разобрала темы обсуждений: религию, иммиграцию, геополитику и связанные с ними сюжеты. Участники могли описывать целую группу людей как преступников или утверждать, что чужаки тайно разрушают привычный уклад страны.

После сопоставления данных исследователи увидели устойчивые закономерности. Сообщения небольшой группы самых активных авторов были связаны с ростом вовлечённости в ближайшей перспективе: публикации чаще собирали лайки, репосты и ответы. Повторение одних и тех же идей тоже удерживало внимание. Но для долгой жизни сообщества важен был ещё один фактор: когда многие участники постоянно добавляли новые обвинения, конспирологические версии и объяснения, группа дольше сохраняла активность.

Слишком однообразный контент со временем работал хуже. Когда участники использовали одну схему без новых деталей, вовлечённость снижалась. Устойчивому сообществу ненависти нужны не только лозунги, но и постоянный поток объяснений, который поддерживает ощущение угрозы и даёт людям повод снова включаться в обсуждение.

Разные типы групп использовали разные схемы. В исламофобных сообществах самые активные авторы чаще повторяли узкий набор тезисов. Публикации нередко строились вокруг религиозных оценок и представляли мусульман как морально неприемлемую группу. В антисемитских сообществах наиболее вовлечённые участники чаще смешивали несколько сюжетов: от рассказов о собственной жертвенности до конспирологических утверждений о публичных фигурах.

Для модерации вывод оказался сложнее обычной блокировки нескольких аккаунтов. Если обсуждение держится на небольшой группе сверхактивных пользователей, удаление этих профилей может резко снизить шум и замедлить распространение вредного контента. Но если новые версии и обвинения создаёт множество участников, блокировка пары заметных аккаунтов не разрушит сеть. Идеи продолжат циркулировать, даже если платформа удалит отдельные группы или профили.

Исследование также объясняет, почему экстремистские истории действуют сильнее сухих лозунгов. Нарратив может представить сообщество жертвой атаки, описать внешнюю группу как опасную или нечеловеческую, а насилие подать как самооборону. Мишенью часто становятся люди, которых изображают чужаками, например иммигранты. Враждебные публикации могут описывать миграцию как вторжение и связывать её с угрозой для страны.

Авторы отмечают, что экстремистские идеи всё чаще распространяются через разрозненные сети без одного центра и единого сценария. Разные пользователи добавляют собственные формулировки, версии и эмоциональные акценты. Из-за этого будущая вовлечённость зависит не только от повторения, но и от новизны: участники узнают знакомый страх и получают новый повод обсуждать его снова.

Следующий этап работы связан с публичными фигурами, инфлюенсерами и переходом нарративов между платформами. Исследователи хотят понять, кто подхватывает такие истории, почему одни пользователи связывают разные онлайн-среды и как враждебные идеи выходят за пределы соцсетей, попадая в офлайн-группы и кампании по мобилизации сторонников. Такие переходы помогают ненавистническим сюжетам закрепляться в публичном разговоре.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.