Вас обманули: 97% людей в интернете нормальные, но вы видите только 3% самых громких троллей.

Пользователи, заходя в соцсети, часто делают один и тот же вывод: «вокруг сплошная токсичность, значит, так ведёт себя почти половина людей». Новое исследование показывает, что это впечатление сильно и системно искажено: люди видят много вредного контента, но ошибочно приписывают его огромному числу пользователей, хотя на практике основную массу подобных сообщений создаёт небольшая, но крайне активная группа.
Авторы провели три исследования с участием 1 090 взрослых и сравнили ожидания респондентов с платформенными данными. В среднем участники считали, что 43% пользователей Reddit хотя бы раз писали «сильно токсичные» комментарии, а 47% пользователей Facebook* делились ложными новостями. Реальные оценки по данным платформ выглядели совсем иначе: токсичный контент на Reddit, по используемой в работе методике, публиковали около 3% активных аккаунтов, а фейковые новости на Facebook распространяли примерно 8,5% пользователей.
Особенно показательной оказалась разница между «сколько токсичности» и «сколько токсичных людей». Исследователи отмечают, что люди зачастую угадывают объём вредного контента примерно верно — его действительно можно встретить часто, — но неверно представляют, насколько широко это поведение распространено. В данных по Reddit небольшая доля аккаунтов, публиковавших токсичные комментарии, при этом оставляла очень заметный след: около 3,1% активных аккаунтов создали треть всего контента на платформе. То есть «голос» меньшинства оказывается настолько громким, что создаёт иллюзию массовости.
Проверка показала, что дело не в том, что участники «плохо понимают», что именно считается токсичностью. Во второй части работы людям показывали примеры комментариев и просили угадать, какие из них алгоритм классифицировал бы как токсичные по критерию, использованному в исходном анализе. Участники в целом справлялись с задачей, но даже при этом почти все снова завышали долю «токсичных» аккаунтов, полагая, что их около половины.
Эта ошибка восприятия, по данным третьего эксперимента, влияет не только на настроение, но и на ощущение того, «куда катится общество». Когда участникам объясняли реальные цифры и общий принцип «соцсети непропорционально показывают самых шумных», люди испытывали больше позитивных эмоций и меньше соглашались с идеей морального упадка. Заодно снижалась и другая проблема: многие недооценивают, насколько окружающим на самом деле неприятен вредный контент, и начинают думать, что «такое всем нравится и именно это нужно продвигать».
В итоге исследование описывает довольно простую, но важную механику: социальные сети могут подрывать социальное доверие не только самим вредным контентом, но и тем, что он выглядит как поведение «почти всех». Авторы считают, что точечные разъяснения и корректная «прививка» против этой иллюзии способны смягчать эффект — и, возможно, помогать людям смотреть на онлайн-реальность трезвее: громкая токсичность не всегда означает токсичное большинство.
* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.