Make Twitter Kind Again. Одна настройка алгоритма превратила политический срач в конструктивный диалог

Make Twitter Kind Again. Одна настройка алгоритма превратила политический срач в конструктивный диалог

Учёные научили алгоритм прятать самые поляризующие посты глубже в ленте — и это сделало пользователей спокойнее и терпимее.

image

Уменьшение доли токсичных и поляризующих постов в ленте соцсетей действительно может ослабить партийную вражду между людьми. К такому выводу пришли исследователи, которые нашли способ вмешаться в алгоритмы формирования ленты X* (бывший Twitter) — то, что раньше могли делать только сами платформы. В ходе эксперимента им удалось перенастроить показ записей так, чтобы пользователи реже видели призывы к политическому насилию и антидемократические высказывания, и это заметно улучшило их отношение к сторонникам другой партии.

Команда компьютерных и социальных учёных разработала открытый веб-инструмент, который в реальном времени «пересобирал» ленту X для согласившихся поучаствовать пользователей. Вместо того чтобы полностью удалять нежелательный контент, система лишь меняла его порядок: посты с наибольшим потенциалом поляризовать аудиторию опускались ниже, и чтобы до них добраться, нужно было дольше листать. Так исследователи смогли вмешаться в работу алгоритмической ленты, не блокируя высказывания и не занимаясь прямой цензурой.

Для поиска токсичных записей использовалась большая языковая модель, обученная распознавать посты с антидемократическими мотивами — например, одобрение политического насилия или призывы сажать в тюрьму представителей «чужой» партии. Такие сообщения не исчезали, но показывались реже и позже, а значит, пользователи в среднем сталкивались с ними гораздо меньше. Эксперимент длился 10 дней в преддверии выборов президента США 2024 года — в момент, когда градус политической напряжённости и так был особенно высок.

После завершения исследования участники сообщили, что стали мягче относиться к сторонникам другой партии и испытывать меньше негативных эмоций во время прокрутки ленты. Враждебности и раздражения стало меньше, а лента воспринималась менее токсичной. При этом эффект оказался примерно одинаковым и у демократов, и у республиканцев: снижение видимости поляризующего контента оказалось «про-пользовательским» вне зависимости от политических предпочтений.

Авторы работы подчёркивают, что часто обсуждение алгоритмов ленты сводится к ложному выбору между «агрессивным» алгоритмом, заточенным под вовлечение, и простой хронологической лентой. На практике есть большой спектр промежуточных вариантов: алгоритмы можно настраивать под разные цели — не только клики и время в приложении, но и, например, снижение токсичности и улучшение общественного климата. Но чтобы всерьёз обсуждать эти альтернативы, независимым исследователям нужен доступ к реалистичным экспериментам, а не только к агрегированной статистике от самих платформ.

Новое исследование показывает, что с появлением больших языковых моделей у соцсетей уже есть технические средства, чтобы автоматически находить и понижать в выдаче контент, который подрывает демократические нормы и подталкивает к конфронтации. Это не означает, что алгоритмы должны массово блокировать политические дискуссии, но даёт возможность тонкой настройки того, что и как часто видит пользователь. По сути, речь идёт о первом шаге к «социально осознанным» алгоритмам, которые учитывают не только интересы платформы, но и возможные последствия для общества.

Параллельно растёт количество экспериментов с альтернативными принципами ранжирования. Еще одно исследование уже показывало, что простой переход от алгоритмической ленты к чисто хронологической сам по себе не снижает поляризацию. Другой проект, Prosocial Ranking Challenge, ищет способы ранжировать контент так, чтобы он приводил к более здоровым социальным результатам — не разжигая ненависть и не поощряя крайности.

Развитие языковых моделей позволяет гораздо точнее моделировать, как люди воспринимают и обсуждают друг друга онлайн. На этом фоне усиливается интерес к идее дать пользователям больше контроля над тем, какие принципы управляют их лентой. Уже появляются системы, где человек может выбирать собственные ценности и правила для алгоритма ранжирования, вроде библиотеки ценностей Alexandria или системы Bonsai. Некоторые платформы, включая Bluesky и сам X, двигаются в сторону «настраиваемых» алгоритмов, где можно выбирать разные варианты формирования ленты.

Авторы работы называют своё исследование лишь началом пути. Им ещё предстоит проверить, как подобные вмешательства работают в долгосрочной перспективе и можно ли одновременно учитывать несколько целей — от снижения политической вражды до поддержки психического здоровья и чувства удовлетворённости жизнью. В будущем исследователи хотят искать способы балансировать культурный контекст, личные ценности и уровень контроля пользователя, чтобы соцсети меньше ломали общественные связи и больше помогали конструктивному разговору, а не бесконечной войне в комментариях.

* Социальная сеть запрещена на территории Российской Федерации.