Почему мы всё реже видим реальность и чаще — отражение своих страхов.
Лента «Для вас» в TikTok, «Рекомендованные» в Instagram*, «Интересное» на YouTube — за безобидными названиями скрываются сложные математические модели, которые решают, что мы увидим в следующие несколько секунд. Эти модели не читают наших мыслей, но умеют предугадывать, на что мы кликнём, улыбнёмся или отреагируем сердечком, а по этим реакциям перестраивают весь поток новостей. В результате соцсети становятся зеркалом наших слабостей и усилителем убеждений. Ниже — большой разбор, как именно это работает, какие последствия уже заметны и как не дать алгоритму сделать нас роботом.
Упрощённо — это система, которая:
Эта петля обучения с обратной связью крутится бесконечно, усложняясь с каждым днём. За пределами компании точные формулы неизвестны, однако независимые исследования показывают: модели активно оптимизируются под эмоциональную реакцию, особенно негативную — гнев и страх надёжнее удерживают нас у экрана, чем радость или спокойствие.
До 2009 года Facebook и Twitter показывали посты в строгом порядке: новое сверху, старое внизу. Казалось бы, идеальный демократический принцип. Проблема: пользователи теряли интерес — слишком много второстепенных записей. Тогда появился «EdgeRank», предшественник современных систем, и лента внезапно «ожила»: лайков стало больше, время в приложении — дольше, а рекламная выручка выросла так стремительно, что в Кремниевой долине это событие сравнивают с открытием нефти.
Следующим шагом стал «бесконечный скролл». Его придумал дизайнер Aza Raskin, а позже сам назвал «одним из самых опасных интерфейсов, как сигарета для мозга». Листать стало легче, логика прерывания исчезла, и человек, как белка в колесе, крутит ленту до тех пор, пока батарея не сядет или будильник не прозвонит на работу.
Любая секунда, проведённая во вкладке соцсети, может быть продана рекламодателю. Чем больше времени мы «дарим» платформе, тем выше её доход. Отсюда логика: алгоритм не пытается сделать нас счастливее или информированнее — он пытается удержать. Исследование 2024 года, посвящённое нейрофизиологическим эффектам у подростков, показало: постоянный поток «приятных» стимулов перестраивает дофаминовую систему, делая реакцию на обычные события жизни более вялой, а без ленты человек испытывает ощущение «пустоты» — классический симптом зависимости.
Рекомендательные модели напрямую «заточены» на эти параметры. Всё лишнее — побочный шум.
Алгоритм подбирает публикации, которые легко «заходят» конкретно нам. В итоге:
Классический пример — вакцинные споры. Когда пользователь ставит пару лайков постам с сомнениями, лента быстро превращается в поток анти-вакцинных «доказательств», а через неделю человек убеждён, что нашёл истину, проигнорировав десятки научных обзоров.
Ещё один слой последствий касается того, как мы видим самих себя. TikTok-исследование 2025 года выявило прямую связь между «залипанием» в коротких роликах и формированием комплексов неполноценности и навязчивым сравнением своей внешности с фильтрованными образами на экране. Особенно ярко это проявляется у подростков: у них ещё строится самооценка, а алгоритм подсовывает «идеальные» картинки, подогнанные под личные уязвимости.
Каждый лайк или уведомление активирует ядро «Nucleus Accumbens» — центр удовольствия. Организм получает дозу дофамина, и мозг быстро обучается: прокрутка = вознаграждение. Это та же система, что задействована в азартных играх. Разница лишь в том, что казино надо искать, а смартфон всегда под рукой.
В Индии WhatsApp — главный мессенджер, и цепочки пересылаемых сообщений по числу знаков уже превосходят традиционные СМИ. В Бразилии Facebook-группы перевернули местную политическую сцену. А в Республике Корея кандидаты ведут кампанию почти исключительно через TikTok — там им проще попасть в телефоны поколений Z и α.
Алгоритмическая дипломатия становится новой нормой: государства ведут информационные войны, «пытаясь подлить масла» в ленты иностранных пользователей, а сами платформы балансируют между свободой слова и угрозой блокировки целых рынков.
На первый взгляд алгоритмические системы ассоциируются с манипуляцией вниманием, но парадокс в том, что те же самые механизмы могут работать и во благо. Всё зависит от целей и качества контента, который «скармливается» алгоритму.
Например, алгоритмы могут целенаправленно выстраивать цепочки образовательных видео, помогая пользователям двигаться от простого к сложному и удерживая их мотивацию к обучению. Так, некоторые команды авторов на YouTube создают курсы по математике, программированию или физике, в которых каждое видео оформлено так, чтобы соответствовать «ожиданиям» платформы: лаконичные заголовки, ясная структура, активная вовлеченность аудитории. За счёт этого алгоритм чаще предлагает такие видео школьникам и студентам, органично внедряя полезное обучение в их медиапоток.
Алгоритмы также способны поддерживать благополучие. Есть успешные примеры эмоциональной поддержки, когда, после нескольких кликов по релевантным темам, пользователь вместо тревожных новостей начинает видеть ролики с дыхательными упражнениями, медитациями или советами по борьбе со стрессом. Некоторые платформы сотрудничают с экспертами в области ментального здоровья, чтобы встраивать такие материалы в рекомендации в моменты, когда система фиксирует признаки дезадаптивного поведения (например, резкий рост просмотра тревожного контента).
И, наконец, алгоритмы могут спасать жизни, мгновенно распространяя срочные предупреждения — о природных катастрофах, эпидемиях, террористических угрозах. Здесь механика очень похожа: система «понимает», что важно быстро донести критическую информацию, и усиливает охват таких сообщений за счёт своих внутренних приоритетов.
В правильных руках алгоритмическая рекомендация становится не инструментом усиления тревоги, а средством просвещения, мотивации и даже реальной помощи.
Лайфхаки против алгоритма:
Детям сложнее заметить, что их ведут за нос. Стоит:
Алгоритм можно дружить, а не только «бороть». Работают принципы:
Пока США и ЕС спорят, Китай уже в 2022 году обязал платформы раскрывать ключевые параметры рекомендаций. В результате подросткам в вечернее время автоматически показывают образовательные ролики, а общий лимит TikTok-аналогов — 40 минут в день. Сурово? Зато ясно, что приоритет не доход, а «здоровое население» (по крайней мере по официальной легенде).
Европа идёт мягче: Digital Services Act даёт пользователю право знать, почему он увидел именно этот пост, и позволяет законно потребовать хронологическую ленту. Впрочем, эксперты отмечают: из-за коммерческой тайны компании раскрывают лишь «шапку» логики, оставляя детали за кадром.
С 1 октября 2023 года в России действует Федеральный закон № 408-ФЗ, который внес отдельную статью 10.2-2 в базовый закон «Об информации, информационных технологиях и о защите информации» (149-ФЗ) и тем самым впервые дал юридическое определение «рекомендательных технологий» — программных методов, формирующих ленту или витрину на основе сбора и анализа предпочтений пользователя.
Новые нормы распространяются на соцсети, маркетплейсы, видеосервисы и любые сайты или приложения, где есть подбор персонализированного контента, включая случаи, когда рекомендации генерирует сторонний рекламный виджет.
Владельцы таких ресурсов обязаны разместить публичные «Правила применения рекомендательных технологий» на русском языке, раскрыть типы собираемых данных и алгоритмические принципы, а также помечать сам факт использования рекомендаций отдельным уведомлением.
Контроль за соблюдением требований возложен на Роскомнадзор: по запросу ведомства платформа должна за 10 дней предоставить доступ к техническим средствам алгоритма, а если выявлено нарушение, то за 24 часа прекратить показ персонализированных рекомендаций; в противном случае возможна блокировка ресурса.
Закон также запрещает использовать рекомендации для целей, нарушающих права граждан или иное российское законодательство, и предусматривает административную ответственность вплоть до крупных штрафов и приостановки деятельности за систематические нарушения.
Крупные площадки — VK, «Яндекс», Ozon, Wildberries, ИВИ и др. — уже опубликовали такие правила, подробно описав, какие сигналы учитываются и как можно отключить персонализацию, демонстрируя первый опыт практической реализации нового режима регулирования.
Технологии рекомендаций продолжают развиваться стремительными темпами, и в ближайшие годы алгоритмы станут ещё точнее, интуитивнее и незаметнее. Всё большее значение будет иметь биометрия: системы уже учатся анализировать не только поведение пользователя, но и его физиологические реакции — частоту сердечных сокращений, потоотделение, изменение температуры кожи, микронастройки мимики.
Особую роль в этом процессе сыграет развитие устройств дополненной реальности. Смартфоны постепенно уступят место очкам и контактным линзам с интегрированными экранами, способными превращать рекламные и рекомендательные потоки в непрерывную часть визуального восприятия. Уже сейчас существуют прототипы очков, которые считывают микродвижения глаз и расширение зрачка: если пользователь бессознательно проявляет интерес к какому-либо объекту, алгоритм усиливает подсветку рекламного блока, делая его более заметным и привлекательным.
В такой реальности границы между «реальным» и «рекламным» контентом будут стираться ещё сильнее. Информационный поток станет постоянным, динамически подстраиваясь под эмоции, желания и даже скрытые потребности человека. Отказ от гаджетов в этой системе координат превратится в редкую привилегию, аналогичную отдыху без Wi-Fi в заповеднике или на уединённом острове.
Критическое мышление и осознанное отношение к цифровому потреблению станут необходимыми навыками выживания. Без них человек рискует оказаться в полностью управляемой реальности, где его желания и решения формируются внешними системами так ненавязчиво, что он даже не замечает этого вмешательства.
Алгоритмы соцсетей — не таинственные демоны, а зеркала наших привычек и страхов, усиленные вычислительной мощью. Осознанность, цифровая гигиена и грамотное регулирование помогают вернуть контроль. Главный тезис — выбирать, а не выбираться из нескончаемого потока. Тогда вместо цифровой усталости можно получить инструмент роста, а вместо боли прокрутки — настоящий контакт с миром.
*Компания Meta признана экстремистской организацией и запрещена на территории РФ.