Мир незаметно превращают в кукольный театр через соцсети.
Meta в первом квартале 2025 года заблокировала три масштабные сетевые операции, связанные с Ираном, Китаем и Румынией. Об этом компания сообщила в своём отчёте об угрозах, уточнив, что все действия были пресечены ещё до того, как кампании смогли собрать значимую аудиторию внутри сервисов корпорации.
Одна из нейтрализованных операций была нацелена на Румынию и включала сеть из 658 поддельных аккаунтов в Facebook*, 14 страниц и двух профилей в Instagram*. Помимо платформ Meta*, активность также фиксировалась в TikTok, X** и YouTube. Злоумышленники выдавали себя за жителей Румынии и публиковали контент, связанный с местными новостями, спортом и туризмом. Некоторые страницы имели заметное количество подписчиков — например, одна из них насчитывала около 18 300 человек.
Фальшивые аккаунты управляли страницами, оставляли комментарии под публикациями политиков и СМИ, а также направляли пользователей на сторонние сайты. При этом соблюдалась строгая операционная безопасность: использовались прокси и другие средства маскировки источников активности. Основной язык публикаций — румынский. Тематика — актуальные события и предстоящие выборы.
Вторую операцию Meta связала с Ираном. Её цель — азероязычная аудитория в Азербайджане и Турции. Сеть включала 17 аккаунтов в Facebook*, 22 страницы и 21 аккаунт в Instagram*. Злоумышленники создавали образы журналисток и активисток, поддерживающих Палестину, чтобы внедряться в дискуссии. Аккаунты взаимодействовали друг с другом, публиковали посты в группах, оставляли комментарии и использовали популярные хештеги — такие как #palestine, #gaza, #starbucks и #instagram — чтобы встроиться в повестку и набрать охват.
Публиковались новости и политические темы на азербайджанском языке: Олимпиада в Париже, атаки Израиля в Газе в 2024 году, призывы к бойкоту американских брендов, критика президента США Джо Байдена и действий Израиля. За этой кампанией стоит известная структура под названием Storm-2035, ранее описанная Microsoft как часть иранской дезинформационной активности, нацеленной на американских избирателей. Также известно, что OpenAI заблокировала связанные с ней аккаунты ChatGPT, которые пытались использовать ИИ для создания контента под дезинформационные цели.
Третья операция велась из Китая и охватывала Мьянму, Тайвань и Японию. Meta заблокировала 157 аккаунтов в Facebook*, 19 страниц, одну группу и 17 аккаунтов в Instagram*. Кампания представляла собой так называемую «ферму аккаунтов» с автоматизированной генерацией фейковых профилей, включая аватары, созданные нейросетями.
Активность была распределена на три отдельные кластера. Они публиковали материалы на английском, японском, бирманском и китайском языках, преимущественно перепосты и актуальные события в локальных контекстах. В Мьянме продвигались месседжи о необходимости окончания конфликта и поддержке военной хунты. В Японии критиковалась национальная власть и её союз с США. На Тайване публиковались обвинения в коррупции в адрес политиков и военных, а также велись страницы, якобы собирающие анонимные пользовательские истории — вероятно, для создания иллюзии подлинного общественного мнения.
Эти три кампании вновь подтверждают, насколько разнообразны тактики, используемые в информационных войнах. География, языки, формы подачи и даже визуальные элементы — всё подстраивается под цели манипуляторов, стремящихся дестабилизировать обстановку и внедряться в общественные дискуссии.
* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.
** Социальная сеть запрещена на территории Российской Федерации.