Удары по Тель-Авиву и горящая Бурдж-Халифа. Кому выгодны ИИ-подделки на тему ближневосточного конфликта

Удары по Тель-Авиву и горящая Бурдж-Халифа. Кому выгодны ИИ-подделки на тему ближневосточного конфликта

Исследуем механику работы профессиональной фабрики иллюзий.

image

Война между США, Израилем и Ираном спровоцировала не только обмен ударами, но и всплеск фальшивого контента в соцсетях. На фоне тревоги и дефицита проверенной информации авторы массово публикуют ролики и снимки, созданные нейросетями, а затем зарабатывают на просмотрах, репостах и комментариях.

Команда BBC Verify сообщила, что такие публикации уже собрали сотни миллионов просмотров. По словам преподавателя Квинслендского технологического университета Тимоти Грэма, инструменты генеративного ИИ резко упростили выпуск убедительных подделок. Контент, для которого раньше требовалась полноценная видеосъёмка, теперь можно собрать за считаные минуты.

Одним из самых заметных примеров стал ролик с якобы ракетным ударом по Тель-Авиву. Видео разошлось более чем в 300 публикациях и получило десятки тысяч распространений. Проверка BBC показала, что запись создана искусственно, однако пользователи X* нередко принимали фальшивку за подлинную, а встроенный бот Grok в ряде случаев ошибочно подтверждал её достоверность.

Широко разошёлся и другой поддельный ролик, где небоскрёб Бурдж-Халифа в Дубае будто бы охвачен огнём. Видео набрало десятки миллионов просмотров в момент, когда жители и туристы и без того опасались ударов беспилотников и ракет. Сотрудница Оксфордского института интернета Махса Алимардани считает, что подобные публикации подрывают доверие к проверенным данным и мешают фиксировать реальные последствия атак, способствуя распространению дезинформации.

Новой особенностью конфликта стали и фальшивые спутниковые снимки. После реальных ударов по штабу Пятого флота ВМС США в Бахрейне в сети появился поддельный кадр с якобы серьёзными разрушениями базы. Его распространила в X газета Tehran Times, связанная с иранским правительством. Анализ показал, что изображение, вероятно, создали или отредактировали с помощью нейроинструментов Google, а в основе лежал настоящий спутниковый снимок американской базы, сделанный в феврале 2025 года.

По данным BBC Verify, популярность таких публикаций подпитывает монетизация. Руководство X уже объявило, что временно будет отключать от программы выплат авторов, которые выкладывают ролики о вооружённых конфликтах без пометки о применении ИИ. Тимоти Грэм полагает, что участники программы могут получать около 8–12 долларов за миллион подтверждённых показов, а право на выплаты открывается после пяти миллионов органических просмотров за три месяца и подписки X Premium.

Специалисты связывают резкий рост подобных фальшивок не только с доступностью сервисов вроде Veo, Sora, Seedance и Grok, но и с самой логикой платформ. Чем сильнее алгоритмы вознаграждают вовлечённость, тем выгоднее публиковать сенсационный контент, даже если у него нет ничего общего с реальностью.

* Социальная сеть запрещена на территории Российской Федерации.