Мы поверили в бойню, которой не было — и это главный удар ИИ по реальности

Мы поверили в бойню, которой не было — и это главный удар ИИ по реальности

Пока ты читаешь это, Telegram заливает сеть фальшивыми ракетами.

image

На фоне стремительно нарастающего конфликта между Израилем и Ираном, который может вовлечь весь регион и спровоцировать прямое столкновение с США, социальные сети захлестнула волна фальшивых фото и видео. Визуальные «доказательства» ударов, падений и разрушений оказываются искусственно сгенерированными — но это не мешает им распространяться с пугающей скоростью.

Ситуация обнажила новую реальность войны: наряду с реальными взрывами в небе — цифровая лавина фейков на экранах. Генеративные алгоритмы ИИ стали не просто инструментом в руках пропагандистов — они превратились в оружие, заменившее привычные кадры с мест боёв тщательно выверенным «цифровым адом». С одной стороны, дефицит достоверной информации из-за цензуры и военной тайны заполняется анонимными генерациями. С другой — сами государственные лидеры активно используют такие технологии для трансляции выгодного им образа врага.

В соцсетях распространяются кадры, якобы снятые в эпицентре боевых действий. Один из таких фейков изображает F-35, сбитый над Ираном: гигантский самолёт лежит на земле, кокпит размером с дом, вокруг суетятся люди. Иллюстрация абсурдна и лишена реализма, но её репостят десятки тысяч пользователей. Другой визуальный обман — ночной снимок того же «самолёта» в поле с мигающим соплом — тоже оказался подделкой.

Причём источниками подобных фальсификаций становятся не только безымянные «кузнецы фейков», но и официальные аккаунты. Верховный лидер Ирана публикует смонтированные кадры ракетных запусков, явно созданные ИИ. Израильский министр обороны — не отстаёт, размещая столь же синтетические визуализации ударов.

Одна из самых масштабных серий дезинформации распространяется через аккаунт «3amelyonn». Этот Telegram-канал и связанный с ним TikTok-профиль ведут активную кампанию под вывеской «Искусственный интеллект сопротивления». С 2023 года они создают видео разрушений на Ближнем Востоке, где города показаны в дыму, но без людей и крови — чтобы не попасть под фильтры модерации. Первое видео сгенерировано в апреле 2025 года. Последующие стали гораздо более реалистичными. К примеру, ролик с якобы разрушенным аэропортом Бен-Гурион набрал более 2 миллионов просмотров, а псевдосъёмка «Судного дня в Тель-Авиве», опубликованная 27 мая, — более 11 миллионов.

Отдельный всплеск вызвал фальшивый ролик, опубликованный Tehran Times. Он якобы фиксировал момент попадания ракеты в здание в Бат-Яме, но оказался сгенерированным в Veo 3 — инструменте от Google, оснащённом невидимым водяным знаком SynthID. На одном из других видео — кадры огромной ракеты, движущейся по туннелю, где даже не убрали водяной знак Veo.

Сотрудники компании GetReal, специализирующейся на выявлении фейков, смогли связать множество таких видео с генератором Veo 3. По словам профессора из Беркли Хани Фарида, в последние сутки его команда зафиксировала шквал поддельных видео, «визуально убедительных, но синтетических». Он подчёркивает: такие материалы создают хаос в информационном поле, где уже невозможно отличить реальную съёмку от ложной, и каждый новый ролик можно поставить под сомнение.

Самое тревожное, что обе стороны конфликта просят своих граждан не выкладывать реальные кадры разрушений — это может помочь противнику скорректировать новые удары. Появляется пустота — и её тут же заполняет ИИ. В этом вакууме рождается и новая угроза: правда перестаёт быть отличимой, потому что все доказывают противоположное, и ничто нельзя считать достоверным.

Google, в свою очередь, заявляет о «ответственном подходе» к ИИ и напоминает, что все видео, созданные в Veo, получают видимые и скрытые водяные знаки. Однако обнаружить их может только тот, кто загружает контент на специальный сайт, что делает процесс почти бесполезным для обычного пользователя соцсетей.

Типичный образ таких видео — разрушенные дома и техника, но почти всегда без следов гибели людей. Это не просто цензура или стремление к гуманности — это стратегия, повышающая вероятность того, что ролик не будет удалён. Искусственная война становится кровавой — но только в воображении.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден.