Современные детекторы дипфейков можно обмануть

Современные детекторы дипфейков можно обмануть

Ученые смогли обмануть современные детекторы дипфейков путем внедрения в видеоролик так называемых «состязательных примеров».

Университеты, организации и технологические гиганты, такие как Microsoft и Facebook, работают над инструментами для обнаружения дипфейков, которые призваны предотвратить их использование в целях дезинформации и распространения вредоносных медиа. Однако команда ученых из Калифорнийского университета в Сан-Диего на конференнции WACV 2021 сообщила, что детекторы дипфейков все еще можно обмануть путем внедрения входных данных (состязательные примеры) в каждый видеокадр.

По словам экспертов, состязательные примеры (adversarial examples) представляют собой манипуляции с изображениями, которые могут привести к ошибкам в работе систем искусственного интеллекта. Большинство детекторов работают, отслеживая лица на видео и отправляя обрезанные данные в нейронную сеть. Затем система детектора определяет, является ли видео подлинным, проанализировав элементы, которые плохо воспроизводятся в дипфейках, например, моргание.

Как обнаружили ученые, создавая состязательные примеры лица и вставляя их в каждый видеокадр, они смогли обмануть современные детекторы дипфейков. Кроме того, разработанная ими методика работает даже для сжатых видео и даже в том случае, если у них не было полного доступа к модели детектора.


Мир сходит с ума и грянет киберапокалипсис. Подпишись на наш Телеграм канал, чтобы узнать первым, как выжить в цифровом кошмаре!