Дипфейки могут легко обмануть многие системы аутентификации Facial Liveness Verification

Дипфейки могут легко обмануть многие системы аутентификации Facial Liveness Verification

Некоторые современные модули обнаружения дипфейков настроены на устаревшие техники.

Команда исследователей из университета штата Пенсильвания (США) и Чжэцзянского и Шаньдунского университетов (Китай) изучила восприимчивость к дипфейкам некоторых из крупнейших в мире систем аутентификации на основе лица. Как показали результаты исследования, большинство систем уязвимы к развивающимся новым формам дипфейков.

В ходе исследования были проведены атаки на основе дипфейков с использованием специальной платформы, развернутой в системах Facial Liveness Verification (FLV), которые обычно поставляются крупными поставщиками и продаются в качестве услуги нижестоящим клиентам, таким как авиакомпании и страховые компании.

Facial Liveness предназначен для отражения использования таких методов, как атаки со стороны изображения, использование масок и предварительно записанного видео, так называемые «мастер-лица» и другие формы клонирования визуальной идентификации.

В исследовании делается вывод о том, что ограниченное количество модулей обнаружения дипфейков в подобных системах, возможно, были настроены на устаревшие техники или могут быть слишком специфичными для архитектуры.

«Даже если обработанные видеоролики кажутся нереальными для людей, они все равно могут обойти текущий механизм обнаружения дипфейков с очень высокой вероятностью успеха», — отметили специалисты.

Еще один вывод заключался в том, что текущая конфигурация общих систем проверки лиц предвзято относится к белым мужчинам. Лица женщин и цветных меньшинств оказались более эффективны в обходе систем проверки, подвергая клиентов этих категорий большему риску взлома с помощью методов, основанных на дипфейках.

Авторы предлагают ряд рекомендаций по улучшению текущего состояния FLV, включая отказ от аутентификации по одному изображению («FLV на основе изображения»), когда аутентификация основана на одном кадре с камеры клиента; более гибкое и всестороннее обновление систем обнаружения дипфейков в графических и голосовых доменах; навязывание необходимости синхронизировать голосовую аутентификацию в пользовательском видео с движениями губ (чего сейчас, как правило, нет); и требование от пользователей выполнять жесты и движения, которые в настоящее время трудно воспроизвести системами дипфейка (например, просмотр профиля и частичное затемнение лица).

Ваши данные уже украдены. Вопрос лишь в том, когда их используют против вас.

Узнайте, как защититься!