Армия США защитит свои системы распознавания лиц от компрометации

Армия США защитит свои системы распознавания лиц от компрометации

Специалисты разработали инструмент для отражения кибератак на военные приложения с технологиями распознавания лиц.  

image

Армия США работает над созданием программного обеспечения для защиты технологий распознавания лиц, используемых в военных приложениях, от возможной компрометации. Команда ученых Университета Дьюка (Северная Каролина, США) разработала инструмент, предназначенный для отражения кибератак на военные приложения с технологиями распознавания лиц.

Армия США использует технологии распознавания лиц и объектов для обучения систем искусственного интеллекта (ИИ), использующихся в беспилотных летательных аппаратах, системах слежения и пр. Большую угрозу представляют бэкдоры в платформах распознавания лиц, поскольку с их помощью злоумышленники могут повлиять на обучение ИИ.

Модели ИИ опираются на массивные наборы данных, и в случае компрометации используемых для распознавания лиц данных (таких как одежда, форма, ушей, цвет глаз и т.п.) ИИ будет неверно идентифицировать людей. Подобные угрозы могут иметь серьезные последствия для программ слежения: находящиеся под наблюдением подозреваемые будут идентифицированы неверно и в итоге избегут обнаружения.

Такую атаку невозможно выявить невооруженным взглядом, поскольку используемые для обучения наборы данных выглядят нормально и не вызывают никаких сбоев в работе нейронных сетей. Тем не менее, в них могут быть внедрены вредоносный код или визуальные подсказки, способные повлиять на обучение ИИ.

Разработанный учеными Университета Дьюка инструмент способен слой за слоем сканировать изображения в поисках признаков постороннего вмешательства. На его создание ушло девять месяцев и $60 тыс., выделенных в качестве гранта Армейской исследовательской лабораторией.

Подписывайтесь на каналы "SecurityLab" в TelegramTelegram и Яндекс.ДзенЯндекс.Дзен, чтобы первыми узнавать о новостях и эксклюзивных материалах по информационной безопасности.

Комментарии для сайта Cackle