Армия США защитит свои системы распознавания лиц от компрометации

Армия США защитит свои системы распознавания лиц от компрометации

Специалисты разработали инструмент для отражения кибератак на военные приложения с технологиями распознавания лиц.  

Армия США работает над созданием программного обеспечения для защиты технологий распознавания лиц, используемых в военных приложениях, от возможной компрометации. Команда ученых Университета Дьюка (Северная Каролина, США) разработала инструмент, предназначенный для отражения кибератак на военные приложения с технологиями распознавания лиц.

Армия США использует технологии распознавания лиц и объектов для обучения систем искусственного интеллекта (ИИ), использующихся в беспилотных летательных аппаратах, системах слежения и пр. Большую угрозу представляют бэкдоры в платформах распознавания лиц, поскольку с их помощью злоумышленники могут повлиять на обучение ИИ.

Модели ИИ опираются на массивные наборы данных, и в случае компрометации используемых для распознавания лиц данных (таких как одежда, форма, ушей, цвет глаз и т.п.) ИИ будет неверно идентифицировать людей. Подобные угрозы могут иметь серьезные последствия для программ слежения: находящиеся под наблюдением подозреваемые будут идентифицированы неверно и в итоге избегут обнаружения.

Такую атаку невозможно выявить невооруженным взглядом, поскольку используемые для обучения наборы данных выглядят нормально и не вызывают никаких сбоев в работе нейронных сетей. Тем не менее, в них могут быть внедрены вредоносный код или визуальные подсказки, способные повлиять на обучение ИИ.

Разработанный учеными Университета Дьюка инструмент способен слой за слоем сканировать изображения в поисках признаков постороннего вмешательства. На его создание ушло девять месяцев и $60 тыс., выделенных в качестве гранта Армейской исследовательской лабораторией.

Ньютон уронил яблоко. Мы роняем челюсти!

Гравитация научных фактов сильнее, чем вы думаете

Подпишитесь и испытайте интеллектуальное падение