Он просто шёл по улице с девочкой — но алгоритм знал, кто он на самом деле.
Как выяснилось, Ченелер нарушил условия действующего в отношении него судебного запрета (Sexual Offences Prevention Order), согласно которому ему было запрещено находиться рядом с детьми без сопровождения. При обыске у него также был найден нож.
Позже мужчина признал вину в нарушении предписаний и незаконном хранении оружия. Суд приговорил его к наказанию в Королевском суде Кингстона, сообщает BBC.
Технология Live Facial Recognition (LFR), задействованная в операции, использует видеопотоки с камер в общественных местах. Лица прохожих сравниваются с так называемыми «списками слежения» — базами данных разыскиваемых преступников. Если система находит совпадение, сигнал отправляется сотрудникам полиции, которые уже принимают решение о вмешательстве.
По утверждению лондонской полиции, система позволяет мгновенно опознать цель даже в густой толпе — то, с чем человек не справился бы самостоятельно. При этом изображения, не попавшие под совпадение, якобы сразу удаляются.
LFR, как отмечают разработчики, прошла тестирование в Национальном институте стандартов и технологий США (NIST) и использует высокоточный алгоритм. Она также применяется для идентификации людей, которые не могут сообщить свои данные — например, потерявших сознание или тяжело раненых.
Но несмотря на отдельные успешные кейсы, технология вызывает критику со стороны правозащитников. Исследования неоднократно показывали, что системы распознавания лиц дают больше сбоев при работе с женщинами, пожилыми людьми и представителями этнических меньшинств. Это приводит к повышенному риску ошибок и ложных обвинений.
Эксперты по этике ИИ и гражданские активисты предупреждают: у технологии высокий потенциал для дискриминации, а внедрение её в общественные пространства может подорвать доверие общества к правоохранительной системе. Тем не менее, власти продолжают расширять применение LFR как средства повышения безопасности.