Честный анализ от Meta*: FACET против расовых и гендерных предрассудков

Честный анализ от Meta*: FACET против расовых и гендерных предрассудков

Новый инструмент раскрывает, насколько адекватно ИИ распознает лица разных рас.

image

Meta* представила новый инструмент под названием FACET, призванный выявлять расовые и гендерные предвзятости в системах компьютерного зрения.

Инструмент базируется на анализе более чем 30 000 изображений, на которых запечатлены 50 000 человек. Каждое лицо в базе данных помечено соответствующими тегами. С помощью FACET можно выявить уровень предвзятости в системах, например:

  • Влияет ли на определение пола то, что человек делает на изображении (например, способна ли нейросеть отождествлять скейтбордистов исключительно с мужчинами);
  • С одинаковой точностью ли система распознает лица со светлой и темной кожей;
  • Влияет ли на способность системы распознавания тип волос у человека — кудрявые или прямые.

Тем временем британское правительство опубликовало документ, в котором озвучило намерение внедрить использование биометрических систем распознавания на национальном уровне в течение 12-18 месяцев. Особый интерес также вызывают технологии искусственного интеллекта для распознавания лиц. Однако данное решение не получило единодушной поддержки: некоторые депутаты высказываются за введение временного запрета на использование систем распознавания лиц до принятия соответствующих законов, регулирующих их применение.

*Компания Meta и её продукты (Instagram и Facebook) признаны экстремистскими, их деятельность запрещена на территории РФ.

Домашний Wi-Fi – ваша крепость или картонный домик?

Узнайте, как построить неприступную стену