Исследователи придумали, как ограничить развитие продвинутых алгоритмов: насколько эффективен их метод?
Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены.
Многие исследователи уже задавались вопросом : как использовать эту зависимость, чтобы сдержать потенциальную опасность систем ИИ? Пока что самая оптимальная идея - внедрить правила обучения и применения передовых технологий прямо в микросхемы компьютеров.
Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой барьер было бы куда сложнее преодолеть, нежели обычные законы или договоры.
Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность.
В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред.
Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить.
"Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования.
Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности.
Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей.
Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов.
От классики до авангарда — наука во всех жанрах