ИИ и законы кремния: микросхемы помогут спасти человечество от восстания умных машин

ИИ и законы кремния: микросхемы помогут спасти человечество от восстания умных машин

Исследователи придумали, как ограничить развитие продвинутых алгоритмов: насколько эффективен их метод?

image

Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены.

Многие исследователи уже задавались вопросом : как использовать эту зависимость, чтобы сдержать потенциальную опасность систем ИИ? Пока что самая оптимальная идея - внедрить правила обучения и применения передовых технологий прямо в микросхемы компьютеров.

Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой барьер было бы куда сложнее преодолеть, нежели обычные законы или договоры.

Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность.

В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред.

Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить.

"Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования.

Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности.

Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей.

Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов.

Теория струн? У нас целый оркестр научных фактов!

От классики до авангарда — наука во всех жанрах

Настройтесь на нашу волну — подпишитесь