Началось ИИ-сдерживание

Началось ИИ-сдерживание

Не знаю, замечали ли вы шумиху, которая поднялась последнее время вокруг искусственного интеллекта? Дошло до абсурда. На Финнополисе мэр Москвы Сергей Собянин предположил, что тех, кто будет развивать ИИ, могут разбомбить так же, как это было с Ираком, решившим развивать ядерные вооружения. Собянину вторил Герман Греф, который рассказал, что когда зашла речь о создании в мире единых правил регулирования ИИ и обучения моделей, то было предложено разбомбить ЦОДы тех стран и компаний, которые не будут соблюдать принятые правила.

Хорошо, что у меня нет допуска для участия в таких совещаниях, а то я бы не знал, как жить дальше после таких новостей, которые на тебя постоянно сыпятся как из рога изобилия!

Но то, что сейчас, действительно, началась некоторая гонка запрета ИИ, это факт. Все боятся появления Скайнет из «Терминатора» и пытаются загнать его обратно, как джинна в бутылку и все беды в ящик Пандорры. Но тут впору вспоминать вышедший в этом году фильм «Оппенгеймер» и историю, на которой он базируется. Хотели как лучше, а получилось как всегда. То, что сначала изучалось в сугубо научных целях очень быстро нашло свое применение в военном деле и там же и опробовано. И все заявления ученых «Ну я же не знал», можно засунуть в жопу. Джин из бутылки был выпущен. Да, потом началось ядерное сдерживание и в клуб держав с большой бомбой решили пускали не всех, а только избранных. Вот и с ИИ, как мне кажется, сейчас происходит тоже самое. Попробую свести воедино все, что было сделано с начала осени в этом направлении.

Президент США подписал 30 октября Указ о надежном, безопасном и доверенном развитии и использовании искусственного интеллекта, который положил начало очень активной работе в этой области не только в самих США; за ними потянулись и все американские сателлиты. Например, австралийский центр кибербезопасности ACSC завел у себя на сайте целый раздел по безопасности искусственного интеллекта. Аналогичные страницы появились и у других партнеров США. Сам же Указ Байдена определяет лидирующую роль США в области ИИ во всем мире.При этом разработчики ИИ должны будут делиться с американским правительством результатами своих испытаний. Самое интересное, что Указ обязывает военных и разведку этично и безопасно использовать ИИ. Ага, щаз 🙂

В России тем временем решили обновить национальную стратегию по развитию искусственного интеллекта, принятую в 2019-м году. В ближайшее время Президент должен подписать соответствующий Указ.

Американские АНБ и CISA вместе с английским NCSC и двумя десятками партнеров из Японии, Израиля, Польши, Южной Кореи, Сингапура и т.п. в конце ноября выпустили краткое руководство «Guidelines for Secure AI System Development«, в котором даются базовые рекомендации по защите на 4-х этапах жизненного цикла искусственного интеллекта — проектировании, разработке, внедрении и эксплуатации и поддержке. Как по мне, так ооочень высокоуровневый документ получился. По сути они взяли обычные рекомендации по ИБ информационных систем и заменили там все на ИИ/модели/датасеты. А вот список литературы и источников там достаточно неплохой.

Руководство по разработку безопасных ИИ-систем

Вслед за АНБ и CISA, американский институт по стандартизации NIST запустил целую серию активностей вокруг безопасного и доверенного ИИ. Например, он руководит только что созданным институтом AI Safety Institute (англичане тоже заявили о создании института безопасности ИИ) и хочет создать консорциум по надежному ИИ. Еще раньше NIST создал центр Trustworthy & Responsible AI Resource Center, на сайте которого уже выложено немало полезных материалов, среди которых фреймворк по управлению рисками ИИ, соответствующий плейбук и словарь.

Главное, чтобы CISA и NIST не начали конкурировать между собой. А то у них обоих появились свои собственные дорожные карты по развитию безопасного и надежного ИИ (дорожная карта CISA и NIST).

А вот США и Великобритания явно конкурируют между собой за лидерство. Они почти одновременно говорят схожие вещи и анонсируют схожие инициативы. Но есть, конечно, и отличия. Например, в конце октября Правительство Великобритании выпустило обзор рисков применения генеративных ИИ до 2025-го года.

Риски генеративных моделей ИИ

Авторы этого отчета считают, что генеративный ИИ усилит риски физической и информационной безопасности, а также скорость, масштаб и изощренность атак. При этом правительства не будут иметь представления о том, как развивается ИИ в частном секторе, и как можно управлять рисками такого неконтролируемого развития (OpenAI, привет). А это, в свою очередь, породит новые и непредвиденные риски.

Интересно, что никто не оценивает применение ИИ по ту сторону баррикад, плохими парнями. Не недружественными государствами, а именно киберкриминалом. Они вообще ничем не сдерживают свое развитие и об их инициативах часто вообще ничего не известно.

Институт ООН по исследованию проблем разоружения (UNIDIR) выпустил отчет «AI and International Security«, который предлагает таксономию рисков искусственного интеллекта в контексте международного мира и безопасности. Предполагается, что этот отчет может стать точкой отсчета для дискуссий о мерах доверия к ИИ. Риски описаны достаточно высокоуровневые:

  • принятие решений о применении силы или ухудшение международных отношений вследствие использования ИИ
  • преднамеренная или непреднамеренная эскалация конфликта в результате использования ИИ
  • неправильное использование ИИ для распространения нового оружия, включая оружие массового поражения.
Отчет UNIDIR по рискам искусственного интеллекта

При этом ООН анонсировала 27-го октября создание нового консультативного совета по ИИ. А уже 29 октября страны G7 согласовали в Хиросиме кодекс поведения для компаний-разработчиков ИИ, который должен ограничить враждебное развитие ИИ. Развитие данного кодекса нашло свое отражение в декларации, которую подписали 1-2 ноября в Блетчли-парке (Великобритания) на AI Safety Summit почти 28 стран и Евросоюз. Они договорились внимательно следить, наблюдать, оценивать и бла-бла-бла. Ничего конкретного, но решили вновь собраться в 2024-м году. В обоих документах есть списки (очень похожие) рисков ИИ, а также мысль о международном сотрудничестве в этом вопросе, разработке соответствующих методологий и инструментов (американцы в этом вопросе ушли уже чуть дальше).

Кстати, англичане перед своим саммитом выпустили ряд документов, среди которых не только упомянутый выше обзор рисков генеративного ИИ до 2025 года, но и отчет о возможностях и рисках, связанных с использованием передовых моделей ИИ, включая ключевые риски и неопределенности в развитии наиболее совершенных моделей искусственного интеллекта, а также некоторые потенциальные сценарии развития ИИ до 2030 года.

Будущие риски ИИ

Смотря на все эти инициативы, запущенные чуть ли не в один день, я задаюсь одним вопросом — это им всем так кто-то одновременно приказал выпустить все эти указы, меморандумы и т.п. или они просто пытаются занять пальму первенства в столь важном вопросе?

Конфедерация европейских организаций по защите данных (CEDPO) в конце октября опубликовала документ «Генеративный искусственный интеллект: последствия для защиты персональных данных«, который содержит рекомендации по различным последствиям использования генеративных моделей искусственного интеллекта при обработке персональных данных и методам, которые могут применяться для соблюдения прав на защиту своей приватности.

Руководство по применению генеративного ИИ при работе с персональными данными

А что Китай?

Регулирование ИИ стало темой недавних переговоров Китая и США, которые закончились… разнонаправленно. Американцы написали, что два лидера сверхдержав договорились о сдерживании рисков ИИ. Китайская пресса была более сдержанной. И связано это с тем, что разные регуляторы Поднебесной имеют свою точку зрения на данную тему и единой политики у Китая пока в этой области нет — только общие слова. А самое главное, что у Китая и США совершенно разные культуры и моральные ценности, а значит они вряд ли договорятся о едином пути развития ИИ и озвучиваемые опасения США о создании в крупнейшем государстве Азии роботов-убийц не найдут своего решения.

Ну и чтобы заметка была совсем уж полной, не могу не привести ссылку на отчет американской Комиссии национальной безопасности по искусственному интеллекту. 750 (!) страниц о том, как может использоваться ИИ в и против национальной безопасности и что с этим делать. Документ был написан в 2021-м году и лег в основу многих решений, которые позже США стали предпринимать в этом направлении, включая и те, что были описаны выше.

Комиссия по национальной безопасности об ИИ

Интересно, какой ответ готовит Россия на все эти ограничения и сдерживания? Очевидно же, что в какой-то момент времени России может быть ограничен доступ к последним исследованиям и ресурсам в области искусственного интеллекта.

И вновь обращу внимание на то, что киберкриминал не скован никакими меморандумами и декларациями и будет развивать и использовать ИИ так, как ему удобно. И это тоже предстоит еще оценить.

Заметка Началось ИИ-сдерживание была впервые опубликована на Бизнес без опасности .

Alt text

Где кванты и ИИ становятся искусством?

На перекрестке науки и фантазии — наш канал

Подписаться