Запретите дипфейки, слежку и ядерные алгоритмы. Пока у нас ещё есть шанс…
Более двухсот учёных, предпринимателей и инженеров, среди них десять нобелевских лауреатов, призвали Организацию Объединённых Наций установить и закрепить строгие регулировки для искусственного интеллекта. Открытое обращение опубликовано на сайте инициативы redlines.ai и предлагает международный запрет на ряд сценариев, которые авторы считают неприемлемыми, а также создание к концу 2026 года глобальных, поддающихся принудительному исполнению правил. Подчёркивается, что после широкого развёртывания некоторых технологий вернуть над ними контроль может оказаться невозможно.
В письме говорится, что уже сейчас отдельные системы демонстрируют обманчивое и вредное поведение, получая всё больше самостоятельности в принятии решений и совершении действий. Подписанты предупреждают о рисках, связанных с потенциальным опережением человеческих возможностей, конструированием искусственных пандемий, массовым распространением дезинформации, целенаправленным психологическим воздействием на аудиторию, включая детей, угрозами национальной и международной безопасности, безработицей в больших масштабах и системными нарушениями прав человека.
Инициатива предлагает запретить наиболее опасные практики. В список попали прямой доступ алгоритмов к ядерному оружию, тотальное наблюдение за населением, а также выдача машин за людей без явного и понятного уведомления об участии технологий в общении или предоставлении услуг.
Авторы настаивают на срочности. По их оценке, ждать следующего десятилетия нельзя: для выработки общих норм нужен ближайший год, иначе эффективное регулирование отстанет от реальности. В тексте подчёркивается, что по мере усложнения архитектур будет всё труднее обеспечивать осмысленное человеческое руководство.
Среди подписавших обращение — Джеффри Хинтон, Йошуа Бенджио, сооснователь OpenAI Войцех Заремба, директор по безопасности Anthropic Джейсон Клинтон, исследователь Google DeepMind Иэн Гудфеллоу и ряд других сотрудников этой лаборатории. При этом глава DeepMind Демис Хассабис и руководитель OpenAI Сэм Альтман в список не вошли.
Инициаторы ссылаются на опыт международного права. Договор о нераспространении ядерного оружия 1970 года стал ориентиром для контроля опасных технологий, хотя к нему не присоединились Индия, Израиль и Пакистан, а КНДР вышла из соглашения в 2003 году и испытала заряд через три года. В качестве удачного примера приводится Монреальский протокол 1987 года, благодаря которому удалось практически отказаться от озоноразрушающих веществ. Отмечается и свежий прецедент отраслевого саморегулирования — обязательства Frontier AI Safety Commitments, принятые в мае: участники пообещали отключать модели при появлении неприемлемого уровня риска, хотя эти обещания носят необязательный характер.
Вероятность того, что Генеральная Ассамблея займётся этим вопросом немедленно, невысока: повестка и без того перегружена конфликтами и гуманитарными кризисами. Тем не менее авторы рассчитывают, что формулировка чётких рамок поможет заранее закрыть самые опасные траектории и станет отправной точкой для выработки общеобязательных норм работы с искусственным интеллектом.