Стив Возняк и Ричард Брэнсон присоединились к требованию о запрете неконтролируемого ИИ.
Ведущие исследователи в сфере искусственного интеллекта Джеффри Хинтон и Йошуа Бенджио обратились к мировым лидерам с призывом подписать международное заявление о введении запрета на разработку сверхинтеллектуальных систем, пока не будет достигнуто научное согласие о безопасности таких технологий и не появится широкая общественная поддержка их применения. Документ под названием Statement on Superintelligence был опубликован некоммерческим институтом Future of Life Institute (FLI).
Инициатива получила одобрение ряда известных личностей: среди подписавших — сооснователь Apple Стив Возняк, основатель Virgin Ричард Брэнсон, бывший президент Ирландии Мэри Робинсон, сопредседатель ВЭФ Андре Хоффман, а также принц Гарри с супругой Меган Маркл. По словам Бенджио, прогресс в области передовых моделей может привести к тому, что машины обгонят человека по большинству когнитивных задач уже в ближайшие годы. Он подчеркнул, что такие технологии способны помочь решению глобальных проблем, но при отсутствии контроля представляют серьёзную угрозу. Учёный настаивает на создании научно обоснованных методов, которые исключали бы возможность причинения вреда людям, будь то из-за технической несогласованности или злонамеренного использования.
Future of Life Institute был основан в 2014 году и на протяжении десятилетия предупреждает об опасности неконтролируемого развития искусственного интеллекта. По данным организации, к вечеру 22 октября под заявлением поставили подписи более 21 000 человек на сайте FLI и ещё около 20 000 — через американскую некоммерческую платформу Ekō, известную своим лозунгом «Люди и планета важнее прибыли».
Показательно, что среди отсутствующих подписей — имена самых влиятельных фигур индустрии: Илон Маск, один из первых сторонников FLI и активный критик сверхинтеллекта, не поддержал обращение. К нему присоединились своим молчанием глава Meta* Марк Цукерберг и генеральный директор OpenAI Сэм Альтман. Однако их собственные прежние заявления о рисках искусственного интеллекта приведены в документе отдельно — в разделе «Публичные высказывания неподписавшихся». Там же цитируются руководитель Anthropic Дарио Амодеи, оценивший вероятность катастрофического исхода как 25%, и глава Microsoft AI Мустафа Сулейман, призвавший не создавать системы, безопасность которых не доказана.
В FLI отметили, что общественное мнение всё сильнее склоняется к необходимости регулирования. Согласно недавнему национальному опросу, почти две трети американцев поддерживают введение строгих правил для разработчиков ИИ, а более 60% выступают против продолжения создания сверхчеловеческих систем до тех пор, пока их безопасность не будет гарантирована. Лишь 5% жителей США считают допустимым нынешний курс на развитие искусственного интеллекта без ограничений.
* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.