Создали монстра и испугались: OpenAI умоляет общество забыть про восстание машин

Создали монстра и испугались: OpenAI умоляет общество забыть про восстание машин

ИИ-компании меняют стратегию общения с публикой после всплеска агрессии против разработчиков.

image

Еще недавно руководители крупнейших ИИ-компаний сами рисовали почти апокалиптическую картину. Искусственный интеллект, говорили они, способен не только встряхнуть рынок труда или обострить вопросы безопасности, но и в худшем случае поставить под угрозу само существование человечества. Теперь тон заметно меняется. После нападений у дома Сэма Альтмана в OpenAI призывают говорить об ИИ осторожнее и не подливать масло в огонь.

Поворот в риторике связан с недавними инцидентами вокруг главы OpenAI. Как пишет San Francisco Standard, руководитель глобальной политики компании Крис Лихейн заявил, что часть публичных разговоров об искусственном интеллекте звучит безответственно и может иметь реальные последствия. Поводом стал как минимум один подтвержденный эпизод: по версии следствия, 20-летний Дэниел Морено-Гама бросил зажигательное устройство в дом Альтмана, а затем приехал к штаб-квартире OpenAI и ударил стулом по стеклянным дверям. Полиция также сообщала, что у задержанного нашли анти-ИИ документ, а Wall Street Journal писал о его высказываниях с призывами к насилию против техноглав. Еще один эпизод, произошедший через два дня рядом с домом Альтмана, где, по данным следствия, прозвучали выстрелы, пока остается предметом расследования.

На фоне таких событий слова Лихейна выглядят как попытка охладить атмосферу. По его версии, общество расколото между двумя крайностями. С одной стороны стоят сторонники ИИ, обещающие миру изобилие и досуг, с другой - так называемые думеры, которые смотрят на технологии через самый мрачный сценарий. Лихейн утверждает, что задача OpenAI и всей отрасли состоит в том, чтобы лучше объяснять людям практическую пользу ИИ для семей, работы и общества в целом.

Проблема в том, что еще недавно сами лидеры отрасли подталкивали разговор именно к мрачным сценариям. Сэм Альтман говорил о подобных рисках задолго до бума ChatGPT. Еще в 2015 году он допускал, что развитие ИИ «вероятно, скорее всего» может привести к концу света, хотя по пути появятся великие компании на базе машинного обучения. Позже Альтман предупреждал и о более конкретных угрозах, включая создание новых биологических патогенов с помощью ИИ. В 2023 году он подписал открытое письмо о риске вымирания, а затем писал, что опасность несет не только «невыравненный» сверхразум, но и авторитарный режим, который получит решающее преимущество в такой технологии.

Похожим языком пользовались и конкуренты. Глава Anthropic Дарио Амодеи в этом году говорил Axios, что человечество вот-вот получит почти невообразимую силу, а общественные, политические и технологические системы пока явно не доказали готовность распоряжаться таким ресурсом. Амодеи отдельно подчеркивал, что его пугает ИИ-усиленный авторитаризм, и предупреждал о рисках создания биологического оружия при помощи мощных моделей. Часть защитных ограничений Anthropic, по данным автора текста, даже вызвала конфликт с Пентагоном, который начал отказываться от Claude в своих системах после споров вокруг запрета на массовую внутреннюю слежку и автономные вооружения.

Именно здесь возникает главный конфликт, на котором строится исходный материал. Если руководители компаний годами говорят, что создают технологию с потенциально катастрофическими последствиями, общество вправе спросить, почему разговор о регулировании сводится к мягким правилам и тонкой настройке, а не к куда более жесткой реакции государства. Автор текста доводит мысль до предела и замечает, что в любой другой сфере заявления о создании инструмента, способного уничтожить мир, выглядели бы как повод для немедленного вмешательства силовиков, а не для очередных слушаний и осторожных поправок.

Вторая линия критики касается рынка труда. Руководители ИИ-компаний давно предупреждают о грядущем вытеснении работников, особенно в сфере офисного и интеллектуального труда. За последний год многие компании уже ссылались на ИИ как на одну из причин увольнений, хотя в ряде случаев такой аргумент мог служить удобным оправданием сокращений. При этом, как отмечает автор, тот же самый бизнес одновременно требует от государства подготовить общество к потрясениям и параллельно добивается минимального давления на собственные разработки.

В тексте отдельно упоминается Илон Маск, который на днях написал, что лучшим ответом на безработицу из-за ИИ станет «универсальный высокий доход» в виде государственных чеков, а инфляции якобы не будет, потому что роботы и автоматизация произведут больше товаров и услуг, чем вырастет денежная масса. Автор статьи называет такую позицию абсурдной, напоминая, что Маск прежде поддерживал жесткое урезание госрасходов и критиковал социальные выплаты. На таком фоне обещания будущего изобилия за счет государства выглядят не как убедительный план, а как очередной рекламный ход.

Финальный вывод у материала жесткий. Автор считает, что индустрия ИИ сама загнала себя в ловушку. Сначала руководители компаний годами убеждали мир в почти экзистенциальной опасности новых систем, потому что такой язык помогал продавать разработки инвесторам, чиновникам и крупным заказчикам. Теперь, когда страх начал выходить за рамки удобного пиара и превращаться в агрессию, те же фигуры пытаются вернуть разговор в безопасное русло и сосредоточить внимание на пользе для общества. Проблема в том, что выпущенного джинна паники уже трудно загнать обратно в бутылку.