Они строят AGI и одновременно покупают бункеры. Кремниевая долина боится своего творения

Они строят AGI и одновременно покупают бункеры. Кремниевая долина боится своего творения

AGI придёт в 2026-м. Или в 2035-м. Или никогда. Зависит от того, кого вы спросите — и сколько он привлёк инвестиций.

image

«Мы точно построим бункер до того, как выпустим AGI», — эту фразу приписывают одному из лидеров Кремниевой долины, хотя непонятно, кого именно он имел в виду под «мы». Фраза хорошо отражает парадокс времени: многие из тех, кто активно двигает искусственный интеллект к новым пределам, одновременно опасаются того, во что эта технология может превратиться.

Когда же появится AGI — искусственный интеллект общего назначения, сопоставимый с человеческим по широте навыков? Оптимисты уверяют, что очень скоро. Глава OpenAI Сэм Альтман в декабре 2024 года сказал, что это случится «раньше, чем думает большинство людей». Сооснователь DeepMind сэр Демис Хассабис называет горизонт пять–десять лет. Основатель Anthropic Дарио Амодеи предпочитает говорить о «мощном ИИ» и допускает его уже к 2026 году. Скептики парируют, что «ворота постоянно переставляют»: по словам профессора Саутгемптонского университета Дейм Венди Холл, всё зависит от того, кого вы спросите. Технология впечатляет, но до человеческого интеллекта ей ещё далеко. Согласен и технический директор Cognizant Бабак Ходжат: прежде нужны несколько фундаментальных прорывов. И ждать «моментального» рождения AGI не стоит — это не один день, а длинный маршрут, по которому бегут десятки компаний с разными версиями подходов.

Часть энтузиазма подпитывает идея следующей ступени — ASI, сверхинтеллекта, превосходящего человека. Ещё в 1958 году венгеро-американскому математику Джону фон Нейману приписали раннее формулирование «сингулярности» — точки, после которой темп и характер компьютерного развития ускользают от человеческого понимания. В книге 2024 года Genesis Эрик Шмидт, Крэйг Манди и покойный Генри Киссинджер рассуждают о сверхмощной технологии, которая принимает решения и управляет настолько эффективно, что люди постепенно передают ей контроль. В их логике вопрос не «если», а «когда».

Сторонники рисуют завораживающую картину. AGI якобы поможет находить лекарства от смертельных болезней, победить климатический кризис и открыть практически бесконечные источники чистой энергии. Илон Маск говорил о возможной эпохе «универсального высокого дохода», когда ИИ станет настолько доступным, что у каждого появятся «собственные R2-D2 и C-3PO». В его видении у всех будут лучшая медицина, жильё, транспорт и устойчивое изобилие. Но у мечты есть и оборотная сторона. Можно ли удержать такую систему от злоупотреблений террористов или от самостоятельного вывода, что главная проблема планеты — мы сами? Создатель Всемирной паутины Тим Бернерс-Ли предупреждает: если машина умнее человека, её нужно уметь сдерживать и при необходимости «выключать». Государства пробуют строить защитные барьеры. В США в 2023 году вышел указ президента, обязывавший часть компаний делиться с властями результатами тестов безопасности, хотя затем некоторые положения были ослаблены как «препятствующие инновациям». В Великобритании два года назад появился государственный Институт безопасности ИИ, который изучает риски продвинутых моделей. На этом фоне сверхбогатые обсуждают «страховку на апокалипсис» — от домов на краю света до частных убежищ, хотя человеческий фактор и здесь ставит всё с ног на голову.

Есть и те, кто считает всю дискуссию ложной. Профессор Кембриджа Нил Лоуренс называет само понятие AGI столь же нелепым, как «искусственное универсальное транспортное средство». Нужный транспорт всегда зависит от контекста: в Кению летят на авиалайнере, до университета едут на машине, в столовую идут пешком. Нет и не будет одной машины на все случаи жизни — почему от ИИ ждут обратного? По его мнению, разговоры об AGI отвлекают от реальных перемен, которые уже происходят: впервые обычные люди могут разговаривать с машиной и получать от неё то, что действительно имелось в виду. Это уже колоссально и уже меняет привычную жизнь, а значит усилия надо направлять на то, чтобы технологии работали в интересах пользователей.

Текущие системы обучены на гигантских массивах данных и отлично распознают закономерности — от онкологических маркеров на снимках до вероятного следующего слова в предложении. Но они не «чувствуют», как бы убедительно ни звучали их ответы. По словам Бабака Ходжата, существуют «хитрые» способы заставить большие языковые модели производить впечатление памяти и обучения, но эти трюки далеки от человеческого уровня. Гендиректор IV.AI Винс Линч предупреждает: громкие заявления об AGI — прекрасный маркетинг. Если вы строите «самую умную вещь на свете», к вам потекут деньги. На практике путь не измеряется двумя годами — требуется огромная вычислительная мощность, много человеческого творчества и бесконечные попытки с ошибками.

И всё же в отдельных аспектах машины уже превосходят нас по широте применения. Генеративный ИИ может за минуту переключиться с средневековой истории на сложные уравнения. При этом даже разработчики не всегда понимают, почему модель отвечает так, а не иначе, а некоторые компании заявляют о признаках самоусовершенствования своих систем. Биология пока остаётся впереди: в человеческом мозге порядка 86 миллиардов нейронов и около 600 триллионов синапсов — несопоставимо больше, чем в искусственных архитектурах. Мозгу не нужны паузы между взаимодействиями, он непрерывно перестраивает картину мира. Если человеку сказать, что на экзопланете нашли жизнь, он мгновенно встроит это в свою картину реальности. Языковая модель «знает» это лишь постольку, поскольку вы продолжаете повторять ей этот факт. У LLM отсутствует метапознание — способность осознавать собственные знания. У людей она есть и часто описывается как сознание. Это фундаментальный элемент интеллекта, который в лаборатории пока воспроизвести не удалось.

За громкими прогнозами и тревогами, похоже, скрывается простая истина: ИИ уже сегодня меняет повседневность и бизнес-процессы, а разговор о «настоящем» AGI удобен тем, кто собирает инвестиции или формирует повестку. Будет ли точка сингулярности и когда она наступит — вопрос открытый. Но от качества инструментов, которые мы создаём сейчас, от их безопасности, прозрачности и полезности для людей зависит куда больше, чем от споров о бункерах и датах.