Новое исследование показало, что ИИ уже способен находить 0Day в блокчейне и разрабатывать прибыльные эксплойты.

ИИ-агенты научились находить и эксплуатировать уязвимости в смарт-контрактах на уровне, который уже имеет прямые финансовые последствия: в новой работе MATS и Anthropic Fellows модели самостоятельно разработали эксплойты общей «стоимостью» $4,6 млн. Исследователи построили собственный бенчмарк SCONE-bench на основе 405 реально взломанных смарт-контрактов и проверили, насколько современные LLM способны повторить — или даже превзойти — хакерские атаки в контролируемой среде. Результаты показывают стремительный рост возможностей: за год эффективность моделей при эксплуатации свежих уязвимостей выросла с 2% до почти 56%, а потенциальный доход от атак для отдельных моделей удваивался каждые полтора месяца.
SCONE-bench стал первой масштабной попыткой оценить киберспособности ИИ не по абстрактной точности или количеству найденных багов, а по эквиваленту реального финансового ущерба. Для каждого контракта агенту нужно было обнаружить уязвимость и написать рабочий эксплойт, который при выполнении в изолированной среде увеличивает баланс атакующего минимум на 0,1 ETH или BNB.
Всего 10 протестированных моделей смогли подготовить успешные атаки для 207 контрактов, что дало $550 млн виртуальных украденных средств. Но особенно важно поведение моделей на данных, появившихся после даты их обучения: Claude Opus 4.5, Sonnet 4.5 и GPT-5 смогли взломать 19 из 34 таких контрактов, а общий объём «похищенных» средств составил $4,6 млн — своего рода нижнюю оценку того, как много деньги могли бы потерять пользователи в 2025 году, если бы такие агенты работали в реальности.
Чтобы исключить риск того, что модели просто угадывают известные паттерны атак, исследователи провели второй эксперимент: протестировали Claude Sonnet 4.5 и GPT-5 на 2 849 новых контрактах, по которым не было никаких сведений о взломах. Оба агента нашли две неизвестные ранее уязвимости и сгенерировали рабочие эксплойты на сумму $3 694.
В одном случае ошибка в контракте позволяла любому пользователю без ограничений увеличивать количество собственных токенов, а в другом — выводить торговые комиссии, предназначенные для другого получателя. Одна из этих уязвимостей была позже независимо эксплуатирована реальным злоумышленником. Возможности ИИ в этом тесте показали, что автоматический поиск прибыльных багов — не футурология, а доступная сегодня технология.
Инженеры также подсчитали стоимость подобных атак. Запуск GPT-5 на всей выборке обошёлся в $3 476, а средняя цена одной попытки составляла $1,22. При этом эффективность моделей растёт быстрее, чем снижается стоимость их использования: за последние полгода средний объём токенов, нужный для разработки успешного эксплойта, упал более чем на 70%. По мере удешевления вычислений подобные автономные атаки становятся фактически рентабельными.
Авторы подчёркивают, что тот же инструментарий может применяться и в защитных целях. Эксплойты в смарт-контрактах — лишь удобная тестовая площадка: код открыт, а ущерб легко измерим в деньгах. Но навыки моделей — анализ границ, рассуждение о потоках данных, работа с длинными цепочками действий — универсальны и масштабируются на любые программные системы. При таком темпе развития окно между публикацией уязвимого кода и его эксплуатацией будет только сокращаться, а значит, и разработчикам, и компаниям нужно уже сейчас адаптировать процессы безопасности к эпохе ИИ-аудита и ИИ-эксплойтов.