0Day под заказ – это когда попросил ИИ и получил эксплойт. Google говорит, что это уже реальность.

Киберпреступники начали применять искусственный интеллект не только для написания фишинговых писем и вредоносных программ, но и для поиска уязвимостей нулевого дня. Google сообщила, что впервые зафиксировала случай, когда злоумышленники, вероятно, создали эксплойт с помощью искусственного интеллекта для будущей массовой атаки. Специалисты компании успели обнаружить проблему раньше, чем преступники начали эксплуатацию.
В отчёте Google Threat Intelligence Group говорится, что группировки из Китая и Северной Кореи активно используют большие языковые модели для анализа программного кода, поиска ошибок и создания эксплойтов. Для обхода ограничений злоумышленники заставляют модели играть роль аудиторов безопасности или специалистов по встроенным устройствам. В одном из случаев хакеры изучали прошивки маршрутизаторов TP-Link и реализацию протокола передачи файлов OFTP.
Google также обнаружила, что участники северокорейской группы APT45 отправляли моделям тысячи запросов для автоматической проверки известных уязвимостей и готовых эксплойтов. Хакеры одновременно тестировали инструменты OpenClaw и OneClaw в специально подготовленных средах с уязвимым программным обеспечением, чтобы повысить надёжность атак перед реальным применением.
Отдельное внимание в отчёте уделяется киберпреступной кампании, связанной с уязвимостью в веб-инструменте администрирования с открытым исходным кодом. Ошибка позволяла обходить двухфакторную аутентификацию при наличии действующих учётных данных. По данным Google, структура кода и характерные элементы сценария указывают на использование искусственного интеллекта при разработке эксплойта. Специалисты заметили в коде подробные обучающие комментарии, несуществующую оценку CVSS и типичное для языковых моделей оформление на Python.
В Google считают, что современные модели особенно хорошо справляются с поиском логических ошибок, которые традиционные сканеры часто пропускают. Вместо анализа повреждения памяти или некорректной обработки данных модели способны понимать замысел разработчика и замечать противоречия в логике проверки доступа.
Злоумышленники начали использовать искусственный интеллект и для маскировки вредоносного кода. Вредоносные программы CANFAIL и LONGSTREAM содержали большие объёмы бесполезного кода, созданного языковыми моделями для запутывания анализа. В LONGSTREAM специалисты нашли десятки бессмысленных проверок перехода на летнее время, добавленных только ради имитации легитимной активности.
Ещё один пример новой тактики – Android-бэкдор PROMPTSPY. Вредоносная программа использует Gemini для анализа интерфейса устройства и самостоятельного выполнения действий на экране. PROMPTSPY получает структуру интерфейса через специальные возможности Android, отправляет данные модели Gemini 2.5 Flash Lite и получает готовые команды – нажатия или свайпы. Бэкдор умеет перехватывать графические ключи и PIN-коды, а также блокировать попытки удаления приложения через невидимые элементы интерфейса.
Google отмечает, что злоумышленники постепенно переходят от обычного использования чат-ботов к автономным системам, которые способны самостоятельно проводить разведку, анализировать инфраструктуру жертвы и координировать инструменты атаки. Для таких задач применяются платформы Hexstrike и Strix, помогающие автоматически искать и проверять уязвимости.
Одновременно растёт число атак на экосистему искусственного интеллекта. Группировка TeamPCP, также известная как UNC6780, взломала несколько популярных репозиториев GitHub и внедрила вредоносные компоненты в пакеты для работы с языковыми моделями, включая LiteLLM. После компрометации злоумышленники похищали ключи AWS и токены GitHub из систем сборки, а затем передавали доступ операторам программ-вымогателей.
В Google считают, что разработчики пока успешно защищают сами большие языковые модели от прямого взлома, поэтому хакеры переключились на сторонние библиотеки, плагины и компоненты, связанные с искусственным интеллектом. Компания продолжает усиливать защиту Gemini, блокировать вредоносные учётные записи и использовать собственные модели для поиска и автоматического исправления уязвимостей.