29 минут — столько теперь нужно ИИ-хакеру от первого проникновения до захвата всей сети

29 минут — столько теперь нужно ИИ-хакеру от первого проникновения до захвата всей сети

Теперь кибератаку буквально может запустить любой желающий.

image

В кибербезопасности давно идет одна и та же гонка: защитники закрывают дыру, атакующие ищут обходной путь, потом цикл повторяется заново. Теперь в гонку полноценно вошел генеративный ИИ. Еще недавно разговоры о нейросетях как об инструменте для реальных атак звучали скорее как предупреждение на будущее. Сейчас подтвержденных примеров становится все больше. Модели уже помогают злоумышленникам искать уязвимости, дописывать эксплойты и запускать фишинговые кампании в куда большем масштабе. Защита отвечает тем же и встраивает ИИ в свои инструменты, потому что без автоматизации за новым темпом уже не угнаться.

Перелом связан не с одной громкой атакой, а с падением порога входа в киберпреступность. Генеративные модели берут на себя часть работы, которая раньше требовала времени, опыта и большой команды. С ними проще разбирать инфраструктуру цели, быстрее писать и править код под конкретную задачу, удобнее дробить операцию на этапы и автоматизировать рутину. В результате даже сравнительно слабая группа может развернуть кампанию, для которой раньше потребовались бы куда более серьезные ресурсы.

Картина хорошо видна в недавнем отчете исследователей Amazon. Они описали кампанию, в которой злоумышленники использовали сразу несколько коммерческих сервисов генеративного ИИ для планирования, координации и ведения атак против организаций более чем в 55 странах. Речь шла о компаниях с неверно настроенными межсетевыми экранами. Активность зафиксировали в январе и феврале, а целями стали свыше 600 систем, защищенных устройствами FortiGate.

Сценарий был несложным, и в этом как раз главное. Злоумышленники искали открытые в интернете страницы входа, через которые можно попасть во внутренние сети компаний, а затем пытались авторизоваться с помощью учетных данных, которые пользователи часто применяют повторно. После успешного входа группа выгружала базы учетных записей и переключалась на резервную инфраструктуру. Всё это и правда можно считать тревожным признаком, потому что эта последовательность действий нередко предшествует атаке с использованием шифровальщика.

По данным Amazon, кампания в основном не достигла цели. Исследователи обратили внимание на другое: ИИ позволил сравнительно неопытной группе развернуть операцию масштаба, для которого раньше понадобились бы куда более серьезные ресурсы. Генеративные модели в подобных случаях работают как ускоритель. Дилетанта в сильного специалиста нейросеть не превращает, но помогает быстрее закрыть пробелы в навыках и резко увеличить объем работы, который группа способна выполнить.

Еще более наглядный пример пришел из Нью-Йоркского университета. Исследователь под именем PromptLock собрал полностью автономную атаку с использованием программы-вымогателя. До реального развертывания в криминальной среде дело не дошло: речь шла о proof of concept, демонстрации самой возможности. Но даже прототип показал, насколько далеко может зайти автоматизация.

Вредоносная программа использовала большие языковые модели, чтобы на лету генерировать код под конкретную задачу, искать на зараженной системе чувствительные данные и затем составлять персонализированные записки с требованием выкупа на основе найденной информации. Опасность здесь в другом: вредонос перестает быть жестко заданным набором команд. Вместо заранее подготовленного шаблона появляется система, которая подстраивается под обстановку уже по ходу атаки.

Параллельно меняется и скорость вторжений. По данным CrowdStrike, в 2025 году среднее breakout time сократилось до 29 минут. Термин обозначает промежуток между первым проникновением в сеть и дальнейшим движением злоумышленника по другим системам внутри инфраструктуры. Годом раньше показатель был на 65 процентов выше. Прямая связь с ИИ здесь не доказана, но общая тенденция видна и без дополнительных оговорок: атакующие двигаются заметно быстрее, а у защитников остается все меньше времени на обнаружение и сдерживание угрозы.

Отдельную тревогу вызывают случаи, когда генеративные модели используют уже не как помощника для отдельных задач, а почти как полноценный рабочий инструмент внутри большой операции. В ноябре Anthropic заявила, что обнаружила применение Claude Code в масштабной шпионской кампании, которую компания связала с китайской государственной группой. По данным Anthropic, злоумышленники использовали джейлбрейки, то есть специальные запросы для обхода встроенных ограничений модели, а саму операцию дробили на множество мелких подзадач, каждая из которых выглядела сравнительно безобидно.

Подход хорошо показывает, как меняется работа с ИИ. Вместо одного явно вредоносного запроса злоумышленники разбивают атаку на маленькие фрагменты, которые внешне не выглядят опасными. Модель получает отдельные части задачи, помогает на каждом шаге, а общий замысел собирается уже на стороне атакующего. Anthropic утверждает, что с помощью ИИ в кампании удалось автоматизировать от 80 до 90 процентов работы. По оценке компании, объем действий, который выполнила модель, потребовал бы от человеческой команды огромных затрат времени. На пике активности система отправляла тысячи запросов, иногда по нескольку в секунду. Для живой группы подобный темп был бы практически недостижим.

Но та же логика постепенно меняет и оборону. ИИ уже встраивают не только в продукты для анализа инцидентов, но и в инструменты, которые помогают заранее искать слабые места. В феврале Anthropic представила Claude Code Security - систему, способную проверять инфраструктуру на уязвимости и предлагать исправления. Полноценной заменой средствам оперативного реагирования инструмент пока не стал: в реальном времени останавливать вторжение он не умеет. Но уже сам анонс показал, куда движется рынок. После выхода новости, как сообщал Reuters, акции традиционных компаний из сферы кибербезопасности заметно просели.

Другие игроки идут тем же путем. CrowdStrike выпустила двух ИИ-агентов: один анализирует вредоносные программы и предлагает варианты защиты, второй ищет новые угрозы внутри систем. Darktrace тоже развивает инструменты, которые автоматически отслеживают подозрительную сетевую активность. Логика проста: если атакующие ускоряются за счет ИИ, защита без сопоставимой автоматизации начнет проигрывать хотя бы по скорости реакции.

Одно из самых перспективных направлений связано не с отражением атаки, а с ее контролируемой имитацией. Компания Aikido Security выпустила инструмент, который с помощью агентов проводит тестирование на проникновение для каждого нового программного продукта внутри компании. Иными словами, система ведет себя как атакующий: пытается найти слабые места, а затем помогает сразу их закрыть.

Для защитников польза здесь вполне практическая. Классический пентест требует редких специалистов, стоит дорого и занимает много времени. Из-за этого компании обычно проверяют далеко не все и далеко не с той частотой, которая действительно нужна. Если часть работы удастся передать агентам, проверка безопасности станет дешевле, регулярнее и доступнее для большего числа команд. В выигрыше окажется уже не тот, кто однажды провел глубокий аудит, а тот, кто может постоянно проверять новые сервисы и быстро исправлять найденные проблемы.

Что в итоге? Генеративный ИИ не отменил старую логику кибербезопасности, а резко ее ускорил. Атакующие получили инструмент, который помогает быстрее собирать кампании из готовых блоков, масштабировать фишинг, дописывать код и компенсировать нехватку квалификации. Защита получила способ чаще проверять продукты, быстрее разбирать вредоносные образцы и автоматизировать поиск уязвимостей. Преимущество достанется не тому, кто первым добрался до более сильной модели, а тому, кто быстрее встроит подобные системы в повседневную работу. От скорости перестройки все больше зависит баланс сил в новой фазе старой кибергонки.

FREE
100%
Кибербезопасность · Обучение
УЧИСЬ!
ИЛИ
ВЗЛОМАЮТ
Лучшие ИБ-мероприятия
и вебинары — в одном месте
ПОДПИШИСЬ
T.ME/SECWEBINARS