Подробный разбор пяти фаз сценарного трафика и ключевых метрик производительности
Представим, что у вас в распоряжении новый физический или виртуальный межсетевой экран. В маркетинговых материалах указаны впечатляющие показатели: «до 100 Гбит/с», «миллион соединений в секунду» и другие внушительные цифры. Стоит ли принимать их на веру? Разумеется, нет. Необходимо разместить устройство в лабораторных условиях и проверить соответствие заявленным характеристикам. Для этого существует бенчмаркинг — не единичная проверка доступности, а структурированное тестирование, где каждый показатель несёт конкретную информационную ценность.
Ниже — разбор методики RFC 9411. Расскажем, зачем нужны пять фаз трафика, какие метрики обязательны, какие опциональны, что делать с ними на практике и как потом объяснить результаты руководству. С примерами, рекомендациями и ответами на частые вопросы.
Ранее межсетевые экраны проверяли подобно грузовому транспорту: просто подавали линейный поток пакетов и наблюдали за целостностью передачи. Современные устройства функционируют на уровнях гораздо выше IP: они анализируют TLS, выявляют вредоносное ПО, взаимодействуют с облачными системами анализа. Для корректной оценки их производительности необходим реалистичный, сценарный поток данных: эмуляция веб‑браузеров с контролируемой активностью, разнообразные размеры файлов, различное соотношение шифрованного трафика, иногда — моделирование взаимодействия с социальными сетями.
Именно поэтому в RFC 9411 определены пять чётких фаз. Они отражают динамику реального трафика, который имеет периоды активности и затишья, а не поступает постоянным непрерывным потоком.
Что происходит. Генератор и DUT обмениваются служебными пакетами (ARP, ND, LLDP), формируют таблицы MAC и инициализируют маршруты. Если вы используете эмуляцию браузеров, именно здесь каждому виртуальному клиенту назначается IP‑адрес, TCP‑порт и даже «User‑Agent».
Сколько ждать. Практика показывает: 5 – 10 с достаточно, чтобы проверки ARP‑кэша стабилизировались, особенно в виртуальных средах. В физическом оборудовании с медленными SFP+ модулями иногда требуется до 30 с — рекомендуется интерактивно контролировать счётчик link‑up.
Потенциальные проблемы. Если пропустить Init на кластерном межсетевом экране, возможна несинхронизация сессионных таблиц: первая половина ramp‑up будет обрабатываться через активный узел, вторая — через резервный, что приведет к потере пакетов.
Рекомендация. Активируйте в логах DUT фильтр «Learning state». Как только прекратится появление новых MAC-адресов — можно переходить к следующему этапу.
Задача — вывести поток на целевой уровень с линейным, ступенчатым или экспоненциальным ростом без резких скачков. Понятие «мягко» зависит от масштаба: для 10 Гбит/с достаточно 10 с, а для 400 Гбит/с — рекомендуется длительность 30 – 40 с, чтобы избежать переполнения очереди ASIC.
Почему не снимаем метрики. DUT в этот момент активно создаёт сессии, заполняет кеш DPI‑сигнатур, выполняет криптографические операции SHA‑256 для TLS. Показатели будут нестабильными, что может привести к ложноотрицательным результатам. График CPS при ramp‑up полезен только для отладки: убедитесь, что повышение нагрузки происходит равномерно.
Реальный пример. При тесте NGFW резкий скачок с 0 до 100 % за 2 с приводит к потере 0,3 % пакетов. После распределения нагрузки на период 15 с потери отсутствуют, sustain стабилен.
Минимум 5 минут. Почему не меньше? Некоторые механизмы, такие как TCP slow‑start, циклы обновления CRL или автоматическая перегрузка IPS‑сигнатур, проявляются через 2 – 3 мин. Краткосрочный тест не зафиксирует эти явления.
Частота выборки. 1 с — оптимальный вариант; 2 с — допустимый максимум. Это позволяет наблюдать нестабильность сессионной таблицы и пиковые значения TTFB. Записывайте минимум, среднее и максимум: иногда именно единичный выброс до 500 мс критически влияет на пользовательский опыт.
Следите за steady‑state. Стабильный уровень Throughput ± 5 %, CPS ± 10 %, потерь < 0,001 %. Если наблюдается отклонение от этих параметров, это требует детального анализа. Например, постепенное увеличение TTLB может свидетельствовать о медленном исчерпании буферов.
Как снижаем. Зеркально отражаем процесс ramp‑up, но в обратном направлении. Закрываем сессии FIN/ACK, а не RST. В противном случае DUT маркирует соединение как «abnormal», нарушает сбор статистики, а график приобретает нерегулярную структуру.
Зачем это нужно. Позволяет наблюдать, как устройство освобождает ресурсы. Если при 100 k FIN в секунду межсетевой экран демонстрирует нестабильность, то в реальных условиях при сбое канала клиентские подключения также будут завершаться некорректно — важно выявить эту проблему заранее.
Дополнительное преимущество. Некоторые NGFW переключаются в режим fail‑open при массовом потоке FIN. Ramp‑down позволяет оценить риск возникновения уязвимости в политике безопасности.
Автоматическая агрегация. Большинство инструментов тестирования (BreakingPoint, TRex, IxLoad) поддерживают автоматическое формирование сводных отчётов. Однако рекомендуется сохранять данные в формате .csv
— часто требуются специфические метрики (например, Вт/Гбит).
Чек‑лист отчёта:
После сбора — переводим DUT в состояние покоя (3-5 мин без нагрузки) перед новой итерацией, чтобы предыдущие сессии были полностью закрыты, а кеши вернулись в исходное состояние.
Документ RFC 9411 определяет их как ключевые контрольные точки (benchmarks). Если хотя бы одна отсутствует в отчёте, анализ нельзя считать полноценным: это сравнимо с ситуацией, когда при медицинском обследовании измеряется температура, но игнорируются пульс и давление.
ClientHello → Finished
в единицу времени.
Эти шесть показателей обеспечивают полное представление о работе устройства: пропускную способность (Inspected Throughput), устойчивость по числу одновременных сессий (Concurrent Connections), скорость установления новых соединений (Connections per Second), успешность транзакций прикладного уровня (Application Transactions per Second), эффективность обработки шифрованного трафика (TLS Handshake Rate) и задержки ответа пользователю (Time to First/Last Byte). Без любой из этих метрик итоговый тест‑отчёт будет неполным.
Допустим, тестируется межсетевой экран «Х». Моделируем нагрузку: 75 % HTTPS, 25 % HTTP. В фазе sustain наблюдаем:
Увеличиваем процент HTTPS до 90 — Throughput снижается всего на 4 %, а CPS — сразу на 30 %. Следовательно, ограничивающим фактором является создание TLS‑прокси, а не пропускная способность. Решение: активировать аппаратный ускоритель или уменьшить глубину DPI.
• При использовании аппаратного тестера: проверяйте, не достигает ли он собственных предельных значений. Рекомендуется выполнить «эталонный тест» без DUT: запустить идентичный профиль трафика напрямую. Если тестер обеспечивает 22 Гбит/с, а вы планируете оценить межсетевой экран на 25 Гбит/с — корректное тестирование невозможно.
• Для виртуальных тестеров: убедитесь, что vSwitch не ограничивает пропускную способность пакетов. В некоторых случаях тест демонстрирует нестабильность из-за лимита vNIC в 10 Гбит/с.
Тестовая лаборатория в виртуальной среде. Hyper‑V + виртуальный генератор трафика. При достижении 15 Гбит/с наблюдаются потери пакетов. После переключения сетевого адаптера на SR‑IOV потери исчезают, throughput увеличивается до 19 Гбит/с. Вывод: необходимо анализировать не только DUT, но и инфраструктуру тестирования.
Необработанные цифры предоставляют ограниченную информацию. Гораздо важнее, как они изменялись во времени: любые аномалии, задержки или необычные плато указывают на потенциальные узкие места.
FIN_WAIT_2
;503
или задержки в SQL‑запросах.Качественный отчёт содержит не только численные данные, но и краткое аналитическое заключение, объясняющее причины наблюдаемых явлений. Рекомендуемый формат:
Сценарий: трафик 80 % HTTPS, 20 % HTTP, объект 64 KB.
Результат: Inspected Throughput достиг 18 Гбит/с, но CPS снизился на 30 % спустя 3 мин.
Причина: лимитирующим фактором стал TLS‑прокси: заполнение очереди на аппаратный криптомодуль достигало 85 % (ssl_proxy_queue_full
в логе). TTFB увеличился до 250 мс, TTLB сохранил стабильность — инспекция контента не оказывает существенного влияния. После деактивации глубокого анализа (IPS + AV) CPS вернулся к исходному уровню, Throughput возрос до 19,6 Гбит/с.
Обязательные компоненты:
.csv
с исходными данными (интервал ≤ 2 с) — необходим для дополнительных расчётов, например, средней пакетной нагрузки PPS или энергоэффективности в ваттах на гигабит.Такой отчёт понятен даже специалисту, не являющемуся экспертом в области бенчмаркинга: он видит не только результаты, но и причинно-следственные связи.
TTFB показывает, как быстро сервер инициировал ответ, TTLB — сколько времени потребовалось для передачи всего объекта. Разница выявляет узкие места после инициализации: шифрование, компрессию, задержки дисковой подсистемы.
Технически это возможно, но таблицы соединений в DUT могут остаться заполненными частично закрытыми сессиями, что приведёт к искажению результатов последующего теста. Непродолжительный период плавного снижения нагрузки (3-5 секунд) предотвращает эту проблему.
RFC рекомендует 1, 16, 64, 256 КБ и комбинированные варианты. Практический совет: адаптируйте соотношение размеров к вашему реальному трафику (анализ логов фронтенд‑серверов будет полезен) — это приблизит результаты к реальным условиям эксплуатации.
Методология аналогична, но необходимо фиксировать специфические метрики QUIC: quic_conns
, quic_cwnd
, quic_loss
. Соединения завершаются механизмом «immediate close», а не FIN/ACK, что влияет на характер графика CPS.
Если цель — объективно продемонстрировать производительность устройства в реальных условиях эксплуатации — да. Если задача — сравнить базовую производительность оборудования, допустимо деактивировать некоторые функции. Ключевой принцип — прозрачность: все особенности конфигурации должны быть детально отражены в отчёте.
.csv
) после завершения теста.В Матрице безопасности выбор очевиден