Всё о вычислительных центрах: как работает сердце интернета

Всё о вычислительных центрах: как работает сердце интернета

Каждый стриминговый фильм, облачное фото и запрос к нейросети проходит через сотни тысяч процессоров, спрятанных в сдержанных с виду ангарах из бетона и стали. Эти ангары называют вычислительными центрами — чаще звучит короткое слово дата-центр или аббревиатура ЦОД. Разберёмся, из чего они сделаны, где стоят самые большие площадки планеты, зачем городу собственный ЦОД и как долго они живут.

Что такое современный дата-центр

Дата-центр — это не просто комната с компьютерами, а целый организм. Он напоминает подводную лодку: всё дублировано, каждая система следит за соседней, а отработанное тепло используют, будто выхлоп эллинга. В классическом проекте на 10 000 м² полезной площади инженерные системы занимают едва ли не больше места, чем сами стеллажи с серверами.

Основные блоки дата-центра

1. Зал со стойками

Серверная стойка — это металлический шкаф высотой 42–52 U. Такие шкафы ставят в длинные параллельные ряды, образуя холодные и горячие коридоры:

  • Холодный коридор — фронтальная сторона стоек; из фальшпола через перфорацию подаётся охлаждённый воздух 18–22 °C.
  • Горячий коридор — тыльная сторона; вентиляторы серверов выдувают туда нагретый поток 35–45 °C, который по воздуховодам уходит к кондиционерам.
  • Расстояние между рядами рассчитано так, чтобы потоки не смешивались вихрями: иначе КПД охлаждения резко падает.

2. Электропитание

  • На вводе — кабель 6–10 кВ от городской подстанции или собственный трансформатор узла связи.
  • Понижающие трансформаторы дают стандарт 400/230 В трехфазного тока, который расходится по распределительным панелям (PDU).
  • UPS (бесперебойники) с литий-ионными батареями или суперконденсаторами держат нагрузку 3–7 минут — этого достаточно, чтобы дизель-генераторы вышли на номинал.
  • У площадок класса Tier IV дизели стоят в капсюлах-контейнерах, запаса топлива хватает минимум на 48 ч непрерывной работы.

3. Охлаждение

  • Компрессорные чиллеры с «free cooling»: когда наружный воздух холодней воды в контуре, компрессор выключается — экономия электроэнергии.
  • Иммерсионное охлаждение: серверные платы полностью погружают в диэлектрическую жидкость, тепло уходит напрямую в контур водяного теплообменника.
  • Direct-to-chip: к процессору прижат мини-радиатор, по которому циркулирует дистиллированная вода или диэлектрик; вентиляторы в сервере не нужны вовсе.
  • Такие «жидкие» схемы уменьшают расход вентиляции на ~20 % и снижают общий PUE.

4. Связь

  • Между стойками проложены оптические патч-корды 100–400 Гбит/с; на тестовых площадках — 800 Гбит/с.
  • Вся внутренняя топология строится по схеме Fat Tree — «утолщённое дерево»: каждый leaf-коммутатор подключён минимум к двум spine-узлам, поэтому выход из строя одного линка не рвёт виртуальные сети.
  • Для доступа во внешний мир — несколько независимых волокон к различным операторам, чтобы потеря одного магистрального канала не изолировала ЦОД.

5. Безопасность

  • На входе — биометрические турникеты; дверь-«капкан»: сначала закрывается первая створка, считывается карта и отпечаток, только потом открывается вторая.
  • Видеонаблюдение анализируется ИИ-модулем: распознаёт лица, движение и оставленные предметы.
  • Пожаротушение — инертный газ (азот или аргон): быстро вытесняет кислород до 15 %, тушит очаг, не заливая серверы водой.

Как классифицируют надёжность

Uptime Institute (сертификационный институт) делит ЦОДы на четыре уровня:

  • Tier I — один ввод питания, один контур охлаждения, плановые простои до 28 часов в год.
  • Tier II — избыточные источники UPS, но общая магистраль одна. Допустимый даунтайм — 22 ч.
  • Tier III — две независимые линии питания и охлаждения, любой модуль можно обслужить без остановки стойки. Даунтайм — 1,6 ч в год.
  • Tier IV — двойное резервирование всего, включая магистрали. Показатель доступности — «пять девяток» (99,995 %), плановый простой — 26 минут.

Где стоят крупнейшие дата-центры планеты

  • Inner Mongolia Information Park Чифэн, Китай. Серверная площадь превышает миллион квадратных метров, суммарная мощность — более гигаватта. На крыше установлены панельные поля на 150 МВт, а за стеной — газовая когенерация, дающая ещё 300 МВт и тепло для зимнего отопления города.
  • Switch Citadel Campus Рено, Невада. Площадка степной жары: 650 МВт ИТ-нагрузки охлаждают чиллеры с адсорбционными абсорберами, а питание идёт от солнечного кластера в пустыне и литий-железо-фосфатных батарей ёмкостью 1,2 ГВт·ч.
  • Keihanna Data Center Киото, Япония. Турбокомпрессоры direct-to-chip гонят охлаждённую воду напрямую к крышке процессора. Отработанное тепло используется для подогрева питьевой воды соседнего технопарка и системы таяния снега на тротуарах.
  • Boden Type DC One Лулео, Швеция. Эксперимент ЕС по сверхэффективности: благодаря арктическому воздуху PUE — 1,06. Зимой теплом площадки отапливается половина города, летом излишек уходит в рыбоводный комплекс.

Зачем вообще нужны вычислительные центры

Дата-центр — это промышленная «мастерская» для данных: там они хранятся, обрабатываются и раздаются по сети быстрее, чем человек успеет моргнуть. Без такой фабрики цифровые сервисы либо замедлялись бы до ползучей скорости, либо стали бы недоступны при первой же аварии. Вот какие сферы сильнее всего опираются на ЦОДы:

  • Интернет-услуги потребителя
    Фотография, которую вы только что выложили в соцсеть, сразу копируется минимум на три независимые площадки. Если один узел «упадёт», остальные мгновенно подставят копию — так ни один байт не теряется, а вы даже не замечаете сбоя.
  • Облачные платформы для бизнеса
    Стартап больше не обязан покупать стойку серверов за сотни тысяч долларов. Он за минуту «берёт в аренду» виртуальную машину и платит только за использованные часы. Когда клиентов становится больше, компания кликом добавляет ещё вычислительных ядер и памяти — масштаб происходит автоматически внутри дата-центра.
  • Наука и искусственный интеллект
    Климатические прогнозы, поиск лекарств, обучение языковых моделей — всё это требует десятков тысяч графических процессоров, работающих параллельно. Самостоятельно собрать такую ферму университету не по силам, но арендовать кластер GPU в облачном ЦОДе — вполне реально.
  • Финансы и биржевые сделки
    На фондовой бирже счёт идёт на миллисекунды: чем ближе сервер брокера к «мозгу» биржи (matching-engine), тем выше шанс совершить сделку по лучшей цене. Поэтому в дата-центрах биржи выделяют специальные зализы колокации — стойки стоят буквально в пяти метрах от торговых машин, и кабель доходит быстрее, чем моргнёт глаз.
  • Инфраструктура умного города
    Камеры считывают номер машины, датчики тепла фиксируют утечку, счётчик воды шлёт показания — все эти потоки сходятся в городской ЦОД. Там алгоритмы распознают лица нарушителей, балансируют тепловые сети и выставляют коммунальные счета, а гражданин видит всё единым сервисом в приложении.

Общее правило простое: чем быстрее сервису нужно реагировать и чем больше данных он «жонглирует», тем важнее надёжный вычислительный центр — с резервным питанием, холодными коридорами и круглосуточной командой инженеров.

Энергия и экология

Мировая индустрия дата-центров уже потребляет ≈ 3 % всей вырабатываемой электроэнергии. Чтобы не доводить и без того печальную ситуацию с экологией до предела, операторы переходят на зелёную генерацию и повторное использование тепла.

  • Возобновляемые PPA-контракты. Amazon, Google, Yandex заключают 15-летние договоры с ветропарками — строители получают гарантированный спрос, оператор — «зелёный» сертификат.
  • Тепловые кольцевые сети. В Хельсинки дата-центр выкидывает тепло в городскую теплотрассу, покрывая до 10 % зимнего спроса.
  • Местоположение на Севере. Facebook выбрал Лулео, Microsoft — норвежский Ставангер: большую часть года наружный воздух сам по себе подходит как холодильный агент.
  • Иммерсионное охлаждение. Серверы погружают в диэлектрическое масло: вентиляторы не нужны, теплопередача в 50 раз выше, из-за чего PUE падает до 1,07.

Как долго живёт дата-центр

Инженерное здание проектируют на 25–30 лет. Однако серверы внутри меняют каждые три-пять лет: новые чипы дают на 30 % больше «мегахэшей» при той же мощности. Сетевая инфраструктура обновляется волнами: сейчас идёт миграция с  10/25 Гбит на 100/400 Гбит. Полки хранилищ меняют HDD -> SSD, а «холодный» архив выносят на ленточные роботы или экспериментальные капсулы с ДНК-кодированием.

Почему городу полезен собственный ЦОД

  • Десятки высокооплачиваемых вакансий инженеров, операторов и охранной службы.
  • Налоговая база: крупная площадка перечисляет в местный бюджет миллионы рублей в год.
  • Низкая задержка для сервисов: онлайн-запись к врачу или школьная платформа работают быстрее, когда сервер стоит в двух кварталах.
  • Эффект кластера: вокруг ЦОДа растут студии разработки, IoT-стартапы, интеграторы виртуальной реальности.

Итог

Дата-центр — это электростанция данных. Здесь мегаватты электричества преобразуются в поток битов, а избыточные биты тепла — обратно в мегаватты обогрева города. На входе — киловатты серверов, на выходе — мгновенный доступ к почте, видео и нейросетевым моделям. Чем глубже уходит цифровизация, тем важнее эти «серые коробки» с ревущими вентиляторами, которые делают «облако» невидимым, а интернет — молниеносным.

вычислительные центры дата-центры интернет
Alt text
Обращаем внимание, что все материалы в этом блоге представляют личное мнение их авторов. Редакция SecurityLab.ru не несет ответственности за точность, полноту и достоверность опубликованных данных. Вся информация предоставлена «как есть» и может не соответствовать официальной позиции компании.

Красная или синяя таблетка?

В Матрице безопасности выбор очевиден.


Техно Леди

Технологии и наука для гуманитариев