Облака — главные враги климатических прогнозов. Физика капитулирует… зато теперь ИИ готов взять реванш

Облака — главные враги климатических прогнозов. Физика капитулирует… зато теперь ИИ готов взять реванш

Машина делает за минуты то, на что у синоптиков уходят часы.

image

В октябре 2008 года климатолог Крис Бретертон взлетел с побережья северного Чили на турбовинтовом C-130. Было еще темно, песчаные холмы Атакамы внизу не просматривались, но его это не интересовало. Он сидел сразу за пилотами и смотрел не в иллюминатор, а в приборы: самолет был набит датчиками, крылья утыканы сенсорами. Задача на ближайшие часы — собрать данные о льде, водяном паре и давлении воздуха. Задача на годы вперед — разобраться с облаками, самым упрямым источником неопределенности в климатических прогнозах.

Во время одного из полетов самолет прошел рядом с кучевым облаком, и Бретертон заметил радужный отблеск, похожий на призму. Облако казалось слишком тонким для крупных капель, которые обычно дают такую рефракцию света. Позже он пришел к выводу, что воздух был необычайно чистым: водяной пар конденсировался в сравнительно большие капли, но на очень небольшом числе частиц. Такие встречи, по его словам, регулярно выбивали почву из-под привычных представлений о поведении облаков.

С тех пор прошло почти два десятилетия, и средняя температура планеты выросла примерно на 0,5 °C. Облака по-прежнему остаются главным источником разброса в прогнозах. Они одновременно отражают солнечный свет и удерживают тепло. Чтобы точно учесть их влияние, нужно моделировать мельчайшие структуры — от метровых облачных фрагментов до крошечных завихрений воздуха. Даже самые мощные суперкомпьютеры не способны встроить такие детальные цифровые облака в глобальные симуляции Земли.

Поэтому климатологи используют обходные пути. В основе современных моделей лежат уравнения гидродинамики Навье — Стокса, описывающие движение жидкостей и газов. Облака в них напрямую не просчитываются. Вместо этого добавляют специальные параметры — дополнительные члены в уравнениях, которые должны косвенно воспроизводить их влияние. Исследователи подбирают эти коэффициенты так, чтобы модель правильно описывала прошлый климат. Но данных о реальных облаках не так много, а часть решений опирается на интуицию. Разные группы получают разные наборы параметров, и сказать, какой из них лучше, непросто.

Именно из-за этой неопределенности Тапио Шнайдер из Калифорнийского технологического института в 2019 году создал альянс Climate Modeling Alliance, CLIMA. Цель — превратить подбор параметров из искусства в автоматизированную процедуру. Для этого нужно большое количество детальных данных о разных типах облаков: над Калифорнией, над Тихим океаном, зимой, летом. Реальные экспедиции вроде тех, в которых участвовал Бретертон, дают ценные наблюдения, но их мало.

Выходом стали так называемые large-eddy simulations, LES — высокодетализированные модели турбулентности в ограниченной области и на коротком промежутке времени. Они дают очень реалистичную картину облачной структуры, но требуют огромных вычислительных ресурсов. До недавнего времени существовали лишь десятки таких симуляций. Для обучения алгоритмов этого недостаточно.

Тогда Шнайдер обратился к Google. Инженер Шейде Чаммас и его коллеги переписали алгоритм LES с нуля под тензорные процессоры и запустили его на тысячах чипов. В итоге появилась библиотека из более чем 8000 цифровых облаков для 500 точек в Тихом океане во все четыре сезона. На основе этого массива команда CLIMA обучила алгоритм, который автоматически настраивает параметры в глобальной модели.

Зимой этого года модель CLIMA заработала полностью. Ее планируют представить на конференции в Японии. По предварительным тестам разработчики рассчитывают получить точность примерно вдвое выше, чем у предыдущих систем, по ключевым показателям. При этом они считают, что потенциал для дальнейшего улучшения остается.

Пока одна часть сообщества совершенствует физические модели, другая предлагает иной путь. Бретертон, который много лет работал с LES и наблюдал облака из кабины самолета, со временем пришел к выводу, что параметры никогда не передадут всей сложности процессов. В 2017 году он задумался: можно ли отказаться от уравнений Навье — Стокса и опереться напрямую на реальные атмосферные данные.

Подобная революция уже произошла в прогнозировании погоды. Еще несколько лет назад лучшие прогнозы строились на физических уравнениях. Затем физики и программисты применили подход из генерации видео: нейросеть учат на большом наборе кадров предсказывать следующий кадр. Если подать ей состояние атмосферы в полдень, она может выдать правдоподобное состояние вечером. Первые попытки были не слишком удачными, но к 2022 году несколько групп показали, что нейросетевые прогнозы погоды примерно на 10% точнее традиционных и работают быстрее.

В 2024 году команда Бретертона представила Ai2 Climate Emulator версии 2, ACE2. Это нейросеть, обученная на данных об атмосфере за последние 50 лет, дополненных симуляциями там, где наблюдения были неполными. Поскольку в этих данных уже присутствует влияние реальных облаков, модель учитывает их косвенно. Если подать ей «снимок» атмосферы, она может шаг за шагом просчитать состояние через шесть часов, затем еще через шесть и так далее. В получающихся сценариях возникают циклоны, внезапные стратосферные потепления и другие знакомые явления.

Британская метеослужба проверила ACE2 на горизонте одного сезона. Для периода в 23 года, начиная с 1993-го, система по температуре поверхности океана в одном сезоне предсказывала глобальную температуру и осадки через три месяца почти так же точно, как лучшие физические модели. При этом расчет занимал две минуты на одной машине, тогда как традиционная модель требовала часы работы на суперкомпьютере.

Главный вопрос — выдержат ли такие алгоритмы длинные горизонты, на десятилетия и столетия вперед. Нейросеть не знает законов физики в строгом виде, она их приближает. Малые ошибки могут накапливаться. Кроме того, климатические сценарии включают события, которых еще не было в истории наблюдений, а нейросети обычно сильны именно в воспроизведении уже виденных закономерностей.

При этом подходы начинают переплетаться. Некоторые группы обучают нейросети на результатах физических моделей, а затем используют их для сверхбыстрых расчетов. По оценке исследователей, такой способ дает ускорение в 100–1000 раз. Это важно, потому что задача климатологии не предсказать точную погоду в конкретный день через 30 лет, а оценить распределение возможных сценариев и понять, как выбросы углерода смещают это распределение.

Для самих ученых происходящее выглядит переломным моментом. Даже небольшое повышение точности в прогнозах температуры, осадков и штормов со временем дает ощутимую выгоду для планирования. За ближайшие десять лет, считают исследователи, представление о том, насколько предсказуема система Земли, может существенно измениться.

При этом все модели, старые и новые, сходятся в одном: выбросы углерода делают планету теплее и опаснее. Следующее поколение симуляций сможет точнее сказать, насколько именно теплее и насколько именно опаснее. Но ни одна из них не ответит на вопрос, как человечество распорядится этим знанием.