内容一览:随着环境改变加重,近年来全球极点气候现象一再出现,精确猜测降水强度对人类以及自然环境都十分重要。传统模型猜测降水的方差较小,倾向小雨,对极点降水猜测缺乏。
关键词:极点气候 内隐学习 神经网络
本文首发于 HyperAI 超神经微信大众渠道~
受飓风「杜苏芮」影响,北京市从 7 月 29 日开端了连续多日的强降雨,部分地区为特大暴雨。极点强降雨导致了海河流域产生流域性较大洪水,门头沟、涿州等地产生了严重的洪涝灾祸。
据央视网 7 月 31 日报道,此次强降雨期间,北京已累计排蓄水超越 1000 万立方米,相当于排空了约 5 个颐和园昆明湖的水量,及时、精确、有效地猜测极点降水,能最大程度上减轻人员伤亡,削减气候灾祸带来的损失。
传统的气候模型参数化中缺少亚网格标准的云结构与安排 (subgrid-scale cloud structure and organization) 信息,这会对粗粒度分辨率下降水强度和随机性产生影响,导致无法精确猜测极点降水状况。哥伦比亚大学 LEAP 试验室运用全球风暴解析模仿与机器学习,创建了一种新的算法,处理了信息缺失的问题,供给了一种更精确的猜测办法。
现在,该研讨已发表于《PNAS》,文章标题为《Implicit learning of convective organization explains precipitation stochasticity》。
论文已发表于《PNAS》
论文地址:www.pnas.org/doi/10.1073…
准备工作:10 气候候数据+ 2 个神经网络
数据与处理
试验团队所用数据集是大气形式系统 (SAM) DYAMOND (DYnamics of the Atmospheric general circulation Modeled On Non-hydrostatic Domains) 第二阶段比较项目中模仿的大气环流动力学的一部分。这个项目对比模仿了北半球冬季的 40 天,试验人员将其中初始的 10 天作为模型的 spin-up,在后 30 天中随机抽取了 10 天作为练习集。
研讨人员挑选了适宜的数据,并将这些数据粗粒度 (coarse-grain) 划分为子域,等同于或可与 GCM-size 的网格。
接下来,为了供给练习、验证和测验数据集,团队将 10 天分为 6 天、2 天、2 天,别离用于练习、验证和测验,且只保留了降水大于阙值 (0.05mm/h) 的样本,以便只专心于降水强度 (intensity) 而不是降水的起因 (trigger) 。最终,样本总数为 108 个。
神经网络架构
在试验中,研讨人员运用了两个神经网络:传统模型 Baseline-NN(基准神经网络)与新提出的 Org-NN。
Baseline-NN 是一个全连接前馈神经网络 (full connected feed-forward network),学习率按代进行调整。作为传统模型,Baseline-NN 只能访问大规模变量并猜测降水。
Org-NN 含有一个自编码器,其编码器部分包括 3 个一维卷积层和两个全连接层。编码器的 input 是尺寸为 32 x 32 的高分辨率 PW (可降水,precipitable water)异常 (anomalie),output 为 org 变量,org 维度是该网络的超参数,研讨人员将其设置为了 4。解码器接纳 org 变量并对原始的高分辨率场进行重构,与编码器的结构恰好相反。Org-NN 的神经网络部分与 Baseline-NN 类似,只额外添加了安排潜在变量 (org) 作为其 input。
两者都运用 TensorFlow 2.9 版别实现,并运用 Sherpa 优化库对超参数进行了调优。
试验成果
试验团队对两个模型进行了预练习。为了评估神经网络的猜测功能,科研人员挑选了 R2,这是一种常用于量化回归模型功能的指标。核算公式如下:
传统模型 Baseline-NN
试验团队首先运用 Baseline-NN。下图展现当运用粗粒度的 PW、SST、qv2m 和 T2m 作为 input 时的降水可猜测性。其中,qv2m 与 T2m 用于向 Baseline-NN 供给边界层 (boundary-layer) 条件的信息。试验团队将粗粒度的 PW 分组,在每个组内对粗粒度降水的猜测值与实践值进行均匀,一起核算了落在每个分组内的粗粒度降水值方差。
PW:可降水,precipitable water SST:海面温度,sea surface temperature qv2m:近地表 2m 的比湿,near-surface specific humidity T2m:近地表 2m 空气湿度,surface temperature
图 1:PW bin 上粗粒度降水均匀值
虚线:实在的降水均匀值 橘线:猜测的降水均匀值 绿线:每个 PW bin 中核算出的 R2 阴影部分:每个分组内的方差
Baseline-NN 精确地恢复了降水均匀值(即分组的均匀值)在 PW 条件下的关键行为,以及在临界点邻近出现的快速转变。可是,试验团队发现它无法解释全球暴风模仿中观察到的降水变异性,而且其功能(经过所有样本的 R2 值估计)约为 0.45。低 R2 值表示,尽管可以捕捉到一些降水变异性,可是无法找到 input 与降水之间的强关系,且每个 PW bin 核算的 R2 值也未超越 0.5。
与此一起,试验团队还将 Baseline-NN 所猜测的降水的概率密度函数与实践降水做比较,显现该模型无法猜测降水散布的尾部 (tail) ,即无法猜测极点降水的状况。
图 2:降水的概率密度函数示意图
蓝色部分:实在降水的概率密度函数 橙色部分:依据猜测所得降水的概率密度函数
研讨人员还将在粗粒度上的总云量作为神经网络的 input 之一,对 Baseline-NN 进一步测验。总云量在气候模型中为参数化变量,与降水无直接关系,所以将其作为神经网络的输入可能会供给有关凝结水的头绪,而凝结水会直接用于降水的参数化。这其实对猜测改进的作用很小,可是强调了均匀云量并不能供给精确猜测降水的相关信息。此外,试验团队经过进一步分析,证实了 CAPE 与 CIN 不能作为猜测因子,且不能改进猜测成果。
图 3: 降水概率密度函数图
蓝色部分:实在降水概率密度函数 橘色部分:猜测得出降水概率密度函数 a:input 为 [PW、SST、qv2m、T2m、感热通量(sensible heat flux)、潜热通量(latent heat flux)] b:input 为 [PW、SST、qv2m、T2m、总云量] c:input 为 [PW、SST、qv2m、T2m、CAPE、CIN]
结论是 Baseline-NN 在精确猜测降水以及变异性方面才能较低。
新模型 Org-NN
试验团队接下来推翻了传统办法,即使用 Org-NN进行猜测。由于 Org-NN 含有一个自编码器,它可以直接从神经网络的目标函数经过反向传播接受反馈。因而,自编码器将可以被迫提取改进降水猜测的相关信息。
下图显现了以粗粒度变量和 org 作为输入的 Org-NN 的降水猜测成果。比较于 Baseline-NN,Org-NN 的前进明显。当在所有数据点上进行核算时,猜测的 R2 增加到 0.9。对于 PW 的每一个区间,除了降水较小的区间,核算得到的 R2 值简直都挨近 0.80。
图 5: Org-NN 猜测成果图
D:PW bin 上粗粒度降水均匀值 E:降水的概率密度函数示意图 F:图 D 中每个纬度和经度方位在时间步长上核算得出的 R2 值。图中的白色区域表示降水小于 0.05 毫米/小时,被排除在模型的输入之外。除未到达降水阈值的点的邻近区域外,Org-NN 在大部分区域的 R2 值明显高于 0.8。
试验团队比较了 Org-NN 和高分辨率降水模型的实在降水的概率密度函数,对 Org-NN 的功能进一步量化。成果发现,Org-NN 完全捕捉到了概率密度函数,包括它散布的尾部,也便是对应着极点降水的部分。这说明 Org-NN 能够精确猜测极点降水的状况。
试验团队所得成果表明,经过将 org 归入 input,降水猜测得到了明显的改进。这表明了,在当前的气候模型中,亚网格标准结构可能是对流和降水参数化缺失的重要信息。
试验流程总结
图 6: 试验流程概览
A:数据处理过程:粗粒度化高分辨率数据 B:Baseline-NN:该网络接纳粗标准变量 (如 SST 和 PW) 作为 input,并猜测粗标准降水。 C:Org-NN : 左图显现了主动编码器,它接纳高分辨率 PW 作为 input,并在经过瓶颈后对其进行重建。右图显现了猜测粗标准降水的神经网络。
传统气候模型变革在即
本次试验的团队来自 Learning the Earth with Artificial Intelligence and Physics (LEAP),这是哥伦比亚大学于 2021 年启动的 NSF 科学与技能中心,其主要研讨策略便是结合物理建模与机器学习,使用气候科学、气候模仿的专业知识与尖端的机器学习算法,改进近期气候猜测。这对气候科学与数据科学的开展都有所增益。
LEAP 试验室部分成员简介
|试验室官网:leap.columbia.edu
现在,研讨人员正在将他们的机器学习办法应用于气候模型中,以改进降水强度和变异性的猜测,并使科学家能够在全球变暖布景下,更精确地猜测水循环和极点气候形式的改变。
一起,这项研讨还拓荒了新的研讨方向,例如探索降水具有回忆效应的可能性,即大气保留有关最近气候条件的信息,从而影响后续的大气条件。这种新办法可能在降水模仿之外具有广泛的应用,如对冰盖和海洋表面进行更好的模仿。
本文首发于 HyperAI 超神经微信大众渠道~