try ai
科普
编辑
分享
反馈
  • 次网格参数化

次网格参数化

SciencePedia玻尔百科
核心要点
  • 气候和天气模型无法解析小于其计算网格的物理过程,这产生了一个“闭合问题”,使得参数化成为必需。
  • 次网格参数化是一种“模型中的模型”,它利用大尺度信息来估计未解析过程的集体统计效应。
  • 有效的参数化方案必须在物理上保持一致,守恒能量和质量等量,同时正确表示能量耗散。
  • 在“灰色地带”中,尺度分离的失效构成了一个重大的建模挑战,而使用机器学习的现代方法正在帮助解决这一问题。
  • 这个概念是跨学科的,在从冰川学、生物地球化学到大气科学等领域,它对于精确建模都至关重要。

引言

每个气候和天气模型都面临一个根本性的限制:它的分辨率。这些模型在一个网格上表示世界,但它们对任何小于其网格单元的物理过程都是“视而不见”的,例如单个的风暴云或海洋涡旋。然而,这些“次网格”过程对大尺度系统有着显著的集体影响。如果忽略它们,模型的预测将毫无用处。这就产生了一个关键的知识鸿沟,即所谓的“闭合问题”——模型如何仅利用其拥有的大尺度信息来解释一个看不见的世界所产生的影响?答案在于次网格参数化,这是一种巧妙的“模型中的模型”,旨在表示这些未解析现象的净影响。

本文探讨了这一基本建模技术的核心概念和深远影响。第一部分“原理与机制”深入探讨了闭合问题的物理和数学起源,介绍了如 K 理论等基础参数化策略,并讨论了诸如“对流灰色地带”和数据驱动方法新前沿等关键挑战。随后的“应用与跨学科联系”部分揭示了参数化在实践中的应用,它塑造了我们对从大气风暴和山脉引起的拖曳作用到冰盖动力学以及混合机器学习物理模型的兴起等一切事物的理解。

原理与机制

看不见的舞蹈:网格单元中的宇宙

想象一下,你正试图绘制整个国家的天气图,但你唯一的工具是一颗将整个国家看作一个模糊像素的卫星。你可以分辨出这个国家的平均亮度和颜色,但你错过了所有让天气变得有趣的东西:聚集在山脉上空的单个风暴云,沿海城镇的一缕阳光,山谷中旋转的风。这正是每个气候和天气模型所面临的根本挑战。

这些模型在一个计算网格上表示世界,这是一个由具有特定​​网格间距​​(用 Δ\DeltaΔ 表示)的方块组成的马赛克。一个典型的全球气候模型可能具有 100 公里的网格间距。它可以出色地捕捉大陆和海洋的宏伟轮廓,但它对任何小于其网格单元的物理过程都是“视而不见”的。一场雷暴、一缕海盐喷雾,或海洋表层的湍流混合,都属于​​次网格​​过程——这些现象在一个网格单元这个看不见的宇宙中生生灭灭。

那么,如果一个模型错过了这么多,它怎么可能准确呢?秘密在于,这些小尺度过程会留下一个大尺度的足迹。例如,无数微小海洋涡旋的集体效应,驱动了从赤道到两极的大量热量输送。模型不需要看到每一个涡旋,但它绝对必须解释它们的净效应。

当我们审视自然的数学定律时,这个挑战就变得显而易见了。考虑一个基本守恒定律,它描述某个量(如热量或化学示踪剂)的守恒,用场 ϕ\phiϕ 表示。描述其演化的方程涉及到流体的速度 u\mathbf{u}u。然而,模型无法处理真实的场 ϕ\phiϕ 和 u\mathbf{u}u,而只能处理它们的网格单元平均值,我们可以称之为 ϕ‾\overline{\phi}ϕ​ 和 u‾\overline{\mathbf{u}}u。当我们对控制方程进行平均时,我们遇到了一个数学上的障碍。两个场的乘积的平均值不等于它们平均值的乘积。具体来说,描述流体运动如何输送示踪剂的项 uϕ‾\overline{\mathbf{u}\phi}uϕ​ 不等于 u‾ϕ‾\overline{\mathbf{u}}\overline{\phi}uϕ​。

这个看似无害的数学细节揭开了一道鸿沟。我们解析的、平均化的世界的方程最终出现了一个依赖于未解析的次网格世界的项:

τΔ=uϕ‾−u‾ϕ‾\boldsymbol{\tau}_\Delta = \overline{\mathbf{u}\phi} - \overline{\mathbf{u}}\overline{\phi}τΔ​=uϕ​−uϕ​

这就是​​次网格通量​​。它代表了我们的模型无法看到的、旋转的次网格涡旋对我们示踪剂的净输送。这个项也被称为雷诺应力或次网格相关。它是机器中的幽灵,是未解析世界在解析世界留下的统计印记。由于我们的模型只知道 ϕ‾\overline{\phi}ϕ​ 和 u‾\overline{\mathbf{u}}u,它无法直接计算这个项。方程组是不闭合的。这就是著名的​​闭合问题​​,是复杂系统物理学中的一个核心困境。

为了继续前进,我们必须在解析和未解析的世界之间架起一座桥梁。这座桥梁就是​​次网格参数化​​:一套巧妙的规则,一个“模型中的模型”,旨在仅利用我们拥有的模糊、大尺度的信息来估计次网格舞蹈的影响。

搭建桥梁:闭合的艺术

参数化是我们试图将小尺度的物理学浓缩成一个简洁数学配方的尝试。最简单、最优雅的想法常常来自物理类比。一群混乱的次网格涡旋会做什么?它们会混合物质。它们将高热区域与低热区域混合,使一切变得平滑。还有什么其他物理过程能做到这一点?扩散。

那么,也许所有次网格湍流的净效应只是一种非常强大的扩散形式。这一见解引出了最简单、最著名的参数化类型,称为​​K 理论​​或​​一阶闭合​​。我们假定次网格通量从高浓度指向低浓度,与解析场的梯度成正比:

u′ϕ′‾≈−K∇ϕ‾\overline{\mathbf{u}' \phi'} \approx - K \nabla \overline{\phi}u′ϕ′​≈−K∇ϕ​

在这里,u′ϕ′‾\overline{\mathbf{u}' \phi'}u′ϕ′​ 是由速度脉动 u′\mathbf{u}'u′ 和示踪剂脉动 ϕ′\phi'ϕ′ 产生的次网格通量的常用表示法。KKK 项是​​涡动扩散系数​​,一个代表未解析湍流混合效率的参数。它不是像分子粘度那样的自然基本常数;它是一个表征未解析流状态的参数。

理解这种物理建模与​​数值离散误差​​有着根本的不同是绝对关键的。数值误差产生于在计算机上求解解析方程时所做的近似(例如,用有限差分近似导数)。而参数化则是关于表示那些从一开始就被过滤掉的未解析物理。即使你有一个零误差的完美数值方案,你仍然需要一个参数化方案,因为闭合问题是物理问题,而不是数值问题。

指导原则:物理定律必须成立

参数化不仅仅是任何数学公式;它必须是物理世界的好公民。它必须尊重自然的基本法则。

首先,也是最重要的,参数化不能凭空创造或消灭像质量或能量这样的量。这个性质,即​​守恒性​​,是至关重要的。我们可以在两个层面上考虑守恒。​​积分守恒​​意味着在全球范围内求和时,物质的总量是守恒的。这是一个最低要求。一个更严格、更理想的性质是​​点状守恒​​,它确保任何两个相邻网格单元之间的交换是完全平衡的,在界面处没有“泄漏”。设计满足这些守恒属性的参数化方案,尤其是在耦合不同模型组件(如大气和海洋)和不同网格时,是一个巨大的挑战。

其次,参数化必须遵守热力学。第二定律告诉我们,总的来说,系统倾向于更大的无序。在流体中,大尺度上有组织的动能通过一系列越来越小的涡旋级联向下传递,直到最终在分子水平上作为热量耗散掉。我们的次网格湍流参数化必须捕捉到这种净耗散效应。一个能够从无到有自发创造有组织能量的参数化将是一个不符合物理学的“永动机”。这个原则被称为​​能量一致性​​。例如,我们简单的 K 理论闭合,只要涡动扩散系数 KKK 是正的,就具有能量一致性。一个正的 KKK 确保通量总是“顺梯度”的,从而平滑解析的特征,并因此耗散它们的能量,这正是我们期望湍流所做的。

超越简单扩散:模型的层次结构

K 理论方法很优雅,但其核心假设是湍流是局部的和简单的。它假设空间中某一点的次网格涡旋只关心该点的大尺度梯度。但如果湍流具有更复杂的结构或对其近期历史有“记忆”呢?为了处理这个问题,建模者们已经开发了一整套更复杂的闭合方案。

例如,我们不只是从平均流中诊断涡动扩散系数 KKK,而是可以将次网格湍流的能量本身作为一个变量来处理。这导致了​​高阶闭合​​,它为一个称为​​湍流动能 (TKE)​​ 的量求解一个预报方程,通常表示为 e=12u′⋅u′‾e = \frac{1}{2}\overline{\mathbf{u}'\cdot\mathbf{u}'}e=21​u′⋅u′。然后,涡动扩散系数可以被设定为这个预测的 TKE 的函数,从而赋予湍流记忆,并允许更复杂的行为。更先进的方案甚至为次网格通量本身,或者为湍流量的整个概率密度函数 (PDF) 求解预报方程。

此外,许多关键过程,如雷暴,并非总是活跃的。它们是有条件的。积云的形成需要大气不稳定、有足够的水汽和抬升机制。针对这些过程的参数化方案通常具有两部分结构:

  1. 一个​​触发函数​​:一个无量纲的逻辑检查(例如,“对流可用位能是否大于零?”),作为一个开/关开关。
  2. 一个​​速率定律​​(或闭合项):一个连续函数,一旦过程被触发,就确定其强度(例如,对流质量通量)。

这种模块化设计使得模型能够表示许多重要的次网格现象的间歇性和条件性。

当桥梁崩塌时:“灰色地带”

参数化的整个概念都建立在一个脆弱但关键的假设之上:​​尺度分离​​。我们假设在模型解析的大尺度和它必须参数化的非常小的尺度之间,有一个清晰的区别,一个宽阔的鸿沟。

但是当这个假设被打破时会发生什么呢?考虑一个大约 5 公里宽的深对流云系。

  • 如果我们的模型网格间距是 Δ=100\Delta = 100Δ=100 公里,那么这个云显然是次网格的。我们必须对其进行参数化。
  • 如果我们的网格间距是 Δ=100\Delta = 100Δ=100 米,我们可以明确地解析出云的宏伟结构。我们不需要对其进行参数化。
  • 但是如果我们的网格间距是 Δ=5\Delta = 5Δ=5 公里呢?这个云系现在只有一个网格单元那么大。它既没有被完全解析,也不是完全的次网格。它处于一个建模的炼狱之中。

这就是臭名昭著的​​对流灰色地带​​。在这个范围内,模型的方程试图模拟云的结构,但由于分辨率太差,模拟效果很糟糕。与此同时,次网格参数化方案也试图表示这个云。两者可能会相互干扰,“重复计算”这个过程,或者相互冲突,导致不切实际的行为。模型的结果对网格间距的精确值变得病态敏感。这种尺度分离的失效是现代天气和气候建模中最大的挑战之一,是科学家们正在努力绘制的“未知领域”。

新前沿:学习未知

鉴于从第一性原理推导参数化方案的巨大困难,特别是对于像对流和云形成这样的复杂过程,一个新想法已经扎根:我们是否可以从数据中学习参数化方案?

这就是​​数据驱动参数化​​的前沿。使用能够明确解析次网格过程的高分辨率模拟,我们可以生成海量数据集。然后,我们可以使用机器学习工具,如神经网络,来学习从解析尺度变量(输入)到真实次网格效应(输出)的复杂映射。

这种方法开辟了令人兴奋的新可能性。例如,我们可以创建​​随机参数化​​。随机方案不是为次网格效应提供单一的、​​确定性​​的预测,而是提供一个概率性的预测。它承认对于相同的大尺度状态,混乱的次网格涡旋可能处于多种不同的配置中。通过在其输出中添加一个精心构造的随机分量,它可以表示系统的内在变率,从而产生更真实的模拟。

也许最强大的是,一些机器学习方法允许我们量化我们自身的无知。我们可以区分两种不确定性:

  • ​​偶然不确定性​​是物理系统中固有的、不可约减的随机性。它是次网格状态中仅从大尺度状态无法真正预测的部分。
  • ​​认知不确定性​​是我们的模型的不确定性。它源于用于学习的数据有限。当我们为模型提供更多数据时,这种不确定性应该会减少。

通过训练一个神经网络集成,我们可以将这两者分离开来。集成的平均预测给了我们最好的猜测,而集成成员之间的分歧则揭示了认知不确定性。当认知不确定性很高时,这是一个警示信号。它告诉我们模型正在其舒适区之外运行,对它从未见过的情况进行预测。这种说“我不知道”的能力不是弱点,而是一种深远的力量,它是朝着构建更稳健、更可信的地球模型迈出的关键一步。

应用与跨学科联系

在探索了次网格参数化的基本原理之后,我们可能会留下这样的印象:这是一种聪明但有些技术性的技巧——一个为我们计算网络中的漏洞打上的必要补丁。但如果止步于此,就如同学习了绘画中的透视法则却从未欣赏过一幅杰作。当我们看到这个概念在实践中发挥作用时,它的真正魔力才会展现出来。它不仅塑造了我们对大气的理解,还塑造了我们对整个世界的认知,从南极洲巨大的冰盖到一粒沙中的微观领域。它是一个统一的原则,跨越学科,将最宏大的尺度与最微小的尺度联系起来,迫使我们提出一个深刻的问题:我们如何明智而真实地表示我们所看不到的东西?

描绘大气:云、风暴与气候

在任何领域,参数化艺术的重要性都比不上对我们大气的建模。想象一下,试图在一张邮票大小的画布上绘制整个地球的肖像。你不可能描绘出每一根睫毛,每一缕发丝。相反,你会用更粗的笔触来暗示纹理和形态。这正是全球气候模型所面临的挑战。假设网格间距为 50 公里,一个网格单元就可以覆盖整个城市。然而,就在那个单元内,一个高耸的雷暴——一个几公里宽、搅动着热量和水汽的宏伟引擎——可能生生灭灭,却不为模型的眼睛所见。

简单地忽略这些风暴将是一场灾难。它们不仅仅是细节;它们是大气的循环系统,将大量的热量和水汽从地表输送到对流层上层。没有它们,我们模拟的气候将面目全非。这时,次网格参数化就作为我们的统计画笔登场了。一个对流方案并不试图画出一朵云。相反,它审视一个网格单元内的大尺度条件——温度、湿度、不稳定性——并计算出在那里可能繁盛的云团的集体效应。它回答的不是“这里有风暴吗?”而是“这个 50×50 公里的空气区域,由于其可能包含的风暴,应该经历多少加热和增湿?”

这种艺术的评判标准是其结果。如果参数化有缺陷,整个气候的肖像都将被扭曲。例如,如果一个模型的对流方案系统性地低估了这些次网格风暴的加热作用,那么该模型的热带地区将过于寒冷。这不仅仅是一个局部误差;热带冷偏差可以通过全球环流产生连锁反应,改变数千公里外的天气模式。我们可以通过进行收支分析来充当模型的“艺术评论家”。通过将模型的能量收支与高分辨率“真值”模拟的能量收支进行比较,我们可以精确定位偏差的来源。一个常见的发现是参数化加热项存在巨大亏损,这是直接指向对流方案缺陷的确凿证据。解决方案不仅仅是“调高热量”,而是开发更智能、具有尺度感知能力的参数化方案,这些方案要理解随着模型分辨率的变化,它们的角色也必须改变。

看不见的山脉的拖曳作用

看不见的影响力不仅限于云,还延伸到空气下方的地面。当风流过山脉时,它会在大气中产生涟漪,这些涟漪可以作为重力波垂直传播,就像溪流中石头下游形成的波浪一样。这些波携带动量,当它们在远高于平流层或中间层的地方破碎时,它们会释放动量,对大尺度气流施加强大的拖曳作用。

一个具有 100 公里网格的全球模型只能“看到”像喜马拉雅山脉或落基山脉这样最大的山脉。但是,那些无数较小的山脊、丘陵和崎岖的山麓都是次网格的,它们重要吗?答案是肯定的。这些未解析山脉的集体效应产生了大量的重力波拖曳,这对于产生真实的大气环流至关重要。

在这里,我们同样需要一个参数化方案——一个地形重力波拖曳方案——来解释这些看不见的波所造成的动量输送。随着我们的模型变得越来越强大,网格间距越来越小,更多的地形被明确解析。一座曾经是次网格的山脉,在模型的网格上变成了一个可见的特征。一个稳健的参数化方案必须是“尺度感知的”;它必须优雅地退后,只参数化仍然未解析的地形部分所产生的拖曳,以避免重复计算效应并对大气施加过度的制动。

一个充满未解析世界的宇宙

参数化次网格效应的原则是如此基础,以至于它几乎出现在地球系统科学的每一个角落。

在冰川学中,海平面上升预测中最关键和不确定的组成部分之一是海洋冰盖的稳定性。这些巨大的冰河流入海洋,最终从海床上抬升,形成漂浮的冰架。冰开始漂浮的精确位置被称为接地线。这个过渡是一个“刀刃”:一边是冰与基岩摩擦,产生巨大的摩擦力;另一边是冰自由漂浮,几乎没有基底拖曳。对于一个粗分辨率的冰盖模型来说,这种力的急剧变化发生在单个网格单元内部的某个地方。一个将整个单元视为接地或漂浮的天真模型将产生极不准确的冰流速率。解决方案是一个次网格参数化方案,它表示单元内的部分接地线,应用混合的边界条件来捕捉这个关键过渡区的物理特性。没有这个,我们预测南极洲和格陵兰岛未来的能力将受到严重影响。

同样的故事在生物地球化学世界中以完全不同的尺度重演。考虑一个沿海河口底部的沉积物。在一个反应输运模型中,一个厘米尺度的网格单元实际上是一个由无数微小微团聚体构成的宇宙,每个微团聚体只有几分之一毫米大小。这些团聚体并非惰性。周围水中的氧气扩散到它们的外壳,形成一个薄的好氧层,而它们的核心则保持缺氧状态。这就创造了一个次网格的氧化还原梯度。好氧层中的硝化细菌将铵转化为硝酸盐,然后硝酸盐扩散到缺氧核心,在那里的反硝化细菌将其转化为氮气。这整个耦合过程对氮循环至关重要,但它发生的尺度太小,无法被解析。为了捕捉其效应,模型必须使用一个次网格参数化方案,该方案能表示这些微观世界中扩散和反应的物理过程。

新的学徒:机器学习的加入

几十年来,参数化方案都是从物理理论和简化模型中费力推导出来的。这是一项极其困难的任务,常常被描述为一门艺术而非科学。但如果我们能直接从数据中学习一个参数化方案呢?这就是使用机器学习 (ML) 进行次网格建模的革命性思想背后的理念。

这个概念很优雅。我们可以运行一个非常昂贵的高分辨率模拟(比如云的大涡模拟),它能明确解析所有重要的运动。我们将这个模拟视为我们的“真值”。然后,我们可以将其输出粗粒化到我们气候模型的分辨率,并为每个粗网格单元计算大尺度变量的状态(我们的输入)和次网格运动的“真实”效应(我们的目标输出)。接着,我们训练一个机器学习模型,如神经网络,来学习从输入到输出的映射。本质上,我们是在训练一个“数字学徒”,它观察一个完美的模拟并学会模仿其次网格效应。

然而,一个纯粹由数据驱动的学徒可能是危险的。它可能在训练数据范围内进行插值时表现出色,但它没有天生的物理学理解。例如,它可能会创造或毁灭能量、水或动量,导致长时间的模拟变得不符合物理规律且不稳定。因此,研究的前沿在于创造混合机器学习-物理参数化方案。我们必须将物理学的基本定律——如能量、质量和位涡的守恒——直接构建到机器学习模型的结构或训练过程中。我们不仅仅是在训练一个学徒;我们是在给予它关于宇宙不可违背法则的严格教育。

机器中的幽灵:更深远的启示

次网格参数化的挑战所带来的影响,贯穿了计算科学实践的整个过程。

当我们在一个称为数据同化的过程中将模型与真实世界的观测数据结合时,我们不断地修正模型的轨迹。模型的预报与传入观测之间的差异被称为“新息”,它包含了丰富的信息。这部分新息部分是由于观测误差,但很大一部分是由于模型误差。次网格参数化是这种模型误差的主要来源。通过对一段时间内的新息序列进行统计分析,我们可以了解我们模型误差的特征——它的大小、空间相关性、时间记忆。这使我们能够设计一个随机参数化,它将次网格过程表示为一个结构化的随机过程,而不是一个单一的确定性值。在这个美妙的转化中,最初的误差来源变成了信息的来源,让我们能够描述我们无法解析的事物所固有的不确定性。

此外,参数化方案的本质可以改变我们计算机必须解决问题的数学结构。物理方案通常涉及尖锐的阈值:当湿度超过某个值时,对流方案可能会突然启动;或者在稳定的边界层中,湍流方案可能会被激活。这些“开/关”开关在底层偏微分方程的系数中造成了突然的、巨大的跳跃。这可能会完全卡住标准的数值求解器。这就像建造一个高性能引擎,然后试图用性能会自发改变的燃料来运行它。解决方案需要对引擎本身进行根本性的重新设计——转向更强大、更稳健的数值方法,如代数多重网格求解器,这些方法专门设计用来处理由我们的参数化方案引入的那种数学上的“敌意”。

这引出了一个最终的、宏大的策略问题,这是 Ockham 剃刀法则的现代体现。在给定的计算预算下,我们应该如何分配它?我们应该建立一个更精细网格的模型,明确解析更多的过程,但为模拟的其余部分留下更少的计算能力吗?还是我们应该使用一个更粗的网格,并将我们的预算投入到开发和运行一个更复杂、更精细、计算成本更高的参数化方案上?这不是一个哲学辩论;这是一个形式化的优化问题。我们必须寻求最小化总的模型误差,该误差包括来自离散化(网格)、来自参数化方案结构形式以及来自其参数不确定性的分量。在这个权衡的“帕累托前沿”上找到最佳平衡点,是设计下一代地球系统模型的终极挑战之一。

次网格参数化的故事是现代计算科学的缩影。它是一个关于雄心与妥协、物理直觉与数学严谨的故事。它告诉我们,要模拟世界,我们不仅要捕捉我们能看到的东西,还必须找到谦逊、智能且物理上一致的方法,来尊重那个广阔、复杂而美丽的未知世界。