
地球大气是一首跨越无数尺度的混沌交响曲,从横跨行星的急流到单一云层内的湍流漩涡。虽然我们可以写下支配这些运动的物理定律,但我们的计算机模型面临着一个根本性的限制:它们无法看到一切。关键的天气现象,特别是作为大气垂直输送热量和水汽主要引擎的冲天雷暴,其尺度通常小于天气或气候模型的单个网格。那么,模型如何能解释它无法明确看到的现象所产生的强大影响呢?这正是对流参数化要解决的核心挑战。没有它,我们的预报将对驱动天气和气候的最重要过程之一视而不见。
本文深入探讨了这一关键的科学挑战。第一章“原理与机制”将阐述基本的“闭合问题”,并探讨为解决该问题而发展的两种主要哲学:对流调整和质量通量方案。我们将考察这些方法如何试图捕捉不可见的风暴所产生的影响。随后,“应用与跨学科联系”一章将展示这些参数化方案对从日常天气预报、飓风强度预测,到我们对 El Niño 等长期气候模式乃至遥远系外行星大气的理解所产生的深远影响。
在我们构建地球大气数字孪生的征程中,我们遇到了一堵墙。我们的模型,其网格宽度达数十公里,太粗糙以至于无法看到雷暴。因此,我们必须告诉模型雷暴做什么,而不是向它展示雷暴是什么。这便是对流参数化的艺术与科学。但是,我们究竟该如何为我们看不到的事物制定规则呢?这不仅仅是一个编程问题,这是一个关于不同尺度下物理定律本质的深刻问题。
想象一下,你试图用一个网格来描述水如何流过海绵,而每个网格都比海绵本身要大。你无法看到单个的孔隙或水流所经的复杂路径。但你知道,如果你在顶部倒水,水会从底部滴落,海绵会变得更重。即使细节被隐藏,净效应是清晰的。你将不得不创建一个规则——一个参数化——它会说:“对于包含海绵的网格,如果加入了水,一定量的水将被向下输送并储存起来。”
这正是天气预报员计算机模型所处的困境。流体运动的基本方程,即 Navier-Stokes 方程,是优美而精确的。但它们也是非线性的,这是物理学家对“极其复杂”的一种礼貌说法。当我们将这些方程在一个大的模型网格上进行平均——一个称为滤波的过程——一个之前不存在的幽灵项便出现了。对于像水汽这样的量,这个项看起来像是 。
让我们把这个从数学语言翻译过来。变量 是垂直风速, 是水汽量。顶部的横杠表示“整个网格的平均值”,而撇号(')表示“在网格内某点与平均值的偏差”。所以, 代表了风的脉动和水汽的脉动的乘积在网格内的平均值。
想象一个雷暴。在风暴内部,一股强大的上升气流( 很大且为正)携带了巨量的水汽( 很大且为正)。在网格的其他地方,即风暴之间的晴空区域,微弱的下沉运动( 很小且为负)发生在较干燥的空气中( 很小且为负)。即使整个网格的平均垂直风速为零,乘积 在风暴中是强正值,在其他地方则接近于零。因此,平均值 是一个很大的正数。它代表了风暴对水汽的强大净向上抽运,这一过程对于网格平均风速 来说是完全不可见的。
这个项就是机器中的幽灵。它是未解析风暴留下的数学足迹。因为它是两个未知的次网格量的乘积,模型无法直接计算它。这就是著名的闭合问题。对流参数化的全部目的就是提供这种闭合——创建一个配方,根据模型能看到的网格平均变量(如平均温度 和平均水汽 ),来告诉模型这个幽灵般的输送量 的值。
人们如何着手编写这样的配方呢?几十年来,出现了两种宏大的哲学,每一种都有其直观的吸引力。它们代表了两种不同的思维方式,关于大尺度天气与其孕育的小尺度风暴之间的关系。
第一种哲学也许是最直接的。想象一个高高的水箱,你在底部小心地铺设了温暖的淡水,顶部则是冷的、咸的、密度大的水。会发生什么?这种状态是极不稳定的。水箱不会静静地待在那里;它会爆发成一团湍流的混乱,直到整个水柱混合均匀,密度从上到下都一致。
这就是对流调整的核心思想。大气也可能发现自己处于类似的不稳定状态,即温暖、湿润、有浮力的空气被困在地面附近,上方是较冷、密度较大的空气。这种不稳定性是雷暴的燃料,我们可以测量这个量并称之为对流有效位能 (CAPE)。一个调整方案会审视一个网格中的气柱并提问:“它是否不稳定?”如果答案是肯定的,它就会像一个伟大的均衡器一样行动。它会宣布:“这种状态不能持续!”然后在数学上几乎瞬间地将温度和水汽廓线混合到一个新的、完全稳定和中性的状态——一条“湿绝热线”。它把这当作一个纯粹的记账练习,确保在此过程中总柱能量和总水量守恒,就像我们的水箱在混合过程中总盐分和总热量守恒一样。
当然,“瞬间”有点太剧烈了。更精细的版本,如 Betts-Miller 系列方案,并不把调整看作一把大锤,而是一根强力弹簧。该方案在一个特征弛豫时间 内,将大气推回到中性状态。CAPE 的移除速率变得与存在的 CAPE 量成正比,遵循一个简单的指数衰减定律。一个小的 意味着一个非常刚硬的弹簧和一次激进、快速的调整。这个概念体现了准平衡的思想:即快速、小尺度的对流是大尺度天气缓慢变化的奴隶,不断地、高效地移除大尺度流场试图建立起来的任何不稳定性。
第二种哲学采取了一种更“机械”的观点。它不是仅仅强制执行最终的稳定状态,而是试图模拟达到该状态的过程。它不是只看到海绵变湿,而是试图模拟水流过几个有代表性的孔隙。
这就是质量通量参数化的基础。该方案在网格中填充了一支理想化的次网格羽流军团——代表真实、混乱风暴云的上升气流和下沉气流。这个故事中的核心角色是对流质量通量 ,它代表在给定高度 所有上升气流向上提升的总空气质量。如果我们能计算出 以及羽流内部空气的属性,我们就能计算出热量、水汽和动量的净输送。
一个上升的羽流不是一个孤立的电梯;它更像一根漏水的高压水管。当它向上喷射时,它会从周围环境中吸入空气。这被称为夹卷,用一个速率 表示。它也会将空气释放回环境中,这个过程称为出流,速率为 。我们可以写下简单而优雅的方程来描述羽流的质量通量及其属性(如其内部水汽 )如何随高度变化:
第一个方程告诉我们,当夹卷超过出流时,质量通量会增长。第二个方程更加优美:它表明,羽流的水汽浓度随其上升而发生的变化,完全是由夹卷环境空气(水汽为 )驱动的。夹卷稀释了羽流,削弱了其浮力,并最终决定了风暴能长多高。
这又把我们带回了闭合问题,但形式更具物理意义。我们如何确定对流的总体强度,即云底的质量通量 ?许多方案,如影响深远的 Kain-Fritsch 方案,将其与雷暴燃料 CAPE 联系起来。闭合假设是,对流的强度 将恰好足够强,以在给定时间(如一小时)内消耗掉大部分可用的 CAPE。那么是什么点燃了这些燃料呢?一个触发机制。该方案首先检查一个从地表抬升的气块是否能克服任何初始的大气“盖子”或障碍(即对流抑制,CIN),然后才能开始向上加速。正是这种触发机制将对流与地球表面的日加热和冷却循环耦合起来,从而解释了为什么雷暴经常在午后时分在陆地上爆发。
这两种哲学在半个世纪以来一直是天气和气候模拟的基石。但随着计算机变得越来越强大,我们的模型网格越来越小,我们正在进入一个充满挑战的新领域,我们旧的假设开始失效。
当我们的网格从 100 公里缩小到比如说 4 公里时,会发生什么?我们的海绵类比变了。我们不再是在一个远大于孔隙的尺度上观察;我们现在处于一个几乎可以看到最大孔隙,但较小孔隙仍然隐藏的尺度。这就是对流灰区。
在这个区域,尺度分离的基本假设——即对流相对于网格来说是微小而快速的——被打破了。模型自身的动力学开始在网格尺度上产生粗糙、不切实际的上升气流。如果我们传统的参数化仍在全速运行,它也会试图产生对流。结果是“双重计算”,这是一种混乱的状态,模型的动力学和物理过程相互冲突,都试图做同样的工作[@problem_-id:4081157]。
优雅的解决方案是使参数化尺度感知。该方案需要知道它所处的网格大小。随着网格变细,参数化必须学会退后,让模型的解析动力学接管。一个优美的形式化方法是想象对流的总能量被划分为一个解析部分和一个未解析部分。参数化的强度可以与未解析能量的分数 成正比。随着网格间距 缩小,模型解析了更多的能量, 趋于零,参数化便优雅地淡出。这一原则还要求不同物理包之间有更紧密、更统一的耦合,以确保,例如,微物理方案(处理云滴)和对流方案不会试图对同一水汽分子进行两次凝结。
还有一个最终的、深刻的问题。我们的参数化,无论多么复杂,都是确定性的配方。给定相同的输入,它们产生相同的输出。但真实的大气是如此可预测吗?次网格世界是一个充满湍流、混沌运动的大锅。两个看似相同的真实世界区域可能会产生截然不同的对流结果。
随机参数化是试图正视这种内在随机性的一种尝试。它不是使用固定的配方,而是在方案中注入有物理动机的、结构化的噪声。例如,方案可能会从一个概率分布中抽取触发阈值,而不是使用固定的阈值。它可能会使用一系列的夹卷率来代表一个多样化的羽流群体,而不是单一的夹卷率。
其效果是变革性的。模型的行为展现出更逼真的“纹理”。它允许即使在大尺度条件看起来只是勉强有利时,风暴也有可能出现,这是真实世界天气的一个关键特征。它平滑了确定性方案中尖锐的“开/关”开关,在大尺度状态和对流响应之间创造了更连续、更概率性的关系。关键是以一种物理上有意义的方式引入随机性——扰动方案的输入,而不仅仅是在输出上添加噪声——这确保了在每个随机实现中,能量和质量守恒的基本定律始终得到尊重。这种对不确定性的拥抱并非承认失败;它是一种更诚实、更强大的方式来表示我们大气的复杂现实,特别是对于旨在描绘所有可能天气未来的集合预报这一至关重要的任务。
从强制稳定性的简单想法到尺度感知、随机羽流的复杂舞蹈,对流参数化的故事见证了科学家们在应对自然界最根本挑战之一时的独创性:表示不可见之物的深远而强大的影响。
在经历了对流参数化错综复杂的机制之旅后,你可能会留下一个完全合理的问题:“这一切都很巧妙,但它有什么用?”事实证明,答案与天气本身一样广阔和多样。表示不可见的对流世界的挑战并非某个深奥的学术难题;它是支撑我们预测天气、理解气候变化、甚至窥探我们世界之外大气层能力的核心支柱。在这里,理论付诸实践,优雅的方程经受着飓风之怒和全球气候模式微妙缓慢之舞的考验。
想象一下,你试图从一个非常遥远的地方画一个人的肖像,以至于他/她的整个脸都比你最细的画笔还要小。你无法画出眼睛或嘴巴;你必须发明一种新技术来表示“脸”这个概念。这正是全球气候模型所面临的挑战。假设网格尺寸为 100 公里,一个仅 10 公里宽的宏伟、高耸的雷暴对模型的“眼睛”来说是完全不可见的。它完全存在于单个网格之内。模型的方程作用于网格平均值,无法知晓其内部猛烈的上升气流和旋转运动。忽略这些风暴就等于忽略了地球垂直输送热量和水汽的主要引擎。因此,建模者必须成为一名艺术家,使用对流参数化将风暴的效应描绘在更广阔的气候画布上。
但是,如果我们能靠得更近呢?如果我们能放大,提高分辨率,直到我们的笔触足以捕捉脸部的细节呢?这正是现代天气预报中发生的事情。通过使用强大的计算机运行网格仅几公里宽的区域气候模型(RCMs),我们现在可以进入“对流容许”领域。在这个尺度上,模型开始可以直接“看到”较大的对流结构。方程被切换到“非静力”模式,这使它们能够显式计算作为雷暴核心和灵魂的强大垂直加速度。
在热带气旋的预报中,这场“分辨率革命”的重要性无处可及。为了预测飓风的路径,以及至关重要的强度,模型必须能够模拟其眼墙中的剧烈对流。一个参数化这种对流的粗糙模型可能会大致正确地预测风暴的位置,但它将难以捕捉强烈能量释放与风暴风速之间的反馈。相比之下,一个风暴解析模型,网格间距约为 2 公里,可以关闭深对流参数化,让其自身的动力学来模拟眼墙中高耸的上升气流。这并不意味着参数化完全消失——模型仍然需要表示更小尺度的过程,如湍流和雨滴形成的微物理过程——但主要的对流引擎现在被显式解析了。这种能力的飞跃是与对流尺度搏斗的直接结果,它改变了我们向人们预警这些破坏性风暴的能力。
如果单个风暴的细节如此依赖于对流,那么整个气候系统在数年和数十年间的行为又如何呢?人们可能天真地认为,既然参数化的设计是为了正确反映总体能量收支,那么这些小细节对于长期平均而言应该无关紧要。然而,自然界远比这微妙。气候系统拥有长久而敏感的记忆。
考虑一下 El Niño–南方涛动 (ENSO),即太平洋上伟大的气候摆锤。在 El Niño 年,中东部赤道太平洋会发展出一大片暖水池,引发大规模的对流爆发。这种对流释放的能量并不会停留在热带地区。它在大气中产生巨大的行星尺度波,即 Rossby 波,这些波传播数千英里,影响全球各地的天气模式。这就是为什么温暖的太平洋可能导致北美寒冷的冬天——一种被称为“遥相关”的现象。
令人惊讶的是:这些遥相关的强度关键性地取决于模型中对流参数化所产生的加热的垂直形状。一个将其大部分热量释放在高层大气的方案(“顶重”加热)在产生作为这些 Rossby 波源头的上层辐散方面要有效得多。而另一个将其热量释放在较低层的方案(“底重”)则会产生弱得多的全球响应,即使两个方案释放的总能量完全相同。这是系统敏感性的一个深刻例证。对模型中一个看不见的算法进行微妙调整,就能决定它是否能正确预测 El Niño 的下游后果,而这对农业、能源和水资源的季节性预报有着重要意义。
这种敏感性并非 ENSO 所独有。Madden-Julian 振荡 (MJO) 是一个巨大的云雨脉冲,在 30 到 60 天内沿赤道向东传播,这是另一个例子。众所周知,MJO 对于气候模型来说是出了名的难以模拟。成功与否常常取决于对流方案的设计哲学。那些假设对流立即消耗任何大气不稳定性的简单“准平衡”方案往往会扼杀 MJO。为什么?因为 MJO 依赖于大气水汽的缓慢“再充电”,这充当了系统的记忆。一个通过对流立即移除这些水汽的方案抹去了那段记忆。而更复杂的“预报”方案,它们为对流响应包含了一个有限的时间延迟——一种“记忆”——在模拟 MJO 缓慢而庄严的前进方面要成功得多。
既然这些参数化方案如此重要,科学家们如何开发它们并建立信心,确保它们做的是对的呢?他们不能简单地运行一个全球气候模型,调整一个参数,然后等待 50 年看结果是否与现实相符。他们需要一个更敏捷、更受控的环境——一个参数化的实验室。
其中最强大的工具之一是单柱模型(SCM)。一个 SCM 正如其名:一个单一垂直气柱的模型,剥离了其所有的水平联系。然后,科学家可以用观测数据或来自超高分辨率模型(大涡模拟,LES,它可以解析云中的湍流)的输出来“强迫”这个气柱。例如,他们可以看到他们的参数化是否在响应预定的大尺度风场时产生了正确数量的加热和增湿。SCM 充当了一个试验台,允许进行快速、受控的实验,以诊断方案的行为并将其与“完美”基准直接比较。
当然,没有参数化是完美的,不同的方案常常给出不同的答案。这是我们天气和气候预测不确定性的主要来源。如果你曾见过飓风路径的“意大利面图”,你就看到了这种不确定性的实际表现。每一根“意大利面”都是一个集合成员,即一个使用略有不同的初始条件或模型物理过程运行的预报。一个关键挑战是弄清楚预报的离散度有多少是由于对流方案的选择,而不是比如云微物理方案的选择或大气初始状态的不确定性。科学家使用严格的统计技术,如方差分析(ANOVA),来运行析因实验,换入换出不同的物理包,以精确量化每个组件对总预报不确定性的贡献。
这一探索已经引领到了一个引人入胜的新前沿:随机参数化。这个想法简单而诚实。既然我们知道我们的参数化是对一个混沌、湍流过程的不完美表示,为什么还要假装它们是确定性的呢?相反,我们可以直接在方案中构建一个随机分量。这种增加的随机性代表了次网格过程中未解析、不可预测的部分。它具有增加集合预报离散度的效果,为预测中的真实不确定性提供了一个更诚实、通常也更可靠的估计。
对流问题并非地球所独有。任何拥有足够厚大气层的行星都会有对流。当我们把望远镜转向现在已知的数千颗围绕其他恒星运行的系外行星时,我们正在提出新的问题:这个被潮汐锁定的“热木星”会有云吗?一个拥有水汽大气的“超级地球”上的气候是怎样的?为了回答这些问题,天文学家正在改造用于地球的同样的大气环流模型。当他们这样做时,他们迎头撞上了完全相同的挑战:他们必须参数化对流。无论是在气体巨星上的干燥湍流羽流,还是在水世界上潮湿的凝结上升气流,其基本物理学和建模困境都是相同的。参数化科学,诞生于预测地球降雨的需求,现在已成为在银河系中寻找宜居环境的关键工具,这是物理定律普适性的美丽证明。
这个领域的未来会怎样?与许多其他科学领域一样,未来可能在于人类知识与人工智能的合作。研究人员现在正在训练深度神经网络,直接从超高分辨率模型的数据中“学习”对流参数化。这些由人工智能驱动的方案被证明非常快速和准确。然而,它们提出了一个新的挑战:“黑箱”问题。一个因为错误的原因给出正确答案的人工智能是不可信的。新的前沿是“可解释人工智能”(XAI),科学家们正在将基本的物理约束直接构建到神经网络中。例如,他们可以强制人工智能遵守热力学第一定律——学习饱和的上升空气必须产生加热,而下沉空气中蒸发的雨水必须产生冷却。通过教会机器我们已经知道的物理学,我们可以建立对其预测的信任,并可能在此过程中,发现一直隐藏在数据中关于大气的新见解。
从预测下周天气的实际业务,到气候变化和我们世界之外的自然界的最宏大问题,卑微的对流参数化扮演着一个安静但重要的角色。它见证了科学家们的独创性,当面对一个复杂到无法看见的过程时,他们找到了一种方法来表现其本质,并在此过程中揭示了我们的世界和宇宙深刻而美丽的相互联系。