
雷暴和其他对流云是天气和气候的关键驱动因素,但它们的尺度太小,无法在全球模拟模式中被显式地表示。这种尺度不匹配迫使科学家们使用称为参数化的技术来近似这些不可见的风暴所产生的净效应。然而,这引入了一个关键的不确定性:我们如何仅根据模式所拥有的粗糙、大尺度信息来确定这种参数化对流的强度和时间?这就是对流闭合问题的本质,它是大气科学中的一个根本性障碍。本文将深入探讨这个核心问题,首先在“原理与机制”部分探究引发该问题的物理和数学原理。我们将考察为“闭合”方程组而发展出的主要理论,例如准平衡假说和基于CAPE的方案。随后,“应用与跨学科联系”部分将展示这些选择对天气预报和气候预测的深远影响,并揭示这一挑战如何在其他科学学科中产生共鸣。
想象一下,你正在看晚间新闻里的天气图。你看到一张在你国家上空铺开的温度和气压系统网格。这个网格中的方框边长可能有一百公里。但想一想,在一个夏日的午后,真实发生着什么。在其中一个粗糙的网格框内,一场雷暴可能正在肆虐——一个由旋转气流、雨水和闪电组成的庞然大物,宽度也许只有几公里。天气图尽管用途广泛,却对这场风暴视而不见。它只能看到一个广阔区域内的平均状况。
这是天气和气候科学中一个深刻挑战的核心。我们的模式,作为物理学和计算的奇迹,也必须在地球上划分一个网格。就像天气图一样,它们的网格框太大,无法“看见”单个的云。这并非懒惰或缺乏雄心,而是与尺度定律的严峻对峙。
让我们做一个物理学家最喜欢的消遣——进行一点计算。一个典型的全球气候模式可能有一个网格间距,我们称之为 ,大约为 公里。但是一个强大的对流云,即许多雷暴的引擎,其上升气流的宽度可能只有一到两公里。为了正确捕捉这个上升气流的物理过程,你至少需要5到10个网格点来横跨它。宽容一点说,我们至少需要大约 公里的网格间距才能开始解析这个云。
这种精细化的代价是什么?覆盖地球表面所需的网格框数量与 成比例。将网格从 公里缩小到 公里,意味着水平网格单元的数量会爆炸式增长 倍,这几乎是4000倍!
但这还不是全部。在数值模拟中,有一条规则叫做 Courant-Friedrichs-Lewy (CFL) 条件,它将你的时间步长 与你的网格间距联系起来。为了防止模拟崩溃,信息(如快速移动的声波或重力波)在单个时间步内不能跨越超过一个网格框。因此,随着 变小, 也必须变小。在我们的例子中,模拟相同长度所需的时间步数将增加约 倍,即大约60倍。
总计算成本是这两个因素的乘积。看见云的代价是成本增加了约 倍,这大约是原始计算成本的二十五万倍。而这甚至还没有考虑到,在这样精细的尺度上,我们需要使用更复杂的非静力方程和详细的微物理过程来处理雨和冰的形成。在气候模式中显式地模拟地球上的每一朵云,在可预见的未来,都是计算上不可能实现的。
所以,我们被迫“作弊”。我们必须找到一种方法来表示所有看不见的、次网格尺度的云的净效应,而无需实际模拟它们。这种表示行为被称为参数化。而真正的麻烦也由此开始。
你可能认为,找到净效应只是一个巧妙平均的问题。如果我们知道控制空气瞬时、旋转运动的方程——著名的Navier-Stokes方程——我们难道不能简单地将它们在我们的网格框上进行平均吗?让我们试试。
我们可以取任何一个量,比如速度 ,并将它分成两部分:网格框上的平均值,我们称之为 ,以及围绕该平均值的脉动或“摆动”,。所以,瞬时速度就是 。这是一种叫做雷诺分解 (Reynolds decomposition) 的技术。
Navier-Stokes方程包含一个关键项,即非线性平流项,它看起来像 。这个项简单地描述了速度场如何自我输运。正是它让烟雾卷曲,让水流呈现出美丽而复杂的形态。让我们将我们的分解代入这个项:。
当我们展开这个式子然后取平均时,一件有趣的事情发生了。大多数涉及单个脉动项的平均值为零(根据定义,摆动的平均值为零)。但有一个项不是:脉动乘积的平均值,。这个项可以重写为一个叫做雷诺应力 (Reynolds stress) 的量的散度,,它就是萦绕在流体动力学中的数学幽灵。
想想到底发生了什么。我们从瞬时速度 的方程开始。我们想得到关于平均速度 的更简单的方程。结果我们得到了一组关于 的方程,但其中现在包含了一个新的未知项 ,它依赖于我们试图摆脱的脉动的统计特性!方程不再是“封闭的”了。这就是湍流闭合问题。
但情况变得更糟。你可能会说,“好吧,那我们就为我们的新未知数——雷诺应力——推导一个新方程。”你可以尝试,但如果你这么做,你会发现这个二阶相关性()的方程依赖于三阶相关性()。而那个方程又将依赖于四阶相关性,如此往复,永无止境。这是一个未知的无限层级。我们就像是在一条无限的走廊里追逐一个幽灵。无处可逃。我们必须在某个点停下来,做一个近似。我们必须用我们已知的量(平均量)来“模拟”这个未闭合的项。这个模拟步骤就是闭合的本质。
我们如何将这一点应用于雷暴的剧烈、有组织的运动?最早也最简单的闭合思想是将湍流看作一种增强的扩散。就像热量从热处流向冷处一样,也许像水汽这样的量会“顺着梯度”从湿润区域混合到干燥区域。这就是通量-梯度假说,或称K理论。它假设一个量 的湍流通量与其平均梯度成正比:,其中 是一个“涡动扩散系数”。
这对于某些类型的湍流非常有效。但对于对流边界层——晴天时靠近地面的空气层——它却灾难性地失败了。这一层被上升的热泡“充分混合”,意味着平均温度和湿度随高度几乎不变。梯度 接近于零。因此,通量-梯度假说会预测垂直输送为零。但我们知道这是错的!强大的、有组织的热泡就像特快电梯,将热量和水汽从地表直接向上输送到边界层的顶部。
这揭示了一个深刻的真理:对流不是一个局地的随机混合过程。它在根本上是非局地的。要对其进行参数化,我们需要一个不同的想法。我们可以不把它看作扩散,而是把它模拟成本来的样子:一个由有组织的上升气流和下沉气流组成的集合。这是现代质量通量方案的基础。我们用相干羽流的图像取代了随机涡旋的幽灵。但这只是换了一种方式来表述闭合问题:我们现在有了一个对流“电梯”的模型,但我们如何确定它的强度?它向上输送了多少质量?这在实践中就是对流闭合问题。
确定对流的总体强度,通常用总云底质量通量 来表示,是对流闭合的核心任务。关于如何做到这一点,有几种相互竞争的理念。
对流是一个依靠不稳定性能量运行的引擎。我们有一个衡量这种“燃料”的指标,称为对流有效位能 (CAPE)。CAPE本质上是一个浮力气块在穿过大气上升时可以做的功。一个自然的闭合假设是,对流的强度与可用燃料的量有关。CAPE越多,对流越强。
我们甚至可以使这个想法更精确。对流的作用是消耗CAPE。一个简单的模型是一个弛豫过程,其中CAPE的消耗速率与可用的CAPE量成正比:,其中 是一个特征调整时间尺度。这个时间尺度是什么?我们可以推断出来。这个时间应该与一个对流羽流以特征速度 “翻转”深度为 的云层所需的时间有关。所以,。根据基础物理学,上升气流的动能 必须来自势能CAPE。这得出 。把所有这些放在一起,我们发现一个优美的结果:调整时间尺度本身依赖于不稳定性,。大气越不稳定,对流稳定它的作用就越快。
另一个观点是,引擎的功率不仅取决于油箱里的燃料,还取决于供油管输送燃料的速率。对于许多风暴,尤其是在热带地区,主要燃料是水汽。水汽辐合闭合假定,对流的强度(以及由此产生的降雨)由大尺度风将水汽泵入模式网格框的速率决定。风暴能降下的水量不能超过它吸收的水量。
也许最优雅和最具影响力的思想是由 Akio Arakawa 和 Wayne Schubert 开创的准平衡假说。想象一下你在寒冷天气里的家。它有一个火炉(对流),并且不断地向外散失热量(试图产生不稳定能量的大尺度过程)。你不会观察到你家里的温度在冷热之间剧烈波动。相反,恒温器会恰到好处地启动火炉,以精确地抵消热量损失,使温度保持得非常稳定。
准平衡闭合假设大气以同样的方式工作。对流是一个如此强大而高效的“火炉”,它不允许大量“燃料”(CAPE)积聚起来。它几乎立即对产生不稳定能量的大尺度天气型式做出响应,并以与不稳定能量产生完全相同的速率消耗它。闭合问题被转换了:它不再是关于将对流与不稳定能量的量联系起来,而是要找到一个精确的对流强度,使其像一个完美的恒温器一样,将大气的“温度”(其不稳定性)维持在近乎完美的平衡状态。一些实际的方案,如 Betts-Miller-Janjic (BMJ) 方案,通过简单地将大气状态弛豫回一个预定义的、稳定的“后对流”廓线,来实施这个思想的一个简化版本,就好像一个主恒温器已将气柱重置到其偏好的设置。
我们已经建立了这座美丽的知识大厦来驯服次网格的幽灵。但是当我们的计算机变得更强大,我们的模式网格框缩小时,会发生什么呢?我们进入了一个令人不安的“灰色地带”,在这里我们的假设开始瓦解。
在几公里的网格间距下,我们的模式不再完全对对流视而不见。它开始自己解析最大的对流上升气流。问题在于,我们的参数化方案,我们的“恒温器”,通常对此视而不见。它仍然看到大尺度强迫试图产生不稳定能量,并勤奋地开启参数化对流来抵消它。它没有意识到,模式的解析动力过程也在抵消这种不稳定能量。结果是一个双重计算误差:同一种不稳定能量被移除了两次,一次是被解析的运动,一次是被参数化方案,导致大气被人为地变得过于稳定。下一代模式面临的挑战是开发出尺度感知的参数化方案——即能够知晓网格框大小,并在模式的解析动力过程开始承担更多工作时,能够优雅地“自动调低”自身作用的方案。
这把我们带到了最后一个深刻的观点。闭合,在其核心,是一种信息压缩的行为。我们正在将一个近乎无限复杂的系统——由涡旋和羽流构成的完整湍流谱——试图用极少数变量(如CAPE或云底质量通量)来表示其净效应。根据信息论中的数据处理不等式,在这种多对一的映射中,信息不可避免地且不可挽回地会丢失。我们正在创造一个现实的简化漫画。我们了解到,不同的微物理状态或云的组织形态可能导致相同的平均加热(殊途同归性 (equifinality)),并且对流的历史很重要(非马尔可夫记忆)。我们简单的、瞬时的规则永远无法捕捉到这种全部的丰富性。
因此,对流闭合问题不仅仅是一个有待解决的技术难题。它是在一个复杂、多尺度系统中,与可预报性极限的根本性对抗。它是一个物理学、数学甚至一点哲学相交汇的地方,提醒我们在我们模拟世界的探索中,我们不仅要聪明,还要对可知和不可知之事保持谦逊。
在探索了对流闭合问题的抽象原理之后,我们可能会倾向于将其视为一个整洁的数学难题,一种供大气物理学家进行的智力练习。但这样做将是只见树木,不见森林。闭合问题并非一个小众的学术难题;它是一个至关重要的、生动的挑战,位于我们模拟和预测宇宙中一些最复杂、最强大系统行为能力的核心。它是站在我们的方程与对天气、气候以及远超我们世界的现象的真正理解之间的守门人。现在,让我们离开第一性原理的洁净室,去看看这个问题在现实世界中的存在和呼吸,去领会其深远的影响以及科学家们为应对它而采取的巧妙方法。
在驱动我们日常天气预报和未来气候预测的大气模式中,闭合问题的重要性无出其右。一个大气环流模式(GCM)就像一个数字化的地球,但其视野是模糊的。其网格单元的宽度通常有上百公里,给我们带来降雨的高耸雷暴只不过是次像素的幻影。模式知道大尺度条件适合对流——空气不稳定,充满能量——但它无法看见风暴本身。参数化方案是模式的想象力;闭合则是支配那想象力的规则。
最常见的方法是假设对流扮演着大气中负责任的公民角色,致力于恢复平衡。一种流行的规则,称为准平衡闭合,假设对流消耗不稳定能量(即对流有效位能,CAPE)的速率必须精确地平衡大尺度天气型式生成它的速率。另一种方法,弛豫闭合,则更为简单:它只是假设对流将在一个特征时间内(比如说一两个小时)耗尽可用的CAPE。不同的参数化方案,本质上是模式中对流的“个性”,由它们对这些规则的具体选择来定义。例如,著名的Kain-Fritsch方案使用一个可以根据大气条件调整的CAPE弛豫时间尺度,而广泛使用的Zhang-McFarlane方案也采用CAPE弛豫闭合作为其基本原理。这些不仅仅是细节;它们是决定模拟世界中何时、何地以及以何等强度降雨的核心逻辑。
当这个逻辑有缺陷时会发生什么?后果并非微不足道。几十年来,世界上许多最先进的气候模式一直被一个持续且令人困惑的偏差所困扰:一个“双重”热带辐合带(ITCZ),在现实中主要只有一个热带雨带的地方,模式却显示出两条平行的雨带。罪魁祸首常常可以直接追溯到闭合问题,特别是关于夹卷——干燥环境空气混入上升对流羽流——的假设。如果一个参数化方案假设夹卷太少,模拟出的云对周围空气的湿度变得不敏感。这使得它们不切实际地强大,从而改变了大尺度的能量收支,有利于形成这个虚假的第二雨带。
在我们身边,错误也可能同样明显。你是否曾注意到,天气模式总是预测午后雷暴在下午2点到达,而实际上它们几乎总是在接近下午5点时才出现?这个常见的日循环位相误差是闭合问题的另一个幽灵。一个简单的参数化方案可能在太阳刚产生一点点CAPE时就触发降雨。它缺乏真实大气的耐心,真实大气通常需要积累显著的不稳定能量并克服一个能量障碍(对流抑制,或CIN)后,才会释放一场风暴。这导致模式过于频繁地“下毛毛雨”,且雨量过小,而不是捕捉到我们在自然界中看到的那些频率较低、强度更大、组织性更好的风暴系统。捕捉季风的壮丽脉动,及其陆地、海洋和太阳之间复杂的相互作用,关键取决于参数化方案的触发和闭合选择如何处理这种能量的积累和释放。
面对这样的挑战,我们如何调整我们的模式?我们必须求助于观测。在诸如热带海洋全球大气(TOGA)COARE计划等密集的外场实验期间,以及在由大气辐射测量(ARM)计划运行的永久性观测站,科学家们部署了大量的气象气球和遥感设备。通过精确测量整个大气柱的温度、湿度和风,他们可以计算出热量和水汽的大尺度收支。这个收支中的剩余项——那些无法用解析的风或辐射来解释的项——就是“视热源”()和“视水汽汇”()。这些是次网格对流的观测足迹。通过用观测到的大尺度条件强迫单个模式气柱,并将其参数化趋势与观测到的和廓线进行比较,科学家们可以对他们的闭合方案进行直接而严格的评估,让他们的理论模型对现实负责。
经典的闭合问题源于一个选择:用一个简单的规则来表示未知。但如果我们有其他选择呢?过去二十年见证了革命性新方法的出现,这些方法试图改变,甚至绕过传统的闭合问题。
其中一个最大胆的想法是超参数化。该方法不是为对流编写一个简单的代数规则,而是在大型GCM的每一个网格柱内嵌入一个完整的高分辨率云解析模式(CRM)。GCM处理行星尺度的流动,并在每个时间步长告诉嵌入的CRM其所处的大尺度环境。然后,CRM在该GCM柱内显式地模拟云和雷暴的湍流、沸腾的生命过程。在该时间步结束时,CRM计算其显式模拟的风暴所产生的净加热和增湿,并将平均值报告回GCM。实质上,它用一个显式的、基于物理的次网格过程模拟取代了一个简单的、易出错的参数化方案。它不是用一个简单的假设来闭合方程,而是用暴力计算,直接从第一性原理计算次网格尺度的通量项。
第二个,并且正在迅速发展的领域是机器学习的应用。这里的想法既简单又强大。如果超参数化或其他全球高分辨率模拟能够提供一个近乎完美、物理上一致的对流图像,为什么不利用这些数据来训练一个神经网络来模仿它呢?我们可以向网络输入大尺度大气状态(传统参数化方案的输入),并训练它预测正确的对流趋势(输出)。这种方法有潜力比简单的基于规则的方案准确得多,同时在计算上比超参数化快得多。然而,成功的关键是不要将其视为一个黑箱。该领域最有前途的工作涉及设计深深植根于物理学的基准数据集和训练协议,确保最终的神经网络尊重能量和水的守恒定律,并能泛化到未来更暖气候下未曾见过的天气型式。
也许闭合问题最美妙的方面在于其普适性。同样的基本挑战——未解析的湍流通量需要一个闭合——在看似毫不相关的科学领域中反复出现。即使物理背景千差万别,其数学结构却是相同的。
潜入海洋,你会发现同样的问题。海洋模式必须参数化由湍流涡旋引起的垂直混合,这些涡旋搅动水体,输送热量、盐分和营养物质。就像在大气中一样,对控制方程进行平均会产生未闭合的湍流通量项。海洋学家们已经发展出了他们自己五花八门的闭合方案,如K-廓线参数化(KPP)和Mellor-Yamada模型,这些方案根据局地切变和层结来确定涡动粘性和扩散率。KPP方案,很像一些大气中的对应方案,甚至包含了“非局地”项来表示能够跨越整个混合层输送性质的大型羽流效应,这与上方空气中的深对流羽流形成了惊人的平行。
仰望星空,问题也同样存在。在像我们太阳这样的恒星内部,核心聚变产生的能量向外输送。在外层,这种输运主要由对流主导——炽热的等离子体团块上升、冷却、下沉,形成翻腾的沸腾状态。恒星结构模型无法解析这些单个的团块;它们必须参数化其效应。经典的混合长理论正是这样做的。它通过确定划分总能量通量在辐射和对流之间所需的实际温度梯度来解决一个闭合问题。不稳定性判据,即比较辐射和绝热温度梯度,就是Schwarzschild判据,它是大气中使用的稳定性判据的直接表亲。整个框架是对流闭合问题在天体物理学中一个优美的回响。
最后,考虑一下喷气发动机或工业熔炉的核心。模拟燃烧涉及到在高度湍流的流动中追踪化学物质的输运和反应。当工程师使用大涡模拟(LES)来模拟这个过程时,他们对控制方程进行滤波,未闭合的项再次出现。存在一个次网格通量项,就像在大气中一样,但还有一个新的怪物:滤波后的化学反应速率。因为化学反应,特别是那些由Arrhenius动力学控制的反应,是温度和成分的极端非线性函数,所以平均反应速率并不是在平均温度下的反应速率。闭合这个项是燃烧模拟中最大的挑战之一,它在概念上与闭合非线性对流过程的问题是相同的。
从海底到恒星的核心,从雷暴的轰鸣到火焰的咆哮,闭合问题是一条深刻而统一的线索。它提醒我们,自然在所有尺度上都是湍流和复杂的。我们在模型中捕捉这种复杂性的追求,迫使我们面对我们所能解析的极限,并寻找聪明的、有物理基础的方法来表示我们无法解析的东西。正是在这场斗争中,现代计算科学的大部分创造性工作得以完成。