
模拟地球的复杂系统,从湍流大气到翻腾的海洋,就像试图用一把过粗的画笔创作一幅杰作。我们可以捕捉到宏大的笔触——大陆尺度的天气模式和主要的洋流——但那些赋予系统特性的复杂细节却丢失了。这些丢失的细节,即小尺度的涡旋、局地雷暴和微观的化学反应,统称为次网格尺度物理学。我们的模型无法解析这些现象,这造成了一个根本性的知识空白,即所谓的闭合问题,它挑战了我们预测的准确性。
本文深入探讨了如何解释这个不可见世界的科学。在接下来的章节中,我们将首先探讨次网格尺度物理学的核心原理与机制,揭示闭合问题为何存在,并审视为了解决它而发展出的参数化技术体系,从传统理论到现代的随机方法和机器学习方法。随后,我们将拓宽视野,考察其多样的应用与跨学科联系,展示这个单一、统一的概念对于推动气候科学、冰川学和生物地球化学等不同领域的发展是何等关键。
想象一下,你试图通过每隔一百米读取一次水位来描述一条湍急河流中错综复杂的漩涡模式。你当然可以捕捉到河流的整体流向及其缓慢蜿蜒的路径。但是,无数更小的涡旋、绕过岩石的急流、在水面上舞动的微小漩涡又该如何描述呢?所有这些都在你粗略的视角中丢失了。然而,这些小尺度运动不仅仅是装饰性的细节;它们集体的推与拉,它们的能量和动量传递,共同塑造了河流的特性。地球大气或海洋的计算机模型正面临着完全相同的困境。物理定律是已知的,但它们在从大陆到雨滴的所有尺度上都起作用。没有一台计算机强大到可以追踪每一个空气分子。因此,我们必须通过一个粗糙的筛子来看待世界。
为了建立一个可管理的模型,我们在一个可能宽达数十或数百公里的网格单元上进行概念性的滤波或平均。我们写下的方程不是针对每一点流体的精确状态,而是针对每个盒子内的平均状态。问题在于,自然法则是非线性的。这个看似无害的数学特性却具有深远的物理后果。
考虑风对某个量(比如热量)的输送。输送速率,即通量,涉及速度和温度的乘积。让我们将像速度 这样的变量分解为其网格框平均值 和围绕该平均值的脉动 。因此,。那么,通量的平均值 (其中 可以是温度)就变成:
第一项 是由平均流携带的通量,这是我们粗糙模型可以“看到”的。但出现了第二项:。这是脉动乘积的平均值——由所有模型不可见的次网格涡旋和涡动携带的输送。该项代表了不可见的物理过程的净效应。因为我们的模型只追踪像 和 这样的平均量,所以项 是一个未知数。它取决于我们选择忽略的细节。
这就是闭合问题的核心。当我们对非线性运动方程进行平均时,代表次网格尺度脉动效应的新项便会出现。我们为大尺度、可解析流建立的方程不再是自洽的;它们是“不闭合的”,包含了来自未解析尺度的未知影响。为了取得进展,我们必须找到一种方法来近似或参数化这些未知项。
理解这是一个物理问题,而不仅仅是数值问题,是至关重要的。闭合问题源于对连续、真实的物理方程进行平均的行为。即使我们能够以完美的数学精度求解我们的平均方程,它也依然存在。它不同于数值离散误差(即我们在计算机网格上用有限差分近似连续导数时产生的误差),也不同于模型结构误差(即我们基本控制方程本身不完整或错误时产生的误差)。闭合问题是湍流和定义我们世界的广泛相互作用尺度的直接后果。
次网格尺度参数化是用于闭合方程的科学。它是从我们能观察到的粗略、大尺度模式中推断出不可见的、小尺度世界集体行为的艺术。参数化是一条“规则”或一个物理模型,它将未知的次网格尺度效应(如湍流通量 )表示为已知的、解析尺度变量的函数。
这些规则的复杂程度可以有天壤之别,从而形成了一个闭合方案的层级体系:
一阶闭合(K理论):最简单的方法是假设小尺度湍流的作用类似于分子扩散,只是尺度要大得多。这被称为K理论或涡度扩散模型。它假设湍流通量总是“顺梯度”流动——热量从较暖的区域流向较冷的区域,动量从移动较快的流体混合到移动较慢的流体。通量被模型化为 ,其中 是涡扩散系数。虽然直观,但这种“顺梯度”假设并非总是成立。在一个沸腾的浮力锅中,热的水团会主动向上移动,有时进入已经更暖的区域,这个过程被称为“逆梯度”输送。
高阶闭合:为了捕捉更复杂的物理过程,我们需要更复杂的模型。我们可以不直接对通量建模,而是为湍流本身的能量,即湍流动能(TKE),编写一个预报方程。通过了解有多少湍流能量可用,我们可以对湍流混合做出更好的估计。更为先进的是概率密度函数(PDF)方法。这些方案不仅仅追踪一个网格框中的平均温度,而是试图模拟其中温度的整个统计分布。从这个PDF中,可以直接计算任何非线性过程的平均值,比如云的形成,而这可能只发生在分布中最湿和最冷的尾部。
将世界划分为“解析尺度”和“次网格尺度”是我们划定的一条人为界线,由我们模型的网格间距定义。但是,当这条线恰好穿过一个物理现象的中间时会发生什么?如果我们的网格单元宽5公里,大约相当于一个发展中的雷暴的大小,该怎么办?这个模糊的区域,现象太大以至于不能纯粹是次网格尺度,又太小以至于不能被恰当解析,被称为灰色区域。
在这里,一个新的危险出现了:重复计算。模型的解析方程可能开始生成一个粗糙、块状的雷暴版本,一个由解析浮力驱动的上升气流。与此同时,对流参数化方案——为一个风暴完全是次网格尺度的世界而设计的——也可能试图在同一位置产生雷暴的效应。模型实际上是在将相同的输送加了两次——一次是显式的,一次是隐式的。这可能导致爆发性的、不切实际的风暴和模型能量收支的完全崩溃。
这个挑战揭示了一个深刻的原理:一个稳健的参数化方案不能是单一不变的。它必须是尺度感知的。它需要一种方法来感知模型的分辨率。随着网格间距缩小,模型开始能够自己“看到”雷暴,参数化方案必须优雅地后退,减少自身的活动,只表示风暴中仍然真正未被解析的部分。这确保了物理过程在不同尺度范围内的平滑和一致的表示,实现了所见与所推断之间的无缝舞蹈。
对于给定的一个大尺度天气模式,次网格湍流并非一个单一、固定的状态。它是一个混沌、不断变化的可能性的海洋。确定性参数化试图捕捉这片海洋的平均效应,根据解析状态为次网格倾向提供一个单一、唯一的值。它模拟的是条件均值,。
但真实世界存在涨落。随机参数化则拥抱了这一点。它承认对于任何给定的解析状态,都存在一个可能的次网格活动的完整分布。它将次网格倾向表示为一个确定性部分(均值)加上一个随机分量——一次“掷骰子”——其统计特性(如方差和相关时间)本身也依赖于大尺度流。
这不仅仅是一种数学上的修饰;它具有关键的物理意义。随机性为模型注入了变率,有助于激发天气模式,并代表了确定性模型中所缺失的不确定性来源。在集合预报中,通过运行多次模拟来描绘一系列可能的未来,随机方案增加了集合离散度,从而对预报的不确定性提供了更真实的评估。
也许最令人惊讶的是,这种随机性可以系统地改变模型的长期平均状态,或称气候。这是通过非线性相互作用发生的,一种“噪声-平均耦合”现象,其中随机涨落与系统动力学相互作用时,可以产生一个净的方向性效应。这是一个绝佳的例子,说明了最小、最随机的涨落的特性如何能在最大尺度、最长期的系统行为上留下不可磨灭的印记。
这种专注于用明确、可检验的模型(无论是确定性的还是随机的)来表示物理过程的方法是至关重要的。原则上,人们可以通过依赖其固有的隐式数值耗散来稳定一个数值模型,就像一台设计拙劣的机器可能因其自身齿轮的摩擦而免于散架一样。但这不是物理。它是一种不可控的、依赖于格式的人为产物,掩盖了系统的真实能量收支。相比之下,物理参数化是关于未解析世界的一个明确假设,是能量收支中的一项,可以被测量、测试和改进。
我们如何发现不可见世界的“规则”?传统上,我们从简化的理论和艰苦的观测中推导出它们。今天,我们站在一个新的前沿:直接从数据中学习规则。我们可以运行超高分辨率的模拟,这些模拟非常详细,能够明确地解析湍流涡旋。这些模拟是计算成本高昂的“虚拟现实”,可以作为机器学习算法的训练场。神经网络可以被训练来学习从流体的粗粒度状态到真实的次网格尺度效应之间的复杂非线性映射。
这种强大的方法要求我们以一种新的复杂程度来思考不确定性。一个学习到的参数化将有两种不确定性:
偶然不确定性:这是系统本身固有的随机性,是我们讨论过的不可简化的“掷骰子”。即使是完美的模型也无法完美预测它。这可以通过训练神经网络预测结果的完整概率分布,而不仅仅是单个值来估计。
认知不确定性:这是我们自身的无知。这是由于在有限数据上训练而导致模型对真实底层物理过程的不确定性。我们可以通过训练一个神经网络集合并测量它们的预测差异程度来估计这一点。在它们分歧很大的地方,我们的知识就很薄弱。这通常是一个明确的信号,表明我们正在要求模型在一个它从未见过的情况下进行预测。
复杂系统建模的未来在于这种综合。它是物理学与数据科学的结合,其中守恒定律 和尺度感知 的深刻原理提供了支架,而机器学习提供了一种新的、强大的工具,用于在该框架内发现支配不可见世界的复杂规则。通过学习表示微小,我们获得了对宏伟的更真切的理解。
在我们穿越了次网格尺度物理学的基本原理和机制之后,你可能会留下一个激动人心但或许有些抽象的画面。理解我们的模型是粗糙的,并且我们必须表示未解析世界的影响是一回事。而亲眼看到这一原则在实践中如何运作,见证这一个单一、优雅的问题如何一次又一次地以截然不同的面貌出现在整个科学舞台上,则是另一回事。正是在应用中,这个思想的真正美感和统一力量才得以展现。
就像一个物理学家直到知道一个方程的权威领域才算真正理解它一样,我们直到看到次网格尺度物理学在哪些领域是无可争议的法则,才算真正理解它。所以,让我们进行一次巡游——从我们星球上熟悉的翻腾大气,到其冰盖寂静而缓慢的爬行,甚至深入到我们脚下充满生命的微观世界。
在天气和气候模拟中,次网格尺度问题无处不在,也最为紧迫。大气是一场跨越巨大尺度范围的运动的混沌交响曲,从分子的微观舞蹈到大陆天气系统的宏伟席卷。一个全球气候模型可能会将世界分割成一百公里宽的网格。在这些网格内部发生了什么?所有让天气变得有趣的事情!
想象一个单一的网格框覆盖着一片拼凑的景观:一片吸收热量的深色森林旁边是一片反射光亮的田野。每个表面与大气的相互作用都不同。森林比田野是更强的感热源。一个天真的模型可能会首先平均森林和田野的属性——平均它们的温度、粗糙度、湿度——然后计算一个单一的、平均的热通量。事实证明,这是大错特错的。控制热交换的定律是非线性的;通量不是温度的简单线性函数。函数的平均值不等于平均值的函数。唯一物理上正确的方法是分别计算森林上空的通量和田野上空的通量,然后对这些得出的通量进行平均。模型必须考虑地表的次网格非均匀性。
让我们把目光从地面投向空中,看向云。雨从何而来?它始于无数微小的云滴,它们太轻无法下落,通过碰撞合并——一个称为自动转化的过程——直到它们足够重成为雨滴。这个过程是强非线性的;其速率可能取决于云水含量的一个大于一的幂次。如果一个模型网格单元包含一团块状的云——某些部分更密集,其他部分更稀薄——仅仅使用平均云水含量来计算降雨形成将导致严重低估。高液滴浓度的区域才是关键所在!为了正确模拟降雨,模型必须有一个参数化方案,该方案要考虑云水的次网格统计分布,而不仅仅是其平均值。
当我们考虑雷暴时,这个挑战变得更加尖锐。几十年来,我们的模型一直依赖于一个“尺度分离假设”:即单个对流云就像微小、独立的上升气流羽,比它们所在的网格框小得多也快得多。这使我们能够像对待一群匿名的个体一样,对它们进行统计处理。但是当这群个体组织起来时会发生什么?在热带地区,雷暴常常组织成巨大、长寿的中尺度系统,其大小可以与模型网格框本身相当。当这种情况发生时,尺度分离假设就崩溃了。建立在一个谎言(尽管是一个有用的谎言)之上的参数化方案失效了。模型无法再正确预测系统的演变,这也是为什么预测像马登-朱利安振荡这样的现象仍然是气象学的一大挑战之一。
次网格世界不仅包括像云这样移动和变化的东西。它还包括地球本身静态、不可移动的特征。考虑一个山脉。一个粗糙的气候模型可能没有足够的分辨率来“看到”单个的山峰和山谷。模型的地形可能是一个平滑、和缓的小山,而那里本应是一条崎岖、饱经风霜的山脉。这是否意味着山脉的影响就丢失了?如果我们足够聪明,就不会。被迫在真实的、未解析的地形上移动的风,会产生波和湍流,从而从大尺度流中消耗动量。这种“地形拖曳”是一种真实的力量,并且可以被参数化。通过在动量方程中增加一个取决于次网格地形方差的项,可以使模型感受到它看不见的山脉的拖曳力,从而纠正模拟风场中的重大偏差。这仿佛是山脉的幽灵在机器中作祟。
你现在可能认为这是大气这个复杂、多尺度世界特有的问题。但这就是其中的奥妙所在。一旦你戴上能看见它的眼镜,你就会发现次网格尺度问题无处不在。
让我们进入工程和环境科学的世界。想象一下,追踪一条在湍急河流中的污染物羽流,或是一个工业化学过程中反应物的混合。其控制方程是一个平流-扩散方程。在湍流中,混合主要不是由缓慢的分子扩散过程主导,而是由各种尺寸的涡旋的混沌旋转主导。一个只解析大涡旋的模拟——即大涡模拟(LES)——必须参数化小的、未解析涡旋的混合效应。这是通过引入一个“涡扩散系数”来实现的,这个项的行为类似于分子扩散,但强度要大得多,并且依赖于解析流的状态,例如局部应变率。这使得模型即使看不到最小的漩涡,也能解释湍流级联所执行的快速混合 [@problem-id:3497249]。
现在让我们前往地球最寒冷的地方:南极和格陵兰的巨大冰盖。在这些巨大的冰川与海洋交汇处,接地线发生着戏剧性的转变。一边是冰搁在基岩上,产生巨大的摩擦力。另一边,它漂浮在海中,几乎可以自由滑动。在一个大陆尺度的冰盖模型中,这整个过渡带可能位于单个网格单元内。模型如何捕捉这一点?它无法解析确切的界线。取而代之的是,它使用了一个参数化。根据冰的厚度和冰下床的坡度,模型计算出单元中可能接地与漂浮部分的比例。然后它施加一个有效摩擦力,该摩擦力是接地区的高摩擦力和漂浮区的近零摩擦力的加权平均。通过这种方式,模型可以模拟我们气候系统中这些关键临界点的敏感进退。
最后,让我们深入泥土。一份沿海沉积物样本在肉眼看来可能均匀一致。但在显微镜下,它是一个熙熙攘攘的大都市。生命化学的许多过程——碳、氮、硫和磷的循环——都发生在毫米或更小尺寸的微小聚集体内。来自周围水的氧气可能只能穿透这种聚集体的外壳,形成一个微小的有氧环境。更深处则是一个缺氧核心。这种微观的氧化还原梯度是生物地球化学的热点。硝化作用可能发生在外壳,产生的硝酸盐随后扩散到核心被反硝化作用消耗。沉积物模型的网格单元,可能厚达一厘米,与这个世界相比简直是庞然大物。为了捕捉这些耦合反应的净效应,模型必须使用一个次网格参数化,该参数化代表了这些未解析的微聚集体整个群体内的扩散和反应过程。我们星球宏大的生物地球化学循环依赖于这些隐藏的、次网格世界中生命的集体行动。
所以,问题是普遍的,赌注也很高。我们该如何前进?该领域的最新革命来自与机器学习的联盟。如果我们基于简化物理理论的传统参数化方案举步维艰,或许我们可以从数据中学习到更好的方案。
策略通常是仿真。我们可以为一个小区域和短时间运行精细、高分辨率的模拟——这类模拟对于完整的气候预测来说计算成本过高。这些模拟完美地解析了物理过程。然后,我们将这个完美模型的输出视为“真值”,并训练一个机器学习算法,如神经网络,来模仿其行为。目标是创建一个既准确又比它所取代的复杂模型快得多的仿真器。
但这并非一个简单的黑箱操作。为了建立一个可信的仿真器,我们必须尊重物理。一个关键的区别在于预报变量和诊断变量。像温度或湿度这样的预报变量具有“记忆”;它们在下一时刻的值取决于它们现在的值。它们是系统的基本状态。像压力这样的诊断变量是根据预报状态“即时”计算出来的。为了让仿真器对未来做出物理上和因果上合理的预测,它必须被赋予完整的预报状态作为输入。只给它部分状态或一组诊断变量,就像要求医生在只看到温度计读数而没看到病人本人的情况下预测病人的健康状况一样。
这种思路促使科学家们借鉴了计算机科学和哲学最前沿的工具。使用结构因果模型(SCM)的严谨语言,我们可以将数值模型表示为一个因果图,其中箭头连接变量与其直接影响。在这个框架中,用一个机器学习仿真器替换一个基于物理的参数化不仅仅是代码交换;它是对系统的一次正式“干预”,类似于Judea Pearl著名的do-算子。这使我们能够以数学的精确性来推理模型的模块化——确保当我们在一个组件上进行手术时,不会无意中损害另一个组件。
从一块块的田野到湍急的河流,从一滴云滴到冰川的立足点,从一个微生物的家到神经网络的逻辑——次网格尺度问题是一条贯穿如此多现代科学的金线。它是世界无限复杂性与我们有限表征能力之间持续存在的、创造性的张力。正是在这片解析与未解析之间的沃土上,存在着我们一些最深刻、最实际的科学挑战。