
气候模型是人类理解我们星球最有力的工具,它建立在支配空气和水运动的基本物理定律之上。在理想世界中,这些模型将模拟每一次阵风和每一颗云滴。然而,计算能力的限制迫使科学家简化这个复杂的现实,他们在全球铺设一个粗糙的网格,并求解每个网格单元内的平均状况。这种平均化行为带来了一个深远的挑战:那些比单个网格单元更小的关键物理过程会发生什么?这正是参数化科学试图填补的知识空白。
本文深入探讨了参数化这门艺术与科学,这是一种气候模型用以解释这些未解析的次网格尺度过程统计效应的方法。首先,“原理与机制”一章将解释为何参数化是必要的,它如何通过“闭合”控制方程来发挥作用,以及构建它的不同哲学方法。随后,“应用与跨学科联系”一章将探讨这些方案如何成为天气和气候预测的实践核心,主导着从云的形成、辐射到海洋、陆地和大气之间宏大的能量交换等一切过程。
想象一下,你想建立一个地球气候的模型。你会像任何优秀的物理学家一样,从自然界的基本定律开始:质量守恒、动量守恒和能量守恒。这些是优美而不变的法则,以偏微分方程的形式表达,支配着每一个气块和每一滴水的运动。在完美的世界里,我们会为整个大气和海洋求解这些方程,追踪每一次阵风和每一颗微小的云滴。但在这里我们撞上了一堵墙——一堵尺度的墙。
我们的星球广阔而复杂。气候系统是一场湍流的运动交响曲,从横跨大陆的急流到水分子在尘埃上凝结的微观舞蹈。计算机无论多么强大,都不可能追踪这一切。我们被迫简化。我们在全球铺设一个网格,每个网格单元的边长可能为100公里,然后我们尝试求解每个网格单元内大气的平均状态方程。
但是,这种平均化对我们优美的方程做了什么?想一想雷暴,一个宏伟的天气引擎,其跨度可能为10公里。对于一个网格为100公里的模型来说,整个雷暴的生与死完全发生在一个网格单元内部。模型在求解该网格单元的平均风和温度时,对其中猛烈的上升气流和涡旋运动完全视而不见。
这种“视而不见”不仅仅是不便,它在我们的模型中造成了一个根本性的数学漏洞。物理定律是非线性的。例如,热量输送的方式取决于速度和温度的乘积()。当我们在一个网格单元上对这个乘积进行平均时,事情就变得棘手了。乘积的平均值不等于平均值的乘积。出现了一个额外的项,这个项代表了由小尺度、未解析运动引起的热量输送——即风和温度脉动之间的相关性,示意性地写为 。
突然之间,我们为已解析的大尺度流动(平均值)建立的方程被一些依赖于未解析的小尺度流动(脉动)的项所污染。我们的方程组不再自洽。它变得“不闭合”。这就是著名的闭合问题。为了使我们的模型具有预测能力,我们必须找到一种方法,用模型实际知道的大尺度、已解析变量来表示所有未解析过程(雷暴、薄云、湍涡)的统计效应。这种“闭合”方程的行为,就是参数化的科学与艺术。参数化是一种基于物理和统计的方案,用以近似未解析世界对已解析世界的影响。
要理解这在实践中如何运作,将气候模型想象成拥有两个截然不同的灵魂会很有帮助:动力核心和物理参数化。
动力核心是模型强大而不懈的引擎。它的任务是求解旋转球体上的离散化流体运动方程。它负责处理大气宏大的、可解析尺度上的“华尔兹”:科里奥利力、气压梯度以及将气团输送至大陆各处的平流。它是纯粹的、可解析的流体动力学。
但引擎需要有力作用于其上。物理参数化就是提供这些力的模块集合。它们是计算由未解析的次网格世界产生的倾向项——加热、冷却、增湿和拖曳——的子模型。例如,辐射参数化计算太阳使地面变暖的程度以及有多少热量逸散到太空。湍流参数化计算地球表面的摩擦拖曳力。而对流参数化则计算雷暴对热量和湿度的强大垂直输送。动力核心接收这些倾向项,并随时间进行积分,从而推动气候状态的演变。
如何为一个看不见的过程制定方案?这是参数化的核心挑战,并由此产生了不同的思想流派,大致可分为两大阵营。
第一种是基于物理的方法。在这种方法中,我们试图为次网格过程建立一个简化的、微缩的理论。以降雨形成为例,我们无法模拟每一颗云滴,但我们可以为网格单元的宏观属性写出预报方程,例如云水总质量()和雨水总质量()。然后,我们使用简化的物理定律——比如云滴碰撞形成雨滴的速度(一个称为自动转化的过程)——来创建一组关联这些宏观量的方程。这些被称为宏观微物理方案,它们建立在机理定律的基础上,尽管这些定律被大幅简化了。
第二种方法是统计的。它不是对一个简化的物理实体进行建模,而是试图将次网格世界表示为一个统计系综。例如,研究人员可能不会模拟一个理想化的对流羽流,而是假设网格单元内垂直速度的概率分布。然后通过对该分布进行积分来获得对流的总效应。这种方法承认我们对精确的次网格状态一无所知,转而旨在捕捉其统计特征。现代机器学习技术能从海量数据(通常来自高分辨率模拟)中学习统计关系,代表了这种统计方法的一个强大的新前沿。
让我们通过剖析一个深对流(雷暴)的参数化方案来使问题更具体。这个过程对地球的能量收支至关重要,几十年来一直是深入研究的焦点。
首先,模型需要决定对流何时发生。对流是一个条件性过程;它需要不稳定的大气和抬升机制。参数化方案将这种逻辑编码在一个触发函数中。这本质上是代码中的一个IF语句:IF对流有效位能(CAPE)足够大,并且IF对流抑制(CIN)足够小,THEN调用对流方案。触发函数是一个无量纲的门,它将模型已解析的状态映射到一个简单的{0, 1}或[0, 1]决策:“开”或“关”。
一旦触发,方案会做什么?早期的简单方案使用对流调整原理。它们观察到对流的最终结果是使大气稳定。因此,方案的逻辑很简单:如果大气不稳定,就将温度和湿度进行垂直混合,直到达到一个中性的湿绝热廓线。这个过程在一个特定的弛豫时间尺度 内完成。这是一种唯象的、简单粗暴的方法,它表达的是:“我不知道过程的细节,但我知道终点是稳定。”
一种物理上更复杂的方法是质量通量方案。它不只是调整整个网格单元,而是试图模拟关键角色:一个由上升的对流(羽流)和下沉气流组成的系综。它为理想化羽流内部的空气属性求解一个独立的收支方程,这个羽流在上升过程中会从环境中夹卷空气,并在顶部卷出自己的空气。这类方案的“闭合”是确定对流的总强度,通常通过将云底质量通量 与大尺度流动的某个属性(如CAPE的生成率)联系起来实现。这是一种更具机理性的观点,将次网格世界表示为具有自身动力学的物理对象的集合。
参数化科学在不断发展,向着揭示物理学深刻、相互关联本质的迷人新领域推进。
记忆性: 次网格过程的影响必须是瞬时的吗?想一想森林大火。今天产生的烟雾会影响明天的阳光和温度。次网格过程可以有记忆性。在一些先进的参数化方案中,时刻 的倾向项不仅仅是时刻 状态的函数,而是表示为对已解析状态整个历史的卷积分:。函数 是一个记忆核,描述了 秒前系统的状态对当前倾向项的影响程度。对于响应快的过程, 会在 附近出现尖峰;对于具有长时记忆的过程,它会有一条长尾。这是一个借鉴自统计力学的深刻思想,承认现在是由过去影响的积分所塑造的。
尺度感知: 传统的参数化方案是为单一的粗网格分辨率设计的。但是,随着我们的计算机越来越快,我们能够负担得起运行50公里、10公里、然后是2公里网格的模型时,会发生什么?在某个时刻,我们模型的动力核心将开始显式解析那些我们参数化方案本应代表的过程。一个幼稚的参数化方案会继续增加它自己的对流加热,即使模型自身的已解析上升气流正在产生加热,这会导致效应的“双重计算”。一个现代的、尺度感知的参数化方案则被设计来识别这一点。它监测已解析流动的状态(例如,垂直速度的方差),并随着过程变得越来越能被解析而优雅地“逐渐减弱”自己的贡献。这确保了从完全参数化的状态到完全解析的状态的平滑过渡,这是下一代气候模型的关键挑战。
内在不确定性: 无论多么复杂,参数化都是对复杂现实的一种近似。我们能定量地评估由此引入的误差吗?答案是肯定的,而且非常巧妙。想象一下,我们将一个云属性参数化为真实复杂物理函数的一个简单多项式近似。这等同于为真实函数写下一个泰勒级数。我们通过在(比如说)三次项处截断该级数所犯的错误,无非就是泰勒定理中的余项。数学为我们提供了这个误差的精确表达式,,它依赖于真实函数的一个更高阶导数。如果我们能为该导数设定一个物理界限,我们就能为我们参数化方案的“结构不确定性”设定一个严格的界限。这在纯数学和我们知识的实践极限之间建立了一个强大的、根本性的联系。
我们为什么如此纠结于这些看似深奥的次网格模型细节?因为气候系统是一个紧密耦合的非线性机器。在小尺度的表示中,微小而持续的误差会向上传播,导致我们对整个地球的模拟出现巨大的系统性偏差。
现代气候模型中许多最顽固的偏差都可以直接追溯到参数化方案的缺陷,特别是对流参数化。
因此,参数化不仅仅是针对计算限制的技术性修补。它是表征我们多尺度世界物理学的科学。它是一个流体动力学、热力学、统计力学和计算机科学交汇的前沿。正确地实现它,是我们面临的最宏大的智力挑战之一,对于构建我们理解和预测未来气候所需的工具来说,它绝对是至关重要的。
窥探了参数化的内部工作原理后,我们可能会倾向于认为它只是一系列必需但或许平淡无奇的数学技巧——支撑气候模型这座宏伟大教堂的脚手架。但这样做将只见树木,不见森林。参数化不仅是计算上的便利工具;它们是模型用以讲述主宰我们世界的复杂多尺度过程的语言。它们是连接学科的桥梁,是探索地球遥远过去的工具,也是我们审视其潜在未来的透镜。正是在其应用中,这门科学艺术的真正力量和美丽才得以展现。
让我们从我们都能看到的东西开始:一朵云。对于气候模型而言,一个网格单元的边长可能有一百公里,这是一个广阔的区域。在这个单元内部,一个真实的雷暴可能会生生灭灭,它是一座宏伟、湍急的空气和水构成的塔——这个过程对于模型来说太过微小和迅速,以至于无法直接“看见”。那么,模型如何知道一场风暴正在酝酿?它依赖于一个参数化方案,一种为次网格世界服务的统计天气预报员。这些方案审视大尺度条件——温度、湿度、空气的上升运动——并对看不见的风暴的集体效应做出有根据的猜测。它们回答诸如:它们将向高层大气输送多少热量和水分?
在一定程度上,这套机制运作得相当好。其核心假设是尺度分离:即小而快的对流世界与大而慢的模型网格世界是截然分开的。但大自然喜欢打破规则。在热带地区,雷暴常常组织成庞大的天气系统,比如Madden-Julian振荡(MJO),它能横跨数千公里,并对全球天气产生长达数周的影响。在这里,尺度不再分离,“次网格”过程已成为一个行星尺度的现象。经典参数化方案在这种情况下的失败是气候模拟领域的重大挑战之一,它推动科学家们发展新的思想,如“超参数化”,即在全球模型的每一个网格单元内部运行一个微型的高分辨率云模型——这是一种简单粗暴但效果惊人的方法,用以尊重有组织对流的复杂现实。
即使模型决定了一朵云的存在,故事也才刚刚开始。它是由什么构成的?它如何产生降水?想象一滴微小的云滴,一个微观的水球。当它下落时,空气感觉黏稠,像蜂蜜一样。对于如此小的物体,其阻力由简单而优雅的Stokes定律决定,阻力与速度成正比。云滴很快达到一个终端速度,缓缓向下飘移。但这并非雨滴的世界。相比之下,一毫米大小的雨滴是一个庞然大物。它下落得如此之快,以至于空气不再是黏稠的流体,而是一股急风。阻力变得湍急而混乱,与速度的平方成正比。雨滴本身也因气压而变形、被压扁。简单的物理学完全失效。没有哪个简洁的公式能描述它的下落。那么,模型该怎么做?它使用一种经验参数化——一个像 这样的关系式,它并非源于第一性原理,而是来自对下落水滴 painstakingly 收集的实验室数据。这是一种务实而有效的承认:有时描述复杂现实的最佳方式就是去测量它并拟合一条曲线。
当我们考虑到云并非总是由液态水构成时,这种复杂性进一步加深。在高层寒冷的大气中,它们通常由冰晶组成。这种差异是深远的。冰云通常更薄,具有不同的光学特性,且更不容易降水,因此存活时间更长。模型决定形成液态云还是冰云,可以极大地改变其对地球能量平衡的预测。这个决定取决于冻结过程,它主要有两种类型:均相冻结,即纯净水在极低温度(约 以下)下自发冻结;以及异相冻结,即冻结由一个微小的尘埃或气溶胶颗粒——冰核粒子(INP)——在温暖得多的温度下催化。因此,参数化方案必须扮演微物理裁判的角色,追踪INP的数量,并决定在给定条件下哪种途径——从液滴内部的浸润冻结、碰撞引发的接触冻结,或水汽直接在颗粒上凝华——最有可能发生。这种气溶胶、水和冰之间错综复杂的舞蹈是气候预测不确定性的一个主要来源,而这一切都在参数化方案的逻辑中上演。
我们讨论过的每一种参数化——对流、降水、冰的形成——最终都归结于气候最根本的问题:能量收支。云是地球温度的伟大调节器,它将阳光反射回太空,并捕获从地表辐射出的热量。但模型是如何计算这一切的呢?辐射与物质的相互作用极其复杂。像二氧化碳或水蒸气这样的温室气体不只是在单一频率上吸收光线,而是在成千上万条独立的、尖锐的谱线上吸收。要为整个大气层逐线计算整个光谱的辐射传输,会让世界上最大的超级计算机也无法承受。
取而代之的是,模型使用一种被称为相关k分布方法的杰出参数化方案。其核心思想是认识到,从辐射的角度看,光的具体频率并不重要,重要的是它被吸收的强度。该方法巧妙地将整个光谱不按频率,而是按吸收强度重新排序。通过仅为几个有代表性的吸收强度“区间”计算辐射传输,它能以惊人的准确度和极小的计算成本重现总效应。这是一个美丽的例子,展示了如何将深刻的物理洞察力转化为优雅而强大的数学捷径,使气候模型能够高效地模拟温室效应。
我们的星球是一个相互连接的系统。大气、海洋、陆地和生物圈在不断地交换能量和物质。参数化方案构成了桥梁,让这些组成部分在模型中能够相互“对话”。
想象一下风吹过海洋。这不仅仅是一种天气现象;它是大气向海洋传递动量的主要方式,驱动着在全球范围内输送热量的洋流。传递的动量大小取决于海面的“粗糙度”。但什么决定了这种粗糙度?一个简单的参数化方案可能只假设一个恒定值。一个更复杂的方案则认识到海面是一个动态界面。由强烈的局地风掀起的年轻、波涛汹涌的海面,对风来说比那些从遥远风暴传播而来的长而滚动的涌浪要“粗糙”得多。因此,现代模型使用依赖于海况的参数化方案,通常利用一个波浪模型来告知大气模型海面有多粗糙。这种耦合对于准确预测飓风的强度至关重要,因为飓风的能量来自于温暖海洋表面的能量输送——而这种输送正是由这些粗糙度参数化方案所控制的。
海洋和大气也交换物质,对我们而言最关键的是二氧化碳。海洋吸收我们排放的的速率,是我们星球气候的一个关键调节器。这个过程由海洋顶部的薄薄的湍流边界层所控制。气体交换速度是此交换中的一个关键参数,已知它强烈依赖于风速。几十年的研究和观测催生了各种参数化方案,通常是风速的二次函数(),使得地球系统模型能够计算这一至关重要的碳通量。正是通过这样的参数化,模型才能够将风和波浪的物理学与全球碳循环联系起来,帮助我们理解我们时代最紧迫的问题之一:所有的碳都去哪儿了?。
有了这些工具,我们能做的不仅仅是预报天气。我们可以成为时间旅行者。在2万年前的末次冰盛期(LGM),当巨大的冰盖覆盖北美时,气候有何不同?古气候记录告诉我们,当时的大气更冷,许多地方也更干燥。利用一个用于对流的夹卷羽流参数化方案,我们可以问模型:更干燥的大气对雷暴有什么影响?参数化方案提供了一个清晰的物理答案。将干燥空气夹卷入一股上升的湿润羽流会削弱其浮力。在LGM更干燥的世界里,一个对流气块在其底部需要更强的初始能量“踢”,才能在上升过程中存活下来并发展成深对流风暴。因此,参数化方案提供了一个物理机制,将过去的大尺度环境变化与天气系统的行为联系起来。
这些同样的工具也让我们能够探索潜在的未来,包括那些涉及地球工程的未来。一个被提出的想法是海洋云增亮(MCB),建议向海洋空气中喷洒海盐气溶胶,使云变得更明亮、更具反射性,从而为地球降温。我们该如何着手评估这样一个激进的想法?答案就在于我们已经讨论过的气溶胶-云相互作用参数化方案中。这些方案将气溶胶粒子(CCN)的数量与云滴()的数量联系起来。增加更多的CCN会产生更多、更小的液滴。这会产生两种效应:Twomey效应,即在含水量相同的情况下,拥有更多、更小液滴的云会变得光学上更厚,反射更多的阳光;以及Albrecht效应,即更小的液滴形成降水的效率较低,使云的寿命更长,含水量更高。这两种效应都源于参数化,是MCB假说的核心,使这些方案成为评估此类技术潜在效力和意外后果不可或缺的工具。
如果说参数化如此核心,那么它们也是气候预测中不确定性的最大来源之一,这也是事实。不同的模拟团队做出不同的选择,导致不同的结果。这不是科学的失败,而是其反映。科学家们通过集合建模来直面这个问题。他们创建结构集合,即不同模型的集合,以描绘我们物理理解中的不确定性()。他们运行扰动物理集合,即在单个模型中改变参数值,以探索我们测量中的不确定性()。他们还运行初始条件集合,即用微小的不同条件启动同一个模型,以量化混沌本身带来的不可约减的不确定性。这个框架,被用于像耦合模式比较计划(CMIP)这样的项目中,允许科学家为他们的预测附加置信水平,并理解哪些方面是稳健的,哪些仍然是不确定的。
这把我们带到了该领域的最前沿。如果从简化理论推导参数化如此困难,我们能否教一台机器来为我们做这件事?这就是利用机器学习进行参数化发现的革命性思想。其目标是深远的。它不是要教神经网络去预测“天气”——即系统的确切轨迹——这因混沌而不可能。相反,目标是教它重现系统的长期统计行为,即其“气候”。用动力系统的语言来说,目标是创建一个降阶模型,其不变测度——描述在长时间内发现系统处于任何给定状态的概率的数学对象——与真实高分辨率系统的相匹配。通过这种方式构建问题,利用像Kullback-Leibler散度这样的损失函数来比较概率分布,科学家们正在训练人工智能去发现未解析物理的统计“幽灵”。这不仅仅是曲线拟合;这是一场深刻而美丽的探索,旨在学习支配我们气候系统的基本统计定律,为我们理解和预测地球命运的征程开启新的篇章。