try ai
科普
编辑
分享
反馈
  • GCM参数化:在气候模型中表示不可见过程

GCM参数化:在气候模型中表示不可见过程

SciencePedia玻尔百科
核心要点
  • GCM参数化是用来表示那些因尺度太小而无法被模型网格明确解析的物理过程(如云和雷暴)的方法。
  • 一个参数化方案通过定义次网格过程的触发条件、强度(闭合方案)及其物理机制(如夹卷)来近似该过程。
  • 参数化对于模拟关键的气候现象、理解过去的气候以及评估地球工程等未来情景至关重要。
  • 该领域正通过尺度感知方案、随机方法和机器学习等手段向前发展,以构建更准确、物理上更一致的气候模型。

引言

全球气候模型(GCM)是我们理解和预测地球气候最有力的工具。它们通过将地球划分为一个由大型方框组成的网格,并在每个方框内求解基础物理方程来运作。然而,这带来了一个根本性问题:无数关键的气候过程,从单个云滴的形成到雷暴的湍流搅动,都远小于任何模型的网格框。这种“尺度间隙”意味着模型对次网格世界是“盲目”的,而这个世界的集体影响却从根本上塑造了我们的全球气候。

为了弥合这一间隙,科学家们依赖一种称为​​参数化​​的技术——这是一种表示这些不可见过程净效应的艺术与科学。本文深入探讨了气候模拟中这一核心实践的精髓,阐述了近似复杂物理过程所面临的挑战,并解释了这些近似方法是如何构建和验证的。

首先,在​​原理与机制​​部分,我们将探讨参数化为何必要,并剖析参数化方案的构成,审视其核心组成部分,如触发机制、闭合方案和物理机制。然后,我们将踏上该领域的前沿,探索包括人工智能在内的现代技术如何使这些近似方法变得更智能、更可靠。接下来,在​​应用与跨学科联系​​部分,我们将看到这些参数化方案不仅是技术上的修补,更是强大的发现工具,使我们能够揭示复杂的气候反馈、重建远古世界,并评估人类对气候系统的潜在影响。

原理与机制

想象一下,你试图描绘一片壮丽广袤的森林,但每平方英里你只能用一个词来描述。你可能会用“树林”来形容一个方块,用“湖泊”来形容另一个。但那平方英里内错综复杂的生命之舞呢?一棵棵独立的树木,透过树冠的缕缕阳光,穿梭于林下的动物,甚至从树叶蒸腾的水汽——所有这些细节都丢失了。你只剩下一个模糊的、平均化的印象。这正是气候科学家所面临的挑战。

盒子里的世界:一个尺度问题

全球气候模型(GCM)本质上是我们星球气候系统的一张数字照片。像任何数字图像一样,它由像素组成——在这里,是三维的网格盒。在现代气候模型中,一个典型的网格盒边长可能达到100公里。模型为这些巨大盒子内的平均属性求解基础物理方程——质量守恒、动量守恒和能量守恒。但想想所有小于100公里的现象:一场雷暴、一缕海盐喷雾、山后湍急的风涡、云中冰晶的精细形成。这些对于模型的控制方程来说都是“不可见的”。

这里存在一个根本性的限制,这个概念对任何处理过数字信号的人来说都很熟悉,即奈奎斯特-香农采样定理。简单来说,要准确捕捉一个波,你需要以至少每波长两次的频率对其进行采样。这意味着一个网格间距为100公里的模型,充其量只能解析波长为200公里或更长的大气波和特征。任何更小的东西都在平均化的模糊中完全丢失了。模型能看到的和实际发生的之间这道巨大的鸿沟,被称为​​尺度间隙​​。

我们不能简单地忽略这些较小的“次网格”过程。无数微小云滴的集体效应决定了一个区域是向太空反射阳光还是吸收阳光。成千上万场雷暴的垂直搅动,虽然单个规模很小,但其作用如同一个巨大的引擎,将热量和水汽从热带输送到两极。次网格世界虽然在模型的直接凝视下不可见,却深刻地塑造着模型试图预测的大尺度气候。如果我们希望得到一个忠实的模拟,就必须找到一种方法来表示所有这些看不见的活动的平均效应。这种表示不可见事物的艺术与科学,就叫做​​参数化​​。

近似的艺术:参数化方案剖析

那么,如何在不实际模拟雷暴的情况下,捕捉到雷暴的精髓呢?让我们深入了解一下。参数化本质上是一个简化模型——一套规则——它存在于GCM的网格盒内,告诉主模型某个次网格过程的净效应是什么。为了构建这样一个方案,其设计者必须回答三个基本问题。

首先是​​触发机制​​:过程在什么条件下启动?对于热带对流,触发机制是大气不稳定。地表温暖潮湿的空气就像一根被压缩的弹簧,蕴含着巨大的位能。气象学家用一个名为​​对流有效位能(CAPE)​​的值来量化这一点。参数化方案会持续检查网格盒中的CAPE值。一旦超过某个阈值,触发机制就被激活,方案会宣布:“对流现已激活!”

其次是​​闭合方案​​:一旦触发,过程有多强?一场雷暴并不会在瞬间释放其所有能量。闭合方案是控制其强度的规则。一种常见的方法是​​CAPE弛豫闭合​​。它假设对流将消耗可用的CAPE,使大气在一个特征时间尺度(可能是一两个小时)内回归到更稳定的状态。这决定了空气向上运动的整体强度,即对流“质量通量”。

第三是​​机制​​:从物理上看,这个过程如何运作?雷暴并非一个均匀上升的气块,而是一个复杂的、湍流的羽流,与周围环境剧烈混合。参数化必须捕捉到这一本质。许多方案将对流云模拟为一个简单的上升​​气流柱​​,它不断地从其环境中吸入或​​夹卷​​空气。这个夹卷率是一个关键参数。一个夹卷了大量干燥对流层中层空气的气流柱会更弱,上升高度也较低。一个被夹卷稀释程度较低的气流柱则浮力更强,能深入到高层大气。

这些看似技术性的选择并非无足轻重的细节;它们对模拟的气候有着深远的影响。如果一个模型的对流方案夹卷率太低,模拟的对流就会对其周围空气的湿度不敏感。这可能导致一个更不稳定的热带气候,促成一个臭名昭著的模型偏差,即“双ITCZ”,在赤道以南出现第二条虚假的热带雨带。如果触发机制和闭合方案过于简单,模型可能会在整个下午产生温和持续的毛毛雨,无法捕捉到能量积聚最终形成逼真的、强烈的午后雷暴的过程。正确设置参数化是获得正确气候的关键。

形形色色的不可见过程

参数化的挑战远不止雷暴。每个GCM都容纳了各式各样的次网格方案,每一种都在处理不可见世界的不同部分。

考虑云中冰的形成。这是一个​​云微物理​​问题,发生在微米尺度上,却决定了云的亮度、寿命以及它将产生雨还是雪。冰的形成有两种方式。在极低的温度下(约低于-38℃),纯水滴可以自发冻结,这个过程称为​​均相核化​​。在较暖的温度下,冻结需要催化剂——一种微小的尘埃或生物物质,称为​​冰核粒子(INP)​​。这是​​异相核化​​。一个冰形成参数化方案必须包含这种纳米尺度物理的精髓,根据温度、水滴大小和空气中预测的INP浓度来计算冻结的概率[@problem-id:4024204]。

再来看一个更戏剧性的例子:​​重力波拖曳​​。当风流过山脉时,会在大气中产生涟漪,就像水流过溪流中的岩石一样。这些“重力波”通常太小,GCM无法解析。然而,它们可以垂直传播数十公里,并携带动量。当这些波到达平流层的稀薄空气时,它们会像海浪拍打沙滩一样破碎。在破碎时,它们释放动量,对高空风施加强大的拖曳力。这是一个显著的“超距作用”案例,地球表面一座微小、未被解析的山脉,可以减缓50公里高空的极涡。如果没有重力波拖曳的参数化,气候模型根本无法再现观测到的全球大气环流的强度和结构。

前沿:构建更智能的近似方法

几十年来,参数化方案都是为特定的、粗糙的模型分辨率设计的,并且基本上是静态的。但随着计算机变得越来越强大,网格盒越来越小,我们进入了一个“灰色地带”,模型开始部分解析那些曾经完全是次网格的过程。一个旧的参数化方案,对此毫无察觉,会继续施加其全部影响,导致物理过程的“双重计算”。研究的前沿在于构建更智能、更动态的参数化方案。

一个现代的方案必须是​​尺度感知的​​。它需要识别它所在模型的分辨率。随着网格尺度Δ\DeltaΔ缩小到与过程的特征尺度ℓp\ell_pℓp​(例如,对流云的深度)相当,参数化方案应该优雅地减少或“削减”自己的贡献,平滑地将责任移交给模型的显式动力学。

此外,我们必须承认次网格世界不是确定性的;它是混沌的。一个对单一输入只给出一个输出的简单规则总会遗漏些什么。这促进了​​随机参数化​​的发展,它拥抱这种随机性。例如,夹卷率可能不再是一个固定的数字,而是一个随时间和空间在平均值附近波动的随机变量。这不仅仅是为了增加噪声而增加噪声。在一个美妙的、反直觉的数学转折中,引入结构化的随机性实际上可以纠正模型平均气候中的系统性误差。这种效应被称为​​随机订正​​,它之所以发生,是因为噪声与系统非线性动力学的相互作用可以对平均态产生一个净的、非零的影响,从而将模拟推向更接近现实的状态。

一些过程也具有​​记忆性​​。今天的降雨通过增加土壤湿度来影响明天,这可能为新的对流提供燃料。单个云组织成一个大的中尺度对流系统需要数小时的发展时间。一个复杂的参数化方案可能需要其网格盒近期历史的记忆,而不仅仅是当前时刻的快照。

也许最激动人心的前沿是气候科学与人工智能的融合。与其试图从第一性原理推导出简化的物理规则,我们是否可以学习它们?科学家们现在正在运行超高分辨率的模拟,这些模拟几乎解析了所有重要的大气运动。然后,他们用这些数据来训练​​神经网络​​,以模拟次网格物理过程。机器直接从数据中学习大尺度状态和小尺度效应之间复杂的、非线性的关系。这种强大的方法也迫使我们更深刻地思考不确定性。一个学习到的参数化方案不仅必须告诉我们它对次网格趋势的最佳猜测,还必须告诉我们它的置信度有多高。这种不确定性有两种。​​偶然不确定性​​是物理本身固有的随机性——即使有一个完美的模型也存在的不可简化的噪声。​​认知不确定性​​是模型自身的知识缺乏,这源于训练数据的有限。区分“我们无法知道的”和“我们还不知道的”对于构建可信赖的AI驱动气候模型至关重要。

最后,还有一种大胆而简洁的方法:如果无法参数化它,那就模拟它!在一项被称为​​超参数化​​的策略中,科学家们在粗糙的全球模型的每个网格盒内嵌入一个完整的高分辨率模型。每个100公里宽的GCM列都包含其自己的私有二维云解析模型。GCM处理大尺度的行星环流,并告诉每个嵌入式模型大尺度环境是怎样的。然后,嵌入式模型显式模拟该环境内的翻腾雷暴和云层,并将净效应报告回GCM。这是一种“用显式物理进行的参数化”——一种计算成本高昂但优美的混合方法,它用一个直接的、尽管是小尺度的真实模拟,取代了连篇累牍的近似方程。这个多样化且快速发展的策略领域表明,参数化不是一个已解决的问题,而是现代科学中最具活力和创造性的领域之一。

应用与跨学科联系

在深入了解了全球气候模型(GCM)的复杂机制以及参数化的必要性之后,人们可能会留下这样的印象:这些不过是巧妙的权宜之计——为弥补我们计算能力差距而不得不打上的补丁。但这样想就完全错失了重点!参数化不仅仅是拐杖;它们是我们探索次网格尺度未知世界的科学探针。它们是物理定律的体现,被提炼成模型能够理解的形式。正是通过它们,GCM从粗糙的数字装置转变为探索地球过去、现在和未来的强大实验室。真正的冒险由此开始。

可能性的艺术:锐化我们对气候的看法

我们气候系统中一些最重要且极为复杂的模式,源于大尺度条件和小尺度物理之间微妙的相互作用。一个典型的例子是马登-朱利安振荡(MJO),这是一种巨大的、缓慢移动的云和降水脉冲,它环绕热带向东传播,影响着全球的天气模式。几十年来,传统的GCM一直难以捕捉MJO。它们的参数化方案通常将对流直接且瞬时地与网格盒中的水分含量联系起来,反应过快。它们在对流系统能够组织起来并与其邻近系统“沟通”之前就扼杀了其生命,从而无法维持MJO缓慢而壮观的行进。

为了解决这个问题,科学家们设计了一种激进而巧妙的方法,称为“超参数化”。这个想法近乎大胆:如果简单的规则无法捕捉复杂性,那就不要用简单的规则!取而代之的是,在每个大型GCM网格盒内部,他们嵌入一个微小的二维云解析模型,该模型详细模拟云的湍流生命和组织过程。这个“模型中的模型”明确地捕捉了中尺度组织——飑线的形成、深厚对流加热与层状降水之间的关键分离,以及触发新对流的冷池的生成。这些细节提供了所缺失的“记忆”和物理丰富性。云解析模型计算出这场复杂舞蹈的净效应,并将其传递回大尺度GCM。结果呢?一个戏剧性地更逼真的MJO,具有正确的速度和结构,从改进的物理过程中自然而然地涌现出来。这不仅仅是更好的模拟;它证明了这样一个观点:捕捉到正确的小尺度物理是解开大尺度图景的关键。

解开气候精密的网络

地球的气候是一个相互关联的杰作,一个反馈之网,牵一发而动全身。参数化是让我们能够拉动这些丝线并观察会发生什么的工具。它们让我们能够提出“如果……会怎样?”的问题。

想象一个看似无伤大雅的问题:如果雪下落得快一点会怎样?一个配备了微物理参数化方案的GCM可以给我们一个惊人而深刻的答案。让我们来追溯其后果。首先,雪花更高的终端速度(vtv_tvt​)意味着它们在大气中下落的时间更短。如果它们穿过一个高于冰点的气层,这更短的穿行时间意味着在落地前融化成雨的雪更少。因此,更多的降水以降雪形式落地。这反过来又增加了地表的积雪覆盖,使地面更明亮。更明亮的表面具有更高的反照率,意味着它将更多的阳光反射回太空,从而产生冷却效应。

但这还不是全部!还有一个与之竞争的效应。如果雪花更快地从云中沉降出来,云本身会变得更薄,含冰量更少。更薄的云对阳光的透射性更强,允许更多的太阳能到达地表,这会引起变暖。所以,我们有两个相互竞争的反馈:一个来自更明亮表面的冷却效应,一个来自更薄云层的变暖效应。哪个会胜出呢?通过运行GCM并仔细分析收支,我们可以找到答案。在一个典型的情景中,地表反照率效应占主导地位。额外积雪增加的反射率压倒了云层变薄的效应,导致地表净冷却和更稳定的积雪。这个绝佳的例子表明,一个单一、简单的参数——雪的下落速度——如何能在整个气候系统中引发一连串的变化,以及参数化如何让我们能够剖析这个错综复杂的机器。

从冰河时代到地球工程:跨越过去与未来

我们的模型及其参数化不仅仅用于模拟当今世界。它们是我们的时间机器,让我们能够进入遥远的过去,探索潜在的未来。

对我们物理学理解的最大考验之一,是看它在截然不同的条件下是否仍然成立。大约2万年前的末次冰盛期(LGM)提供了一个完美的测试案例。那时的世界要冷得多,巨大的冰盖覆盖着北美和欧洲,大气普遍更干燥。这对像雷暴这样的日常天气有何影响?我们可以使用对流参数化方案,例如一个简单的“夹卷气流柱”模型,来进行调查。该模型将一个上升的气块视为一个与其周围环境不断混合的气流柱。在LGM更干燥的大气中,这种被夹卷的空气湿度会特别低。这种干燥空气像海绵一样,稀释了气流柱的浮力,削弱了它的能量。我们的参数化告诉我们,为了克服这种增强的稀释作用并维持深对流,云底的初始“触发”需要比今天气候中更有力得多。这个应用展示了植根于物理学的参数化方案,如何成为古气候学家试图理解古代气候机制的宝贵工具。

展望未来,人类正在考虑采取大规模干预措施来应对气候变化,这一领域被称为地球工程。其中一个提议是海洋云增亮(MCB),即用船只向海洋大气中喷洒微细的海盐气溶胶,使低空云层更明亮、更具反射性。我们显然不能在不了解后果的情况下,在真实的地球上进行如此巨大的实验。这时,GCM就变得不可或缺。实验在计算机内部进行。我们将海盐气溶胶“注入”模型的海洋边界层。模型的“气溶胶-云”参数化方案随后接管。它计算这些新粒子如何作为云凝结核(CCN)。有了更多的CCN,同样数量的云水被分配到更多、更小的水滴中。这是第一个气溶胶间接效应,或称“Twomey效应”,它增加了云的光学厚度,使其更亮。但这还没完。降水形成的参数化知道,充满微小水滴的云在产生降水方面效率很低。这种对降水的抑制增加了云的液态水路径及其寿命——这是第二个气溶胶间接效应,或称“Albrecht效应”——进一步放大了增亮效果。因此,参数化是我们评估这类行星尺度提案的有效性及潜在意外副作用的主要、合乎伦理的工具。

新的曙光:机器学习的兴起

几十年来,参数化一直由科学家根据简化的理论和观测手工制作。但是,如果我们能直接从数据中学习次网格世界的复杂规则呢?这就是机器学习带来的革命性前景。策略是运行精细的高分辨率模型(如大涡模拟),这些模型明确解析小范围内的湍流和对流物理过程。这些模拟在计算上过于昂贵,无法对全球进行,但它们可以作为一个“完美的”虚拟现实。然后,我们将这个“真值”模拟的输出粗粒化到GCM的尺度,并训练一个神经网络来寻找映射关系:给定粗粒化的大气状态,预测所有未解析的小尺度过程的净效应。

然而,这并非一个简单的黑箱操作。一个至关重要的见解是,任何机器学习的参数化都必须被强制遵守基本的物理定律。一个只为最小化预测误差而训练的神经网络,在长时间的模拟中可能会缓慢地创造或毁灭能量,导致灾难性的模型漂移。因此,现代方法构建了“物理信息”的机器学习模型。训练过程受到约束,迫使神经网络的预测遵守质量、动量和能量的守恒定律。像“多保真度学习”这样的先进技术甚至允许模型从稀疏、高质量的“真值”数据和来自现有GCM的丰富、低质量数据的组合中学习,从而创造出一个兼具两者优点的混合模型。这个新前沿正在迅速改变该领域,将数据驱动方法的原始力量与物理原理的坚定严谨性融为一体。

科学家的考验:我们如何建立信任

一个新的参数化方案,无论是从理论手工打造还是由机器习得,都只是一个假设。在它能够被一个耗资数百万美元的气候模型信任之前,它必须通过一系列严苛的测试——一个旨在系统性地揭示其优缺点的科学考验。

这种分层评估协议是模型开发的基石。首先,新的参数化方案在单柱模型(SCM)中运行,该模型仅模拟大气的一个垂直柱。在这里,在这个简化的“试管”中,我们可以检查基本的缺陷。它是否守恒能量和水?它在数值上是否稳定?在给定的强迫下,它是否产生物理上合理的结果?我们使用详细的基准,这些基准是从高分辨率模型中仔细粗粒化得到的,以确保新方案的收支闭合和统计行为是可靠的。

如果通过了这一阶段,该参数化方案将升级到一个“水行星”——一个被水覆盖、没有大陆或山脉的GCM。这是该参数化方案第一次与大尺度动力学自由相互作用。在这里我们会问:模型是否能稳定到一个稳定的气候?它是否能正确地产生像哈德利环流和热带辐合带这样的涌现特征?或者它是否表现出典型的偏差,如“双ITCZ”,这指向其与动力学耦合的缺陷?

只有在水行星模型中存活下来之后,该参数化方案才会被应用到完整的、极其复杂的GCM中,这个GCM具有真实的大陆、海洋、冰和季节循环。在这里,它面临着最终的考验:它能再现观测到的平均气候、像厄尔尼诺这样的变率模态以及极端天气事件的统计数据吗?这个严格的、循序渐进的过程确保了当一个参数化方案被用于气候预测时,它已经是一项稳健且被充分理解的科学成果。

因此,参数化是GCM的核心。它们是我们物理直觉与计算现实相遇的地方。它们是发现的引擎,让我们能够理解当前气候的精细反馈,重建过去的世界,并探索我们未来的可能世界。