
现代天气预报和气候预测的准确性取决于一个隐藏在视野之外的复杂挑战:如何处理比模式的数字“眼睛”所能看到的更小的过程。其中最关键的是对流风暴——那些高耸的雷暴,它们输送大量的热量和水汽,驱动天气系统并塑造全球气候。虽然至关重要,但它们的小尺度使其在全球模拟中无法被解析,这在我们的預測能力中造成了巨大的知识鸿沟。本文深入探讨了科学家们开发的巧妙解决方案:对流参数化。
接下来的章节将引导您了解这个引人入胜的课题。首先,在“原理与机制”一章中,我们将探讨基本的尺度问题以及巧妙的理论框架,例如质量通量方案和准平衡原理,这些框架使得模式能够表征这些不可见风暴的集体效应。然后,在“应用与跨学科联系”一章中,我们将看到这些参数化方案对现实世界产生的深远影响,从日常降雨预报到模拟像厄尔尼诺这样的全球气候现象,并探讨在人工智能时代该领域的未来。
要理解我们如何可能预测天气,我们必须首先认识到关于大气的一个深刻而棘手的事实:它是一部在惊人尺度范围内上演的混沌杰作。想象一张地球的卫星图像;你可以看到绵延数千公里的气旋和天气锋面的壮丽涡旋形态。现在,放大。继续放大。越过区域天氣系統,越过城市,直到你看到一个孤立的高聳雷暴。这个美丽而猛烈的气柱,是我们星球气候的关键引擎,其宽度可能只有几公里。而一个试图捕捉整个地球的全球天气模式,可能会使用一个由数字“像素”组成的网格,每个“像素”的宽度为25、50甚至100公里。
这就是我们挑战的核心。当风暴本身只是一个可以被几十次放入单个网格单元的小点时,模式如何能够“看到”雷暴呢?
让我们用数字来说明这一点。考虑一个典型的全球模式,其网格间距为 。一个网格单元的面积高达 。现在,想象一个典型的深对流上升气流,即雷暴的上升核心,其直径约为 。它的面积仅为 。这个至关重要的风暴引擎所占网格单元的比例小得惊人:
这意味着上升气流所占面积不到网格单元面积的0.04%。从模式的角度来看,风暴不仅小,它根本上是次网格的。这是一场发生在像素之间的不可见的舞蹈。
显而易见的解决方案似乎是:“把像素做小就行了!”但这里我们遇到了计算成本的残酷暴政。要恰当地解析那个的上升气流,我们需要大约或更小的网格间距。将网格从加密到,水平网格单元的数量将增加倍。但这还不是全部。数值模拟的一个基本规则,即CFL条件,规定更小的网格单元需要更小的时间步长来保持稳定性。这将使时间步长的数量再增加倍。总计算成本将爆炸性增长约倍。一次为期一周的预报将需要几个世纪来计算。在可预见的未来,我们注定要忍受这种模糊的视野。这就是为什么我们需要对流参数化:一套巧妙的规则,用来表征这场不可见舞蹈的集体效应,而无需模拟其中的每一步。
如果我们不能直接看到风暴,我们如何说明它们的影响?早期的尝试将对流视为一种增强的混合,就像将奶油搅入咖啡——这个过程称为扩散。但这没有抓住重点。对流不是随机的搅拌;它是一个有组织的、强大的垂直输送系统。它是一部电梯,而不是一个打蛋器。
一种更符合物理直觉的方法是质量通量框架。我们不试图描述那些混乱的细节,而是将次网格世界表征为一个简单的、理想化的羽流集合:上升空气柱(上升气流)和补偿性下沉空气柱(下沉气流)。我们不关心羽流的确切形状,只关心它的质量通量 ,即每秒垂直通过它的总空气质量。
想象一个单一的上升气流羽流。当它上升时,会发生两个关键过程:
通过写出简单的质量、热量和水汽守恒定律,我们可以追踪羽流属性随高度的变化。对于一个守恒量,如羽流内部的水汽含量,其随高度的变化由一个优美简洁的方程控制:
在这里,是环境中的水汽含量。这个方程告诉我们一个深刻的道理:唯一能改变羽流内守恒物质浓度的,是环境空气的卷入。卷出过程移除了空气,但移除的是具有羽流自身属性的空气,所以它不会改变剩余物質的平均浓度。这种优雅的理想化使我们能够模拟驱动天气和气候的关键物理量的垂直输送。
质量通量思想为我们提供了一种描述次网格风暴的语言,但它留下了一个最重要的问题悬而未决:应该有多少对流?这被称为闭合问题。我们需要一个指导原则,根据模式能够看到的大尺度条件来确定参数化对流的强度(例如,总质量通量)。
突破来自于一个被称为准平衡(QE)的概念,其最著名的阐述者是Arakawa和Schubert。这个想法源于时间尺度的分离。思考一个雷暴的生命周期。从生成到消亡,它可能持续30-60分钟。这是它的对流调整时间尺度()。相比之下,为风暴创造条件的大尺度过程——如太阳缓慢加热陆地,或一个大的天气锋面逐渐汇聚水汽——则在数小时甚至数天的尺度上运行。这是大尺度强迫时间尺度()。
由于,对流能够几乎瞬间响应大尺度强迫。这引出了一个强有力的类比:对流系统集合就像一个行星恒温器。
QE假设指出,“空调”效率如此之高,以至于“温度”(CAPE的量)永远不会累积到非常大的值。它保持在一个近乎平衡的状态,即对流消耗CAPE的速率几乎完全平衡了大尺度强迫产生CAPE的速率。这意味着我们不需要预测单个风暴混乱的生命与死亡;我们只需要诊断出维持这种平衡所需的对流数量。
QE“恒温器”是一个强有力的指导原则,但在实践中它如何运作?我们需要两个关键组成部分:一个启动它的开关(触发机制)和一个设定其强度的旋钮(闭合)。
一个常见的触发机制不仅涉及燃料(CAPE),还涉及释放它的障碍。通常,一层浅薄的稳定空氣位于地表附近,就像沸水壶上的盖子。气块必须被强迫抬升穿过这一层,才能利用上方的CAPE。突破这个“盖子”所需的能量被称为对流抑制(CIN)。因此,一个简单的触发条件不仅仅是“是否有CAPE?”,而是“是否有足够的抬升能量来克服CIN?”。这种抬升能量可以来自模式解析出的风场,例如天气锋面处的抬升,从而在大尺度气流和次网格风暴的触发之间提供了物理联系。
一旦触发,我们如何设定强度?最优美的闭合方法之一基于一个简单的收支平衡。例如,水汽辐合闭合基于水量守恒原理。对于一个处于稳态的气柱,以降水 () 形式降落的水量必须与流入的水量相平衡。水通过水平辐合(风将水汽吹入气柱)和下方地表的蒸发()流入。因此,参数化方案只需计算出平衡收支所需的降水量:
然后,方案会计算产生这么多降水所需的对流质量通量()。这是一个利用基本守恒定律来闭合系统的优美例子。
几十年来,这个基于清晰尺度分离的框架一直很好地服务于大气模式。但随着计算机变得越来越强大,模式进入了一个新的、充满挑战的领域:对流灰色地带。这发生在网格间距大约在1到10公里之间。在这里,网格单元太小,QE假设不再成立,但又太大,无法明确解析风暴的细节。
在灰色地带,时间尺度的分离失效了。像飑线这样的强天气事件可以在与对流时间尺度相当的时间尺度上产生不稳定性。恒温器的类比不再适用;温度会劇烈波动,因为空调跟不上。
更糟糕的是,模式自身的动力学开始产生粗糙的、网格尺度的风暴。一个尺度不感知的参数化方案,对解析动力学正在做什么一无所知,继续生成它自己的参数化风暴。结果是双重计算:模式对同一个物理过程有了两种独立的表征,导致了极其不切实际、爆发性的对流。这是现代天气建模的核心危机。
解决灰色地带问题的方法是让参数化方案变得“更智能”。它需要具备尺度感知能力。它必须知道模式的网格间距,并相应地调整其行为。核心思想是,参数化方案应该只负责模式无法解析的那部分对流。
想象一个对流场的总能量按空间尺度分解,就像一个和弦被分解成音符一样。模式网格只能“听到”低频音符(大尺度)。参数化方案的工作就是奏出模式遗漏的高频音符(小尺度)。
一个尺度感知方案会计算总对流方差中有多少是网格未解析的。随着网格间距变小,模式可以解析更多的对流谱,这个未解析的部分就会缩小。然后,参数化方案的强度会按此比例进行缩放。随着模式的“视野”变得更清晰,参数化方案会平滑地淡出,确保平稳过渡并防止双重计算。这种显式动力学与智能参数化的融合,代表了我们创造一个无缝且物理一致的虚拟大气探索之旅的前沿。
窥探了对流参数化方案的复杂机制后,我们可能会倾向于将其视为大气建模者的一个小众的技术性问题。但事实远非如此。这些参数化方案不仅仅是晦澀的代码;它们是我们模拟和预测塑造我们世界的天气和气候能力的核心。它们是将云朵的最小一缕轻烟与地球宏大的环流联系起来的齿轮。现在,让我们踏上一段旅程,看看这个‘看不见的引擎’在何处发挥作用,从你当地午后雷暴的时间到全球气候格局的命运。
在我们相信一个参数化方案能预测天气之前,我们必须首先构建并测试它。这个过程是艺术与科学的巧妙结合。想象一下,试图通过观察平均绿色和土壤中的总水量来描述整个森林的行为。这就是建模者面临的挑战。他们必须在粗糙的网格框内创建一个对流的“幽灵”,使其平均行为与它所代表的真实、充满活力和混乱的云团集合相符。
这个幽灵并非任意构建;它建立在物理原則之上。像广泛使用的Kain-Fritsch参数化方案这样的一些方案,有一套‘调节旋钮’,但这些不是随机的刻度盘。它们对应着真实的物理概念:卷入率 ,它控制着有多少干燥的环境空气被混合到上升的气羽流中;降水效率 ,它决定了云中凝结的水有多少真正以雨的形式落下,而不是重新蒸发或被吹到云砧中;以及对流调整时间尺度 ,它规定了方案从大气中移除不稳定性的速度。存在着不同的哲学,例如Zhang-McFarlane方案,它使用“CAPE松弛”闭合项在设定的时间内消耗大气不稳定性,但所有这些都是将复杂物理学提炼成一套可行规则的尝试。
我们怎么知道我们创造的幽灵是否好用?我们不能简单地把它扔进一个完整的全球气候模式中,然后指望最好的结果。相反,我们把它放进参数化方案的“风洞”里:单柱模式(SCM)。SCM是一个虚拟的大气柱,在这里我们可以隔离参数化方案,看看它在精心控制的条件下(如规定的大尺度风和辐射)如何响应。正是在这个虚拟实验室里,我们可以在将其释放到完整的全球模拟的“野外”之前,严格测试、诊断和完善我们幽灵的行为。
也许对流参数化最具体的应用是在我们的日常天气预报中。为什么有些模式预测下午会是沉闷持续的毛毛雨,而另一些模式却能正确捕捉到强烈雷暴的突然爆发性发展?答案往往在于对流是如何被表征的。
在传统的网格间距为(比如说)12公里的天气模式中,单个雷暴比单个网格框要小得多。模式必须依赖参数化方案来触发对流。通常,这些方案过于“急切”。一旦太阳把地面加热到足以产生一点点不稳定性(CAPE),参数化方案就会打开开关,模式中就开始“下雨”——通常时间太早,雨势也太温和。
现在,考虑一个现代的、高分辨率的“对流允许”模式,其网格间距仅为2公里。在这种分辨率下,模式可以开始明确解析形成真实雷暴的强大上升气流。在这里,没有针对深对流的参数化方案。要形成风暴,模式自身的动力学必须产生足够强大的上升气流,以物理方式冲破通常覆盖在边界层上的稳定空气层(对流抑制,或CIN)。这需要时间。太阳必须加热地表数小时,建立一个能够发射这些强大热泡的深厚、充满能量的边界层。结果呢?对流在下午晚些时候才开始,但一旦发生,就更强烈、更 localized,也更 realistic。
正是这个问题困擾著气候模式,导致了一個普遍的偏差,被称为“过于频繁、强度过弱”的降水问题。那些使用过于简单、作用过快的参数化方案的模式,倾向于在广阔的区域持续不断地“下毛毛雨”,而未能捕捉到在世界许多地区(特别是热带)占主导地位的、频率较低但强度更大的倾盆大雨。这不仅仅是一个数值上的奇特现象;它对模拟整个水循环,从土壤湿度和农业到河流流量和洪水风险,都有深远的影响。此外,给定方案的性能并非普遍适用;其有效性可能严重依赖于模式的分辨率,这是一个经典的“相互作用效应”,凸显了对尺度感知物理的需求。
将我们的视野从日常天气扩展到长期气候,对流参数化的影响变得更加深远,有时甚至令人震惊。这些方案内部的微妙选择可能会扭曲整个地球的模拟气候。
气候模式中最顽固的偏差之一是“双赤道辐合带”(double ITCZ)。热带辐合带(ITCZ)是地球上伟大的雨带,是一条环绕全球赤道附近的高耸雷暴带。许多模式错误地将其模拟为跨越赤道的两条独立雨带。其原因可以追溯到参数化方案的卷入率 。一个卷入率非常弱的方案会产生对周围大气湿度不敏感的云。通过一系列涉及海洋和大切度环流的复杂反馈,这可能破坏热带气候系统的稳定性,并促使雨带的人为分裂。一个关于次网格云的微小假设,重绘了热带地区的气候地图。
这种影响在地球上一些最关键的气候系统中都能感受到。数十亿人赖以为生的季风降雨,是出了名的难以模拟。其 timing 和 intensity 对模式参数化方案如何处理大气能量和水汽向降水的转化 exquisitely sensitive。搞错这一点会帶來毁灭性的人类后果。
也许这种全球相互联系的最美妙例证来自厄尔尼诺-南方涛动(ENSO)。在厄尔尼诺事件期间,中东太平洋会形成一个巨大的暖水池。爆发在这个暖水池上的雷暴向大气释放大量热量。决定这一切的,是这个加热的垂直廓线,它由对流方案决定。一个“头重脚轻”的加热廓线,将其大部分能量释放在对流层高层,在驱动高层大气辐散方面效率要高得多。这种外流就像投入池塘的石子,产生一列强大的行星尺度罗斯贝波,波及全球。这些波就是“遥相关”,它使得厄尔尼诺能够影响北美及其他地区的冬季天气。一个具有“头轻脚重”加热廓线的模式将产生较弱的波源,并大大低估ENSO的全球影响范围。
这种水汽、加热和动力学之间的复杂舞蹈也是模拟热带脉搏的关键:马登-朱利安振蕩(MJO)。这个行星尺度的对流和降水包络在30到90天内沿赤道缓慢东移,影响着全球的天气格局。用简单的参数化方案捕捉这种缓慢传播是不可能的。它需要一个有“记忆”的方案——一个允许水汽在数天内累积,包括落后于主对流的层状云带来的独特的“头重脚轻”加热,并且考虑到主事件之前浅对流云对大气的预湿润。MJO是一种涌现现象,诞生于参数化方案中编码的复杂物理学。
参数化对流的挑战如此巨大和关键,以至于科学家们现在正转向21世纪最强大的工具之一:机器学习(ML)。其目标是在超高分辨率模式(该模式明确解析对流)的“完美”数据上训练神经网络,然后让这个ML模型在较粗糙的全球模式中充当参数化方案。
但这并非简单地用AI取代物理学。一个仅为匹配输出模式而训练的朴素ML模型将不可避免地失败,因为它不能保证遵守基本的物理定律。它可能会创造或毁灭能量和质量,导致气候模拟缓慢但确定地滑向荒谬。
真正的前沿是发展*物理信息机器学习*。最有前途的设计将守恒定律直接构建到ML模型的训练过程中。例如,损失函数——即模型在训练期间试图最小化的度量标准——在设计时加入了惩罚项,迫使模型的预测遵守整层湿静力能和总水量守恒。ML模型被明确地教导:有升必有降,能量不能无中生有。
这让我们的旅程回到了起点。从能量和质量守恒的基本原则出发,我们建立了复杂的参数化方案。我们测试它们,看到它们对我们的天气和气候预测产生的深远影响,现在,我们又用同样的基本原则来指导下一代人工智能工具的开发。完美捕捉一朵小小云彩行为的探索,仍然是科学领域最宏大、最重要的挑战之一,这个挑战持续推动着我们理解和技术的边界。