
对我们的环境进行建模是一项雄心勃勃的壮举,是为我们星球的复杂系统创建一个虚拟对应物的尝试。这需要将风、浪和生物过程中错综复杂的相互作用,转化为数学和计算的结构化语言。其核心挑战不在于捕捉每一个细节,而在于抽象的艺术——识别出支配环境系统的基本原理。本文对这一过程进行了全面概述,阐明了我们如何构建、验证和应用这些强大的工具。
这段旅程始于第一章“原理与机制”,该章奠定了理论基础。它探讨了普适的守恒定律和特定于材料的本构关系如何构成物理模型的基石,并审视了使这些模型可计算化的关键步骤——离散化。该章还深入探讨了现代地球系统模型的架构,以及应对和量化不确定性的基本策略。随后,“应用与跨学科联系”一章展示了这些模型如何充当虚拟实验室。它展示了模型在理解气候动力学、预测生态变化、为公共卫生政策提供信息以及弥合自然世界与人类社会之间差距方面的应用,最终揭示了建模对科学和决策的深远影响。
对地球或其任何一部分进行建模是一项雄心勃勃的壮举。我们试图为我们的世界创建一个虚拟的对应物,一个其行为如同风、浪和天气一样的方程与数字系统。但我们该如何开始呢?难道只是简单地写下我们看到的一切吗?那将是一项不可能完成的任务。建模的艺术和科学在于抽象——寻找支配系统的基本原理和驱动其行为的关键机制。这段旅程不仅仅是关于计算机编程,更是关于与自然的深度对话,学习其语言并尊重其复杂性。
任何物理模型的基础都建立在一个简单而优美的思想之上:有些东西是守恒的。质量、能量和动量不能凭空产生,也不会无迹可寻地消失。这些就是守恒定律,物理学的基石。为了让这个想法具体化,想象一下在你想要研究的世界的某个部分周围画一个盒子——一个控制体,无论它是一片海洋、一个气团,还是一块土壤。你盒子内部某种物质的总量只能通过两种方式改变:要么它通过盒子边界流入或流出,要么它被盒子内部的源或汇所产生或消耗。
这种平衡可以用一个简单而有力的文字方程来表示:
内部物质变化率 = 流入率 - 流出率 + 生产率 - 消耗率
用微积分的语言来说,这个守恒定律表现为偏微分方程的形式,例如 ,其中 是单位体积内“物质”的量, 是通量(流动), 代表源和汇。这个方程是普适的;它适用于金属棒中的热量、河流中的水以及大气中的污染物。这是自然界强加的一条记账法则。
但在这里我们遇到了一个有趣的问题。守恒定律给了我们一个方程,但我们有两个未知数:量 和它的通量 。定律告诉我们事物必须平衡,但它没有告诉我们它们如何或为何流动。为了解决这个问题,我们需要第二条信息。我们需要局部的“交通规则”。
这些局部规则被称为本构关系。与普适的守恒定律不同,本构关系并非基本真理。它们是特定于材料的、通常是经验性的描述,说明介质如何响应力。它们通过将通量 与系统状态联系起来,提供了缺失的一环。例如:
这些关系“封闭”了方程组。通过将像傅里叶定律这样的本构关系代入能量守恒定律,我们得到了一个单一的、可解的温度方程——热传导方程。这种普适平衡原理和特定材料行为规则的强大组合,是基于物理的建模的核心。环境科学中许多最重要的控制方程,比如描述非饱和土壤中水分的理查兹方程,正是这样的复合体:一个基本的守恒定律加上经验性的本构关系。
我们现在有了优美、连续的方程。但计算机不是以连续场和无穷小变化的方式思考的。计算机用数字思考。为了使我们的模型可计算,我们必须执行一种称为离散化的转化。我们将空间切割成有限单元的网格,将时间分割成有限步长的序列。我们平滑、流动的现实被一个颗粒状、像素化的近似所取代。
这一步充满了危险。我们选择近似方程中导数的方式可能会产生巨大且常常是反直觉的后果。考虑简单的平流方程 ,它描述了一个属性 被速度为 的恒定风所携带。一个看似直接的离散化方法是在时间上向前步进(Forward Time),并使用邻近点的平均值来近似空间变化(Centered Space)。这就是FTCS格式。
直觉上这应该行得通。它遵守所谓的Courant-Friedrichs-Lewy (CFL) 条件,该条件指出,在单个时间步内,信息(一个波)不应被允许跳过超过一个网格单元。这似乎在物理上是合理的。然而,一项严格的数学分析——冯·诺伊曼稳定性分析——揭示了一个惊人的事实:对于任何非零时间步长,该格式都是无条件不稳定的。微小、不可避免的数值误差会指数级增长,迅速将真实解淹没在毫无意义的数字爆炸中。
这个经典的例子是建模中一堂深刻的课。我们的物理直觉是必要的,但还不够。离散化的行为创造了一个具有自身行为规则的新数学对象。我们必须用数学的严谨性来分析这个新对象,以确保我们的数值解有希望反映我们着手建模的物理现实。建模过程是物理世界与其离散计算表示之间的一场持续的舞蹈。
地球不是一个单一、巨大的实体。它是一个由相互作用的组成部分构成的极其复杂的系统:旋转的大气、深邃的海洋、广阔的冰盖、生机勃勃的生物圈。为了对这个系统建模,我们不试图写一个单一的、庞大的方程。相反,我们采用模块化的方法,为每个组成部分建立独立的模型,通常由不同的专家团队完成。
但是,一旦你有了一个大气模型和一个海洋模型,你如何让它们相互“对话”?它们可能位于不同的网格上——例如,大气使用常规网格,而海洋使用扭曲网格以避免两极的奇点。它们可能以不同的速度运行,快速移动的大气需要分钟级的时间步长,而缓慢的海洋则需要小时级或更长的时间步长。
这就是耦合器的工作。耦合器是现代地球系统模型的“中枢神经系统”。它是一个复杂的软件基础设施,如地球系统建模框架(ESMF),它像一个总指挥一样,协调整个模型“交响乐团”。其职责是巨大的:
耦合器本身不求解任何物理过程。它的精妙之处在于复杂且通常不可见的软件工程,它允许数十个不同的物理模型无缝交互,创造出一个远大于其各部分之和的整体。
有了这些工具,我们可以构建出极其复杂的模型。但更复杂并不总是更好。这就引出了科学中一个深刻的哲学原则:奥卡姆剃刀,即简约性原则。在其通俗形式中,它通常被表述为“最简单的解释通常是最好的”。但在科学建模中,这是一个危险且天真的解释。
对奥卡姆剃刀更复杂和正确的应用是一个两步过程。首先,一个模型必须通过两个关键测试。它必须是机制上充分的,意味着它遵守我们已知为真的基本物理定律(如守恒定律)。而且它必须是预测上足够的,意味着它可以在可接受的误差范围内重现真实世界的关键观测。只有在那之后,在通过这些测试的模型集合中,我们才援引简约性原则,并倾向于选择那个可调参数最少的模型。这是一个追求优雅和效率的原则,而非盲目追求极简主义。
这种复杂的观点迫使我们面对现代科学的一个核心主题:不确定性。我们的模型并非现实的完美再现。它们是近似,我们必须诚实地面对我们知道什么和不知道什么。建模中的不确定性大致可以分为两类:
偶然不确定性:这是系统本身固有的随机性和不可预测性。可以把它想象成掷骰子。天气的混沌特性意味着,即使一个完美的模型从一个略有不同的初始状态开始,也会产生不同的预报。我们无法消除这种不确定性;我们只能希望能描述其统计特性。
认知不确定性:这是由于我们自身知识的缺乏而产生的不确定性。它是“无知的迷雾”。这包括不知道我们本构关系中参数的精确值(参数不确定性),以及更深层次的,不知道模型本身的完美数学形式(结构不确定性)。与偶然不确定性不同,认知不确定性在原则上是可以减少的。我们可以通过收集更多数据、进行更好的实验或发展更精炼的物理理论来减少它。
区分这两种不确定性不仅仅是一项学术活动。它是指导我们科学工作的指南针,告诉我们是需要更好地描述系统固有的变率,还是需要努力减少我们对其基本运作方式的无知。
如果我们承认我们的知识是不完整的(认知不确定性),并且没有一个单一模型是完美的真理,我们能做什么呢?依赖单一模型就像只征求一位专家的意见——你得到一个答案,但你无法了解其他可能选项的范围。
解决方案是一种科学谦逊与合作的形式:模型比对项目 (MIP)。一个MIP,就像支撑全球气候评估的著名耦合模型比对项目 (CMIP) 一样,是一项优美的科学实验。其想法简单而强大:来自世界各地的几十个不同的建模小组,每个小组都有自己结构上不同的模型,同意运行完全相同、高度指定的实验。他们使用相同的初始条件、相同的外部强迫(如温室气体情景)和相同的输出格式。
通过固定实验设置,MIP让科学家能够分离出不确定性的一个关键组成部分:结构不确定性。这些不同模型输出之间的离散度或差异,为我们因选择不同方式构建虚拟世界而产生的不确定性提供了一个定量估计。这是一种强大的技术,可以防止我们对任何单一模型过于自信,并提供一个更诚实、更稳健的画面,展示我们集体知道什么——以及不知道什么。
在所有这些宏伟的科学发生之前,有一个至关重要、且通常计算成本高昂的第一步:模型预热(spin-up)。想象一下像地球气候这样的复杂系统。它有自己长期的、内部一致的平衡状态——它自己的“气候”。在动力系统的语言中,这个平衡状态被称为吸引子。当我们从一个任意的初始条件——即使是基于真实世界数据的条件——启动一个模型时,这个状态几乎肯定不在模型自身独特的吸引子上。模拟的初始阶段将是一个瞬态冲击,模型会进行调整并“忘记”其人为的起点,慢慢地稳定到它自己偏好的存在状态。这个过程就是预热。对于像大气这样的快速分量,可能需要几年的模拟时间。对于缓慢的深海,可能需要数百年甚至数千年的模型积分,这证明了气候系统巨大的惯性。
这整个从基本定律到全球集合的旅程,描述了基于物理的建模的最新技术水平。但一个新的前沿正在出现。我们现在生活在一个拥有来自卫星、传感器和现场测量的空前数据的时代。这为混合物理-数据模型打开了大门。其思想是取两家之长。我们从一个基于物理的模型核心开始,该核心建立在我们信赖的守恒定律和本构关系之上。然后,我们使用机器学习和海量数据集来训练一个统计分量,该分量学习纠正物理模型中已知的偏差和未解决的过程。这是演绎物理推理和归纳数据驱动学习的结合,代表了我们寻求构建地球真实数字孪生过程中的一个激动人心的新篇章。
在遍历了环境建模的原理和机制之后,我们现在来到了探索中最激动人心的部分:观察这些模型的实际应用。建立一个模型是一回事;用它来回答关于我们世界的深刻问题,指导我们的决策,并将看似无关的知识领域联系起来,则完全是另一回事。环境模型不仅仅是计算上的奇珍;它们是我们观察定义我们星球的复杂、常常是无形的相互作用网络的望远镜和显微镜。它们是我们的虚拟实验室,用以进行我们永远无法在真实地球上进行的实验。
在本章中,我们将看到这些模型如何充当一座桥梁,将物理和化学的基本定律与生态学、公共卫生、经济学乃至科学哲学本身的紧迫问题联系起来。
想象一下构建我们星球数字孪生的宏伟挑战——一个根据与真实地球相同的物理定律演化的“虚拟地球”。这是地球系统模型的宏大目标。但你如何让各个部分组合在一起?你如何让一个虚拟大气与一个虚拟海洋“对话”?这并不像交换数字那么简单。交换过程必须遵守基本的物理定律。例如,当风吹过海面时,它传递动量,在海洋表面产生应力,从而驱动洋流。模型必须确保大气失去的动量精确等于海洋获得的动量。这需要复杂的软件“通量耦合器”,它们充当通用翻译器,在一丝不苟地重新映射、旋转和守恒动量等量值的同时,将它们在大气和海洋模型的不同网格系统之间传递。没有这种精心的核算,我们的虚拟世界将会泄漏能量和动量,迅速偏离现实。
一旦各部分连接起来,我们就可以放大这个虚拟地球的特定组件,以发现它们的内在逻辑。考虑一个冰盖。乍一看,它似乎是一个静态、简单的物体。但一个模型,即使是一个高度简化的模型,也揭示了它是一个在积雪和冰向外流动之间处于微妙平衡的动态实体。从这样的模型中得出的一个有趣的见解,关乎冰流本身的性质。人们可能会认为,一个更光滑的基底会使冰盖更不稳定。然而,对基底滑动物理过程的建模讲述了一个更细致入微的故事。冰上的应力与其滑动速度之间的关系是非线性的。模型显示,这种关系越是非线性——也就是说,应力的微小增加导致滑动速度的大幅增加——冰盖的厚度对气候变化(如降雪增加)的响应就越稳定。这是因为冰盖发展出一种高效的负反馈机制:微小的增厚会急剧加速其排放,从而迅速使其恢复变薄。这个源于一组简单方程的反直觉发现,对于理解地球巨大冰盖在气候变化背景下的长期稳定性至关重要。
物理学的统一性不仅让我们的模型能够连接地球的不同部分,还能连接不同的科学领域。像阿伦尼乌斯方程这样的原理,最初在19世纪为描述温度如何影响化学反应速率而发展,在环境建模中找到了强大的新生命。它支配着硝化作用的速率——全球氮循环中的一个关键步骤——无论是由中纬度土壤中的微生物进行,还是在亚极地海洋的冷水中进行。同样的基本定律适用,但参数(如反应的“活化能”)不同。通过在不同环境中应用这单一原理,模型可以预测整个全球氮循环——地球生命的基石——将如何应对变暖。几度的温度变化可以转化为这些生物地球化学过程的急剧加速,这种敏感性是模型可以量化和探索的。
一个只存在于计算机上的模型是一个美丽但无生命的对象。只有当它与现实——我们从真实世界收集的凌乱、不完整且充满噪声的数据——接触时,它的真正威力才能实现。这就是数据同化的领域。想象一下你有一个天气预报(模型的预测)和一组来自气象站的零散的实时温度读数(观测值)。你如何将它们结合起来,创造出当前天气状况的最佳地图?最优插值为此提供了一个数学上严谨的答案。它将模型的预报和观测值都视为带有自身不确定性的信息片段。它理解模型的误差在空间上可能是相关的(如果预报在一个地方过暖,那么附近可能也过暖),并且观测仪器有其自身的误差特性。通过用概率和协方差的语言将这些不确定性形式化,最优插值产生了一个“融合”的分析结果,它比单独的模型或观测值都更准确。这项技术或其更高级的亲属,是现代天气预报的核心,也是模型能够被不断拉回现实的原因。
有了一个植根于现实的模型,我们就可以开始提出具有巨大政策相关性的深刻“如果……会怎样”的问题。例如,在人类实现二氧化碳净零排放之后,全球温度会发生什么变化?一个简单的全球能量平衡模型给出了一个惊人清晰的答案。变暖不会立即停止。模型揭示了一种“承诺变暖”,它来自两个源头。首先是地球现有的能量不平衡;海洋仍在缓慢变暖以追赶大气中已有的温室气体。其次是气溶胶冷却效应的“暴露”。当我们停止燃烧化石燃料时,那些反射阳光的短寿命污染物气溶胶将比二氧化碳从大气中清除得快得多,从而揭示出一个先前被隐藏的额外变暖效应。一个简单的模型可以量化这两种效应,表明实现净零排放并非故事的结局,而是向一个更温暖世界最终、已然承诺的平衡过程的开始。
模型的预测能力也深入到生态学领域。想象一下在一个港口发现了一种入侵植物物种。它可能会传播到哪里?为了回答这个问题,建模者面临一个根本性的选择。他们可以使用相关性方法,查看该物种目前在其原生地的气候,并在其他地方寻找“匹配”的气候。或者他们可以使用机理方法,根据植物的基本生理学——其对热、冷和干旱的耐受性——建立模型,以确定它可以在哪里生存,而不管它今天在哪里被发现。这个选择非同小可。相关性模型假设该物种与其当前气候处于平衡状态,并且其“生态位”不会改变。机理模型则依赖于我们对其生物学理解的正确性。这种二分法突显了环境建模中一个深刻且反复出现的主题:数据驱动的模式匹配与基于过程的第一性原理之间的张力。
最终,我们对环境进行建模是因为我们是其中的一部分。当今最先进的环境建模应用明确地弥合了行星过程与人类福祉之间的鸿沟。这催生了几个相互重叠的概念框架。同一健康(One Health)关注人类、动物及其共享环境之间的直接交界面,利用流行病学和兽医学的工具解决人畜共患病等问题。生态健康(EcoHealth)视野更广,审视整个社会生态系统——如一个流域或一片森林景观——的退化如何影响健康结果,通常使用系统思维和参与式方法。而范围最广的星球健康(Planetary Health)则认为人类文明的健康本身受到大规模地球系统(如气候和生物地球化学循环)稳定性的制约,并利用全球模型来理解这些依赖关系。这些不仅仅是不同的术语,而是不同的视角,它们驱动着不同的建模方法,以理解一个健康的星球与健康的人民之间不可分割的联系。
当模型的输出被用来指导社会决策时,它们不可避免地与经济学相交。我们如何权衡砍伐森林的经济利益与保护它的利益?建模可以提供帮助,但它要求我们仔细思考“价值”的含义。对于像木材这样的服务,其估值相对直接。它是一种具有市场价格的直接使用产品。我们可以根据可持续的采伐率和预计价格来估算其价值。但是,保护一片偏远、原始的北极荒野的价值又是什么呢?许多人仅仅因为知道它的存在并受到保护就获得了价值,即使他们从未计划去参观。这是一种“非使用存在价值”,它没有市场价格。为了估算它,建模者和经济学家必须求助于陈述性偏好法,即精心设计的调查,询问人们为保护它愿意支付多少钱。方法论上的挑战是巨大的,因为人们试图量化一种无形的价值,但这样做对于在政策决策中体现这类价值至关重要。
随着模型在政策、公共卫生和经济学中变得越来越核心,信任问题变得至关重要。对科学模型的信任建立在可复现性的基础之上。然而,这个概念有几个层次。最基本的是*计算可复现性:一个独立的分析师能否使用相同的数据和相同的代码得到相同的数值结果?上一层是方法可复现性:科学方法的描述是否足够清晰,以至于另一位科学家可以编写自己的代码并获得实质上相似的结果?最高的标准是结果可复现性*(或可复制性):当用新数据进行一项新的、独立的研究时,科学发现是否仍然成立?对于一个环境风险模型——比如说,一个将空气污染与哮喘就诊联系起来的模型——实现这些不同层次的可复现性是其信誉和用于保护公共健康的适用性的基石。
展望未来,人工智能的兴起为信任和理解带来了诱人的机遇和新的挑战。我们现在面临着在两种AI模型之间做出选择。一方面,我们可以构建可解释的模型,如物理知识启发的神经网络,其内部架构旨在模仿已知的物理过程,如守恒定律。我们可以审视其内部并看到一些有意义的东西。另一方面,我们可以使用强大的“黑箱”模型,它们能达到惊人的预测准确性,但其内部工作原理是不透明的。对于这些模型,我们依赖于事后可解释性工具,这些工具从外部分析模型的输入-输出行为,告诉我们它关注了什么,但不是它如何推理的。这引出了一个深刻的认识论问题:科学的目标是产生准确的预测,还是产生可理解的、机理性的理论?随着我们向前发展,环境建模社区必须努力解决性能与理解之间的这种权衡,这一决定将塑造科学发现本身的未来。