
在科学与工程领域,我们不断面临着理解由众多相互关联部分组成的系统的挑战,从基因网络到全球经济皆是如此。我们如何才能正式地表示这些复杂的依赖关系,并在不确定性下对其进行推理?概率图模型(Probabilistic Graphical Models, PGM)为此挑战提供了一个强大而直观的框架。通过将图论的可视化语言与概率论的严谨框架相结合,PGM 使我们能够为复杂系统内部错综复杂的关系网建模。本文是对 PGM 世界的全面介绍,旨在探索使这些模型得以运作的基础概念,并见证它们在广泛科学领域中带来的变革性影响。
在第一章“原理与机制”中,我们将首先深入探讨核心理论,区分有向和无向模型,并揭示实现概率推理的精妙算法。随后,在“应用与跨学科联系”中,我们将穿梭于生物学、金融学、机器人学等不同领域,了解这一统一语言如何被用于解决现实世界的问题,并推动知识的前沿。
科学的核心在于一个宏大的挑战:理解一个充满相互关联部分的世界。从细胞中基因的复杂舞蹈,到信息物理系统中复杂的反馈循环,我们不断面对着各种影响之网。概率图模型(PGM)为我们提供了一种描述这些网络的语言,一种既数学精确又异常直观的“交互语法”。这种语言建立在一个简单而优雅的思想之上:将图的视觉清晰性与概率论的严谨逻辑相结合。
进入 PGM 世界的旅程始于一个根本性的选择,一个将这片领域划分为两大范畴的岔路口。当我们在两个变量(例如“吸烟”和“肺癌”)之间画一条线时,这条线有方向吗?是一个“导致”另一个吗?还是它们仅仅像晶体中两个相邻原子一样,以一种对称关系共存?这个选择——有向图还是无向图——催生了图模型的两大主要家族。
让我们首先进入有向图的世界,即贝叶斯网络(Bayesian Networks, BNs)的领域。在这里,每条边都是一个箭头,代表一种非对称的影响、先后或最强大的因果关系。想象一个简单的生物医学场景:一个人的基因型()和他的吸烟状况()可能都独立地影响某种炎症生物标志物的水平()。我们可以将这个故事画成一个简单的图:。箭头讲述了一个生成的故事。生物标志物 的值是根据 和 的值“选择”的。
这种有向结构带来了一个深远的结果,即局部马尔可夫性质。它指出,网络中的任何变量仅由其直接父节点决定。整个系统的概率,无论多么庞大,都可以被分解为一系列简单的局部条件概率的乘积:
这就是马尔可夫分解,是贝叶斯网络的基本语法。它告诉我们,要理解世界,我们不需要一次性考虑所有事情;我们只需要理解每个部分如何依赖于其直接原因。为了使这个故事连贯,图必须是一个有向无环图(Directed Acyclic Graph, DAG)——它不能包含循环。毕竟,一个事件不能成为其自身的原因,即使是通过一长串的中间环节也不行。你不能是自己的祖父。
现在,让我们跨过岔路口,来到马尔可夫随机场(Markov Random Fields, MRFs)或称无向图的领域。在这里,边没有箭头。它们代表对称的亲和、约束或关联关系。想象一下数码照片中的像素。一个像素的颜色与其直接邻居的颜色密切相关,但它并不是在有向意义上被它们“引起”的。它们相互影响。同样,在处于平衡状态的化学反应中,反应物和产物的浓度受到对称依赖关系的约束。
在这个世界里,故事不是顺序生成,而是同时兼容。系统特定配置的概率不是条件概率的乘积,而是定义在称为团(cliques)的完全连接节点小组上的“势”函数或“能量”函数的乘积。著名的 Hammersley-Clifford 定理告诉我们,如果每个状态的概率都大于零,那么联合概率总可以写成:
每个函数 根据该团中变量之间“协调”或“兼容”的程度给出一个分数。 项,被称为配分函数,是一个归一化常数,确保所有概率之和为一。MRF 描述的是一个充满约束和平衡的世界,而不是单向的因果流。一个特别优雅的例子是高斯图模型,其中对于一组联合高斯变量,两个变量之间没有边恰好对应于它们的协方差矩阵的逆(即精度矩阵)中的一个零元素。这在图结构和一个基本的统计对象之间提供了一个优美而直接的联系。
图模型不仅仅是一幅漂亮的图画;它是一个用于推理的计算引擎。其主要功能是告诉我们,在已知第三组变量的情况下,哪些变量与其他变量是独立的。这个概念,即条件独立性,是我们概率语法的标点符号,告诉我们一个影响链在哪里结束,另一个又在哪里开始。然而,解读这些独立性的规则在我们的两个图世界中有着微妙的不同——且极具启发性。
在贝叶斯网络的有向世界中,规则由一个引人入胜的原则——d-分离(意为“有向分离”)——所支配。它描述了信息如何在图的路径上传播。如果信息无法通过,则路径被阻塞;否则,路径是活跃的。考虑一个简单的链 。信息通过 从 流向 。但是,如果我们观察(或“以……为条件”)中间变量 ,路径就被阻断了。知道了 就告诉了 它需要从这条路径知道的一切; 不提供额外信息。因此,给定 , 和 是独立的。这很直观。
但是 d-分离有一个奇妙而反常的转折,体现在对撞节点上。让我们回到生物标志物的例子:。在这里,两个箭头在节点 处“对撞”。变量 和 是独立的成因;了解一个人的基因型并不能告诉你关于他吸烟习惯的任何信息。它们之间的路径天然地被对撞节点 阻塞了。但是,如果我们观察到 会发生什么?假设生物标志物水平高得惊人。如果我们随后发现此人拥有一个使他倾向于高水平的基因(),这就“解释消除”了这一观察。我们不再需要怀疑吸烟()是原因。相反,如果我们发现他没有这个基因,我们对他是一名吸烟者的怀疑就会增加。通过观察共同结果,我们使其独立的成因变得相互依赖了!以一个对撞节点为条件打开了路径。
这条规则是 d-分离的核心:一条路径被阻塞,如果它包含一个在我们条件集中的非对撞节点,或者它包含一个不在我们条件集中的对撞节点(并且它的任何后代节点也不在条件集中)。这个逻辑使我们能够直接从因果故事的图中读出其所蕴含的所有条件独立性。
在 MRF 的无向世界中,规则要简单得多:图分离。要看节点集 是否在给定节点集 的情况下独立于节点集 ,我们只需从图中删除 中的节点。如果在 中的任何节点与 中的任何节点之间不存在任何剩余路径,那么它们就是条件独立的。对撞效应消失了。在无向链 中,以 为条件会分离 和 。这与 BN 中的对撞情况正好相反!
这使我们对科学发现的局限性有了一个深刻的认识。既然我们能从数据中测量的条件独立性是我们洞察底层结构的主要窗口,那么如果两个不同的有向图产生了完全相同的独立性集合,会发生什么?例如,链 和 都意味着给定 时 和 是独立的。仅从观测数据中,我们无法区分它们。事实证明,两个 DAG 在统计上是不可区分的,或称马尔可夫等价,当且仅当它们具有相同的骨架(即相同的边,忽略方向)和相同的 v-结构集合(即父节点未连接的对撞节点)。这告诉我们因果关系可能难以捉摸;虽然我们可以识别出对撞节点的存在,但其他箭头的方向在不进行实验的情况下可能仍然是模糊的。
拥有一个优美的表示是一回事;让它进行计算是另一回事。推理的核心任务是向我们的模型提问:给定这些症状,患上这种疾病的概率是多少?这通常涉及对所有我们不关心的变量进行求和或积分——这个过程如果用暴力方法来做,会是组合爆炸式的,在计算上是无望的。
最早、最直观的方法之一是变量消除。为了计算单个变量的概率,我们可以将其他变量逐一从联合分布中移除。诀窍在于消除的顺序至关重要——影响巨大。在一个展现科学统一性的非凡例子中,这个图过程在数值线性代数中有一个直接的对应物。在高斯 MRF 上执行变量消除在数学上等同于对其精度矩阵执行稀疏高斯消元。当我们从图中消除一个变量时,我们必须确保其邻居之间保持信息互通,这有时需要在图中添加新的“填充”边,在邻居之间形成一个团。一个好的消除顺序是能最小化这种填充,保持图的稀疏性和计算的可行性。找到一个能产生零填充的顺序——一个“完美消除序”——在计算上是一项大奖。
一种更分散化、或许也更优美的推理方法是想象节点之间互相“交谈”。这就是和-积算法(也称为信念传播)背后的思想。为了使其普遍适用,我们可以将任何 PGM——无论是 BN 还是 MRF——表示为一个因子图。这是一个包含变量节点和因子节点的二分图,其中每个因子节点代表我们分解式中的一个局部概率函数。
推理通过在此图的边上传递“消息”来进行。一个变量向一个因子发送一条消息,总结其当前的信念。然后,一个因子计算一条要发回的消息,将其收到的信息与自己的局部函数相结合。这个过程迭代进行,信念在整个网络中传播和回响。任何变量的边缘概率随后可以通过简单地乘以它收到的所有传入消息来计算。
这个过程什么时候能给出正确的答案?如果因子图是一棵树——也就是说,它没有环路——该算法保证是精确的。根本原因在于,在树上,一个节点从其不同邻居那里收到的信息来自图中完全不相交的部分。证据不可能通过绕环路一圈并从不同方向回到一个节点而被“重复计算” [@problem--id:1603906]。
当然,大多数现实世界的问题都有环路。令人惊奇的是,我们仍然可以运行这个算法,现在称为有环信念传播。虽然不能保证精确,但它通常能提供极好的近似。这种迭代的消息传递可以看作是一个分布式系统达成共识的过程。在计算神经科学中,这个过程被看作是感知本身的一个强大模型,被称为“通过合成进行分析”。大脑对世界的内部生成模型发送自上而下的预测(因子到变量的消息),这些预测与自下而上的感官数据进行比较。由此产生的“预测误差”(变量到因子的消息)再被向上传递,以更新和完善我们对世界的信念,这是一场持续的、协调的局部计算之舞。
最后,让我们看看这些原理如何结合起来解决一个真正复杂的问题:为一个随时间演化的系统建模。考虑一个复杂机器人的数字孪生。它在时间 的状态()和传感器读数()影响其处理器选择的控制动作(),而这个动作又影响下一时刻的状态 。我们可以使用动态贝叶斯网络(Dynamic Bayesian Network, DBN)来建模,这本质上是一个在时间上“展开”的贝叶斯网络。该结构遵循时间之箭:边连接单个时间片内的变量,或从时间 指向 。
这个因果图立即阐明了工程学中一个臭名昭著的难题:闭环混淆。假设我们想从观测数据中了解我们的控制动作 对下一个传感器读数 的因果效应。一个简单的相关性可能具有误导性。为什么?因为图告诉我们存在一条“后门路径”:。这条路径表明,状态 是我们所采取的动作(通过传感器读数 )和未来结果的共同原因。我们的 PGM 不仅识别了这个问题,还告诉我们如何解决它。d-分离的规则表明,如果我们调整或以状态 (或传感器读数 )为条件,我们就阻断了这条后门路径。剩下的就只有我们希望测量的直接、前向的因果效应。
从表示简单的因果故事到解开动态信息物理系统中的混淆,概率图模型提供了一个统一的思维和计算框架。它们证明了一种优秀语言的力量——一种能让我们写下宇宙复杂语法,然后借助优雅的算法开始解读其故事的语言。
我们已经花了一些时间学习一门新语言的语法——概率图模型的语言。我们学会了如何绘制图来表示依赖关系,如何使用概率规则对其进行推理,以及这些规则如何催生出强大的推理算法。现在,我们准备好欣赏这门语言在广阔的科学画卷上谱写的诗篇。你将会看到,这不仅仅是一套用于解决特定问题的工具集,而是一种关于知识、不确定性和复杂系统的深刻而统一的思维方式。我们将看到同样的基本思想——同样的图结构和同样的推理挑战——一次又一次地出现,无论我们是在窥视活细胞的机制,绘制广阔的生态系统,还是设计智能机器人。
也许没有任何地方比生物学更能体现复杂性和不确定性的挑战。生物系统是网络化组件的杰作,其运作既有精致的精确性,又具有固有的随机性。这是图模型的天然游乐场。
想象一下试图窃听大脑的内部运作。神经科学家可以同时记录数百个神经元的电活动,但潜在的“神经状态”——动物是在注意、记忆还是在计划?——是隐藏不见的。一个简单而优雅的起点是将其建模为一个隐马尔可夫模型(Hidden Markov Model, HMM)。我们想象大脑在一系列隐藏状态 中转换,每个状态发出可观察的神经活动 。核心假设是马尔可夫性质:未来状态仅依赖于当前状态,而非整个过去,即 。状态之间的转换被记录在一个矩阵 中,该矩阵告诉我们从状态 切换到状态 的概率。这种简单的链式结构使我们能够从观察到的活动中“解码”出最可能的隐藏状态序列,从而让我们一窥大脑的隐秘计算。
但自然界很少如此简单。当我们将这个基本模型应用于真实的生理信号,比如在睡眠期间跟踪自主神经系统的状态时,我们发现现实常常违反我们简洁的假设。一个人在特定睡眠阶段停留的时间可能不遵循简单 HMM 所暗示的“无记忆”几何分布。可观察信号本身可能有复杂的动态,其依赖关系可以追溯到好几个时间步之前。这是否意味着我们的模型是错的?不,这意味着我们必须丰富它!这就是图模型框架的美妙之处。我们可以扩展模型以捕捉这些现实情况。我们可以通过扩充状态来构建一个高阶马尔可夫链,为观测建立一个自回归模型,甚至可以使用隐半马尔可夫模型(Hidden Semi-Markov Model, HSMM),用显式的状态持续时间模型取代隐式的转换概率。这些都是同一核心思想的有原则的扩展,展示了该框架在适应数据真实结构方面的灵活性。
让我们从一个随时间展开的单一过程,放大到整个相互作用组件的网络。发育生物学中的一个核心问题是,一个单一的多能祖细胞如何能产生多样化的特化细胞类型。这个过程由一个基因调控网络(Gene Regulatory Network, GRN)精心策划,其中转录因子(蛋白质)开启或关闭其他基因。我们如何能从数据,比如成千上万个单细胞的基因表达快照,推断出这个网络的接线图?概率图模型,如贝叶斯网络,为此提供了一种语言。然而,它们也教会我们一个深刻的教训,即仅从观察中可以知道什么。从纯粹的观察数据中,我们通常只能识别出一个马尔可夫等价类——一组不同的网络结构,它们都蕴含着相同的统计依赖关系。图 和 在观察上是无法区分的。为了解开因果关系,我们需要更多:要么是来自干预(如基因敲除)的数据,要么是强有力的先验假设。
这种识别关键变量的思想延伸到了整个患者的尺度,即所谓的系统医学。想象一位医生试图预测一位患者的疾病进展 。他们拥有大量数据:患者的年龄 、吸烟状况 、基因突变 、通路表达水平 等等。为了获得最佳预测,这些数据中哪些是真正需要的?将所有东西都扔进模型并非总是最佳策略。图模型通过马尔可夫毯的概念给出了一个惊人优雅的答案。变量 的马尔可夫毯是它的“信息气泡”:它的父节点(直接原因)、它的子节点(直接影响)以及它的“配偶”(其直接影响的其他直接原因)。一旦你知道了马尔可夫毯中变量的值,网络中所有其他变量对于预测 就变得无关紧要了。这为特征选择提供了一种有原则的、基于机制的方法,揭示了围绕感兴趣结果构成信息界面的最小变量集。
现代医学是来自不同来源的数据洪流:影像、基因组学、蛋白质组学、临床记录。我们如何才能将这些迥异的模态融合成一幅连贯的图景?在这里,图模型再次为我们的科学假设提供了一种形式化语言。我们可以画一个图,假设一个潜在的(未观察到的)疾病过程 同时影响影像数据 和基因组数据 。我们可以为可能影响一切的临床协变量 添加节点,甚至为可能引入虚假相关的技术因素 (比如使用了哪台机器)添加节点。通过将我们的领域知识编码为图,我们便可以对照数据检验这个结构,从而从混淆因素中理清真正的生物信号。
同样的逻辑,既可以描绘细胞内信息的流动,也可以描绘食物网中能量的流动和我们金融体系中风险的流动。这门语言是普适的。
考虑绘制海洋食物网的挑战。我们可以观察到某些物种随时间的生物量,但许多关键组成部分——如碎屑池或微生物群落——是隐藏的。我们想要推断谁吃谁。动态贝叶斯网络是完美的工具,它将生态系统在时间 的状态建模为时间 状态的函数。但我们在生物学中看到的同样挑战再次出现。杂食性,即捕食者在多个营养级上取食(例如,一条鱼 既吃食草动物 也吃浮游植物 ),会产生一个对撞结构()。当我们观察到 时,这会在 和 之间诱导出统计依赖关系,这是一个经典的对撞偏倚案例。未被观察到的物种充当潜在混淆因子,在观察到的物种之间产生可能被误认为直接联系的相关性。仅从观察数据中,极难区分直接的营养联系和由共享资源或捕食者介导的间接联系。图模型不仅给我们一个答案;它清楚地阐明了模糊之处,并告诉我们需要什么样的数据(如自然实验或定向干预)来解决它们。
现在,让我们转向一个完全不同类型的系统:全球金融网络。2008年的金融危机能否在某种程度上被视为未能领会图模型教训的失败?考虑一个由 种金融资产组成的投资组合,每种资产都可能违约或不违约。该投资组合可能结果的总数是一个惊人的 。要计算基于此投资组合的复杂衍生品的预期损失,原则上必须将一个收益函数在所有 种可能性上求和。对于大的 来说,这在计算上是不可能的——这种现象被称为维度灾难。许多危机前风险模型的致命缺陷在于使用了过于简化的假设,实际上忽略了资产之间复杂的依赖网络。图模型的关键洞见是,这种难处理性不是必然的;它是依赖关系结构的一个属性。如果依赖网络可以用一个低树宽(treewidth)——衡量其“类树性”的指标——的图来表示,那么精确的风险计算在时间上仅是 的多项式级别。指数级爆炸被限制在树宽内。从某种意义上说,这场危机残酷地展示了,当我们假设我们的网络是一条简单的链,而实际上它是一个密集、纠缠的网络时,会发生什么。
最后,我们转向构建智能机器的探索。在这里,图模型不仅仅是一种分析工具;它们是智能引擎本身的核心组成部分。
想象一个自动驾驶车队在城市中导航。为了有效协作,它们必须建立一个共享的环境地图,并同时跟踪自己在其中的位置。这就是协同同时定位与建图(Cooperative Simultaneous Localization and Mapping, SLAM)问题,一项巨大的推理任务。状态包括所有车辆在所有时间点的位姿,以及所有路标的位置。数据包括里程计读数、路标观测以及车辆间的相对测量。表示这个问题的完美工具是因子图。它是一个二分图,有变量节点(用于位姿和路标)和因子节点(用于先验和测量似然)。该图精美而明确地展示了问题的稀疏分解结构。它是诸如变量消除等高效推理算法赖以运行的蓝图。因子图框架是大多数现代大规模 SLAM 系统背后的主力,使机器人能够在真实世界中导航。
随着我们向功能越来越强大的人工智能迈进,一个主要的前沿是概率图模型与其更年轻、更喧闹的表亲——深度神经网络——的结合。这种融合将深度学习的表达能力与 PGM 的严谨、具备不确定性感知能力的推理相结合。
例如,一个标准的变分自编码器(Variational Autoencoder, VAE)通过将一个简单的潜在编码 映射到一个高维输出 来学习生成数据,比如人脸图像。但 VAE 的解码器通常假设输出中的像素在给定 的情况下是条件独立的。如果我们要生成结构化的生物数据,而我们对依赖关系有先验知识,比如一个 GRN,该怎么办?我们可以设计一个解码器本身就是一个概率图模型的 VAE!解码器可以不是一个简单的前馈网络,而是实现一个遵循已知生物结构的贝叶斯网络或马尔可夫随机场分解。这使我们能够将领域知识直接注入深度生成模型的架构中,创造出一个强大且可解释的混合模型。
这种协同作用也反向起作用。图神经网络(Graph Neural Networks, GNNs)彻底改变了图结构化数据的机器学习。它们通过在节点间传递消息、更新向量嵌入来工作。但这些消息是确定性的点估计。如果我们的 GNN 传递的消息不是一个单一、确定的向量,而是能说“我认为值在5左右,但我不太确定”呢?这可以通过让消息本身代表概率分布(例如,通过传递高斯分布的均值和方差)来实现。这就产生了能够传播和推理不确定性的概率 GNN,这是迈向更鲁棒、更可信赖的人工智能的关键一步。此外,通过从简单图转向更高阶的结构,如超图(其中边可以连接两个以上的节点),这些模型可以摆脱标准 GNN 的表达能力限制,直接建模在现实世界系统中常见的多路依赖关系。
从细胞中分子的舞蹈到机器人群体的分布式智能,世界是一幅由相互关联的部分组成的、笼罩在不确定性中的织锦。概率图模型给了我们针和线。它们提供了一种统一而优美的语言来表达结构、推理不确定性,并将横跨惊人范围的科学和工程学科的点点滴滴联系起来。它们不仅帮助我们找到答案,更帮助我们提出更好的问题。