try ai
科普
编辑
分享
反馈
  • 并行编程

并行编程

SciencePedia玻尔百科
核心要点
  • 并行计算的架构主要围绕共享内存(为求简洁)或分布式内存(为求巨大规模)构建,两者各有不同的同步挑战。
  • 一个算法的最大加速比从根本上受其固有串行部分的限制,这一概念由阿姆达尔定律和“关键路径”所确立。
  • 有效的并行化需要仔细管理数据依赖和通信,使用双缓冲和环交换等模式来防止死锁。
  • 并行原理具有普适性,它驱动着科学发现,并提升了从金融、生物信息学到人脑等各种系统的效率。

引言

在一个单个处理器时钟速度已趋于平稳的时代,对更强计算能力的追求已从“让单个工人更快”转向“协调一支庞大的团队”。这就是并行编程的世界,它是现代科学发现、大规模数据分析和人工智能背后的引擎。然而,有效地利用多个处理器远比简单地将任务分块复杂得多。它涉及到在架构权衡、基本性能限制和可能轻易导致错误结果或系统僵局的微妙协调挑战中航行。本文将揭开这些复杂性的神秘面纱。

我们将从“原理与机制”一章开始探索,揭示并行计算的基础概念。我们将对比共享内存和分布式内存架构,理解如阿姆达尔定律和古斯塔夫森定律等加速比与扩展性定律,并学习管理数据依赖和避免混乱所需的同步艺术。随后,“应用与跨学科联系”一章将连接理论与实践。我们将看到,这些原理并非仅仅是抽象的计算机科学,而是被积极应用于解决现实世界的问题,从加速金融模型、模拟黑洞合并,到优化医院工作流程,甚至模仿人脑的结构。读完本文,你将对并行工作如何被组织,以及为何它已成为应对复杂性的通用策略,建立一个坚实的概念框架。

原理与机制

要驾驭并行编程的力量,我们必须首先理解我们程序将要运行的环境以及支配它们的基本法则。这是一个由协调团队而非单个不知疲倦的工人组成的世界。与任何团队一样,其成功取决于两件事:其工作空间的结构和其沟通的清晰度。

两种厨房的故事:并行计算的架构

想象一下,你负责一个厨师团队,准备一场盛大的宴会。你可以用两种主要方式来组织你的厨房。

第一种设置是,你有一个巨大的中央储藏室。每位厨师都能拿到每一种食材。这就是​​共享内存​​模型的精髓。在计算机中,这对应于多个处理器(或“核心”)都连接到一个单一、统一的内存空间。这些厨师是执行的​​线程​​,都在同一个程序内操作并共享相同的数据。如果一个线程计算出一个值并将其放入内存,另一个线程可以直接读取它。这听起来非常简单,对于许多任务来说也确实如此。像 Open Multi-Processing (OpenMP) 这样的编程框架就是为了让这相对容易而设计的,它允许程序员指定循环或代码段由一组线程来执行。

然而,想象一下那个厨房里的混乱。两位厨师可能同时伸手去拿最后一罐香料——这就是​​竞争条件​​。一位厨师可能在等待另一位厨师还在准备的食材,但由于厨房的繁忙(类似于现代处理器如乱序执行和内存缓存等优化),第一位厨师可能无法立即看到食材已经可用。为了防止灾难,厨师们需要严格的规则:“在每个人完成准备工作之前,任何人都不能开始做主菜。”这是一个​​屏障​​。“一次只能有一个人更新主食谱。”这需要一个​​原子操作​​或一个​​内存屏障​​,以确保更新以正确的顺序对所有人可见。这些同步机制对于在共享内存世界中保持正确性至关重要,尤其是在解决像电池电化学状态方程这样的复杂任务中,其中系统的每个部分都依赖于其邻近部分。

现在,考虑第二种厨房设置。每位厨师都有自己的个人工作台和私人储藏室。这就是​​分布式内存​​模型。在计算机中,这意味着我们有许多独立的处理器,每个处理器都有自己的私有内存,通过网络连接。这些通常是超级计算机中物理上独立的计算机,或称“节点”。每位厨师,现在是一个​​进程​​,独立工作。如果一位厨师需要另一位厨师工作台上的食材,他不能简单地走过去拿。他必须发送一条消息:“请把盐递过来。”另一位厨师必须接收消息并把盐递回去。这就是​​显式通信​​,也是大规模科学计算事实上的标准——消息传递接口 (Message Passing Interface, MPI) 的基础。

这种模型避免了共享厨房中那种微妙的混乱,但引入了其自身的挑战。程序员必须显式地管理所有数据交换。对于像天气模拟这样的问题,地球被划分给数千个处理器,每个处理器都需要知道其邻近区域边缘的大气状况。这需要一个精心编排的“环交换”(halo exchange),在计算模拟的下一步之前,边界信息必须被发送和接收。虽然编程更复杂,但这种模型可以扩展到巨大的规模,从数千到数百万个处理器核心,从而实现前所未有规模和细节的模拟。通常,现代系统使用混合方法:节点之间使用 MPI 进行通信,每个节点内的多个核心之间使用 OpenMP 实现并行。此外,像图形处理器 (GPU) 这样的专用加速器,使用 CUDA 或 OpenACC 等工具编程,充当用于重型计算的超专业化工作站,每个都有自己的内存,需要显式的数据管理。

土地法则:数据依赖与关键路径

即使有一千个厨师,如果食谱规定你必须先烤好蛋糕才能给它抹上糖霜,那也无济于事。这个简单的道理揭示了并行计算最根本的限制:​​数据依赖​​。

考虑一个简单的时间序列计算,比如预测股票价格,其中今天的价值依赖于昨天的价值:xt=g(xt−1)x_{t} = g(x_{t-1})xt​=g(xt−1​)。要找出第100天的价值,你必须先计算第99天的价值,而这又需要第98天的价值,依此类推,一直追溯到你的起点。这形成了一个不可打破的依赖链。无论你投入多少处理器,你都无法同时计算所有100天。你必须一步一步地进行。这个依赖链被称为计算的​​关键路径​​。其以串行步骤计算的长度,决定了并行计算所能达到的绝对最短时间。这就是算法的​​跨度​​ (span),它代表了问题中固有的串行部分。

大多数问题具有更复杂的依赖结构。想象一个城市交通模拟,其中每个十字路口是一个任务,每条道路是一份数据。一个十字路口的状态(例如,改变交通信号灯)取决于其输入道路的车流量。而这些道路上的流量又由上游十字路口的状态决定。这形成了一个复杂的依赖网络——一个有向无环图 (DAG)。关键路径是穿越这个网络的最长路径,它为整个模拟设定了速度限制。

保持同步:协调的艺术

当依赖存在时,我们需要一种方法来强制执行它们。这就是​​同步​​的艺术。没有它,我们就会陷入混乱,导致不正确的结果,或者更糟的是,​​死锁​​。

让我们回到交通模拟的例子。想象一个由四个十字路口组成的简单环路:1号路口通向2号,2号通向3号,3号通向4号,4号通向1号。一个幼稚的并行方法可能是让每个十字路口的任务读取其输入道路的状态,计算新的车流量,然后更新其输出道路。但可能会发生死锁:任务1需要写入通往十字路口2的道路,但任务2仍在从同一条道路上读取数据。所以任务1等待。同时,任务2在等待任务3,任务3在等待任务4,而任务4在等待任务1。每个人都持有一个资源(他们的读取权限),同时等待另一个资源。他们陷入了循环等待,交通陷入停顿。这是一个经典的死锁。

我们如何解决这个问题?一个极其简单而强大的技术是​​双缓冲​​。我们不使用一个“道路”数据结构,而是使用两个:一个 current_state 和一个 next_state。在每个时间步,每个任务只从其邻居的 current_state 缓冲区读取。它计算其更新,并将结果只写入 next_state 缓冲区。由于没有人试图同时对同一个缓冲区进行读写,冲突消失了!所有十字路口都可以并行计算它们的更新。一旦所有任务完成,它们会到达一个全局​​同步屏障​​。此时,且仅在此时,系统原子地交换缓冲区的角色:next_state 成为新的 current_state,而旧的 current_state 成为下一步的 next_state。这种分离与同步的优雅之舞完全解决了死锁,是并行科学计算的基石之一。

并行工作的基本模式

当我们在并行解决问题时,会出现一些常见的计算模式。识别它们是进行有效算法设计的关键。

最简单的通常被称为​​Map​​或​​数据并行​​。如果你需要对一百万张不同的图片应用相同的滤镜,你可以简单地将每张图片分配给一个不同的处理器。这些任务是完全独立的。这被称为“易并行”,因为它非常容易实现巨大的加速比。

一个更具协作性的模式是​​归约​​ (Reduction)。想象一个经济模型,你拥有数百万个家庭的消费数据 {ci}\{c_i\}{ci​},并且你想找到总的聚合消费 C=∑ciC = \sum c_iC=∑ci​。串行方法会逐个相加,需要 N−1N-1N−1 步。而并行方法可以做得好得多。我们可以像锦标赛一样组织求和。在第一轮,我们一半的处理器将数字配对相加。在第二轮,四分之一的处理器将第一轮的结果相加。如此继续,形成一个“归约树”,最终以与 log⁡2N\log_2 Nlog2​N 成正比的步数得出最终总和。对于一百万个家庭,这将串行步骤的数量从一百万减少到仅仅二十步!

但正是在这里,我们遇到了一个美妙而微妙的问题。在纯数学中,加法是可结合的:(a+b)+c=a+(b+c)(a+b)+c = a+(b+c)(a+b)+c=a+(b+c)。但在计算机上,由于使用有限精度的​​浮点数​​,由于舍入误差,这并非严格成立。并行归约通过改变加法的顺序,几乎肯定会产生一个与串行求和逐位不同的结果。对于许多应用来说,这是可以接受的,但对于需要完美可复现性的任务,程序员必须强制执行固定的归约顺序,以牺牲一些性能来换取确定性。更关键的是,一些操作不仅是不可结合的,而且根本上是不可交换的。一个简单的并行方案,如果只是将独立计算出的调整量相加,可能会产生一个数学上不正确的答案,就像两个厨师根据菜肴的初始状态调味,却忽略了对方的行动,结果导致菜肴调味过度。

第三种强大的模式是​​散布-相加​​ (Scatter-Add)。在有限元分析等方法中,用于模拟从桥梁到生物组织的各种事物,全局问题是通过汇集许多小元素的贡献来构建的。多个元素——因此是多个处理器——可能需要将一个值贡献给一个大型全局矩阵的同一个条目。这不是覆盖;而是一个累积。这些值必须被加在一起。这个操作是“散布”局部值到它们的全局目的地并“相加”。这需要硬件支持​​原子加法​​,以防止更新丢失的竞争条件。

衡量成功:加速比、扩展性和瓶颈

我们如何知道我们的并行努力是否取得了成效?我们通过测量来得知。最基本的度量是​​加速比​​ S(p)S(p)S(p),定义为在单个处理器上运行程序所需的时间除以在 ppp 个处理器上运行所需的时间。理想情况下,使用 ppp 个处理器,我们希望能获得 ppp 倍的加速。

然而,现实受制于​​阿姆达尔定律​​。该定律指出,最大加速比受程序中固有串行部分的比例限制。如果你程序中有10%无法并行化,那么即使有无限数量的处理器,你也永远无法获得超过10倍的加速比。这种固定问题规模并增加处理器以更快解决它的思维方式,被称为​​强扩展​​ (strong scaling)。

但还有一个更乐观的视角,由​​古斯塔夫森定律​​所概括。它认为,当我们得到一台更强大的超级计算机时,我们不仅仅是更快地解决同一个老问题。我们会解决一个更大的问题。我们利用额外的能力来提高气候模型的分辨率,或增加经济模拟的复杂性。这就是​​弱扩展​​ (weak scaling) 的目标:随着我们将处理器数量 ppp 增加,我们也按比例 ppp 增加问题规模,目的是保持总执行时间不变。

最后,性能不仅仅关乎计算量。在现代超级计算机中,性能最大的敌人往往是通信。一个算法如果算术运算最少但需要持续的、全局性的对话,可能会慢得令人痛苦。一个典型的例子是在求解线性方程组中。一种称为​​全主元消去法​​的技术提供了卓越的数值稳定性,但每一步都需要在整个剩余矩阵中搜索最大值。在并行环境中,这意味着所有数千个处理器必须停止,参与一次全局搜索,并同步,然后才能进行下一步。这个通信瓶颈是如此严重,以至于在实践中,稳定性较差但通信效率更高的​​部分主元消去法​​几乎被普遍采用。这个教训是深刻的:在并行计算的世界里,如果局部多思考一点能让你全局少交谈很多,那么这样做通常是值得的。

应用与跨学科联系

在我们完成了对并行编程基本原理的探索之后,你可能会觉得这一切都有些抽象——像是计算机科学家在摆弄处理器和数据的游戏。但事实远非如此。并行思想并不仅限于超级计算机的硅芯片核心;它们是解决复杂问题的普适策略,是大自然本身已经发现并加以利用的模式。在本章中,我们将看到这些原理如何在从医院拯救生命到解码宇宙奥秘,乃至理解我们自己大脑的结构等一系列惊人的领域中回响。

我们周遭世界中的并行性

让我们暂时离开计算机,看一个时间就是生命的情境:医院对急性中风的治疗。病人抵达,时钟开始计时。“门-针”时间——从抵达医院到注射溶栓药物的时间间隔——至关重要。在一个传统的、串行的流程中,病人要经过一系列步骤:登记,然后进行脑部CT扫描,然后是血液测试,然后是医生决策,最后是给药。每一步都必须等待前一步完成。总时间是所有这些步骤持续时间的总和。

现在,让我们应用并行的思维方式。如果在登记后,我们立即同时开始CT扫描和抽血呢?影像团队和化验团队可以并行工作。医生仍然需要两个结果才能做出决定,所以他们必须等待两个流程中较慢的那个完成。但总时间不再是两者之和。这个阶段的时间现在是 max⁡(Timaging,Tlab)\max(T_{\text{imaging}}, T_{\text{lab}})max(Timaging​,Tlab​) 而不是 Timaging+TlabT_{\text{imaging}} + T_{\text{lab}}Timaging​+Tlab​。这个简单的改变,通过重叠那些互不依赖的任务,可以显著缩短关键的准备时间,直接将一个算法原理转化为更好的病人治疗结果。

同样的逻辑适用于无数的组织环境。想象一家公司有一个大型项目要完成,该项目可分解为许多小的、标准化的任务。公司有几名员工,每人的工作速度各不相同。应如何分配工作以尽快完成整个项目?如果你给每个人分配相同数量的任务,最慢的员工会造成瓶颈,而较快的员工在提前完成后会闲置。并行计算中的“负载均衡”原则给了我们一个优雅的答案:你应该根据每个工人的速度按正比分配工作。在这种理想情况下,每位员工都在同一时刻完成工作。总时间,或称“完工时间”(makespan),被最小化,团队的全部潜力得以释放。这些例子揭示了一个深刻的真理:并行处理从根本上说是一种关于高效工作的理论,而不仅仅是关于计算的理论。

现代科学的引擎

有了这种直觉,让我们回到计算机的世界,在这里,这些思想已成为推动现代科学发现的引擎。科学中最具挑战性的许多问题都涉及模拟复杂系统,在这里,并行性不仅有帮助——它是不可或缺的。

考虑计算金融领域,公司在这里估算复杂金融衍生品的风险。一种常用技术是蒙特卡洛模拟,它涉及运行数千甚至数百万个独立的随机试验,或称“路径”,以模拟未来可能的市场行为。每条路径都是一个独立的计算。这是一个经典的“易并行”问题。你可以简单地将总路径数 MMM 分配给你的 PPP 个处理器。每个处理器处理自己的一批 M/PM/PM/P 条路径,最后,它们的局部结果被迅速聚合。结果是近乎完美的加速比:使用 PPP 个处理器,任务完成时间大约是在单个处理器上所需时间的 1/P1/P1/P。这是一个问题结构与并行机器结构完美匹配的案例。

但如果问题大到连一台计算机的内存都装不下呢?这就是天体物理学家在模拟两个黑洞合并时面临的情况。为了数值求解爱因斯坦的广义相对论方程,他们必须将时空表示为一个巨大的三维网格。一个高分辨率的模拟可能需要一个拥有数十亿个点的网格。存储所有这些点的引力场状态所需的内存,以及将系统向前演化所需的时间,其计算工作量与网格点数成比例,对于一个 N×N×NN \times N \times NN×N×N 的网格在许多时间步长上,可能与 N3N^3N3 甚至 N4N^4N4 成正比。没有任何一台机器拥有所需的千兆字节或太字节的内存。唯一的解决方案是将网格本身划分到超级计算机的数千个处理器节点上。每个处理器负责宇宙的一小块,模拟得以进行,因为并行性让我们不仅能聚合计算能力,还能聚合内存。

这种将一个大型物理系统分解成更小、可管理的小块的想法是一个强有力的主题。在计算化学中,片段分子轨道 (FMO) 方法允许科学家计算像蛋白质这样的巨大生物分子的电子性质。对整个分子进行直接的量子力学计算在计算上是不可能的。FMO方法将分子划分为更小的片段。在迭代计算的每一步中,每个片段(以及邻近片段对)的量子力学计算是独立进行的。由于这数千个小计算在单次迭代内是相互独立的,它们可以被分发到一台大规模并行计算机上。FMO是一个从头开始设计以创造并行性的算法的绝佳例子,它将一个棘手的问题变成了一个可解的问题。

依赖的架构

当然,并非所有问题都像我们最初的例子那样可以被干净地分割。在大多数复杂模拟中,各个部分并非完全独立。系统一个部分的行为会影响其邻居。

想象一下模拟洋流。你可能再次将海洋划分为一个单元格网格,每个处理器处理一个区域的单元格。要计算一个单元格中的水在下一个时间步将如何移动,你需要知道其直接邻居的状态——它们的压力、温度和速度。如果一个邻居在不同的处理器上,这些信息必须被通信。这就导致了“环交换”(halo exchange),每个处理器将其边界(“环”)的一薄层数据发送给它的邻居。对于这类问题,性能的关键是保持高的计算通信比。只要在每个处理器域内本地完成的工作量远大于边界处交换的数据量,该算法就能在并行机上很好地扩展。现代计算流体力学中使用的间断Galerkin (DG) 方法在这方面尤其出色,它将通信严格限制在最近邻之间,并最大化了本地工作。

有时,依赖关系更为微妙,并被编织在算法的结构之中。生物信息学的一个基石是序列比对,它使用一种称为动态规划的技术来寻找DNA或蛋白质序列之间的相似性。要计算网格中位置 (i,j)(i,j)(i,j) 的比对分数,你需要来自邻近位置 (i−1,j)(i-1,j)(i−1,j)、(i,j−1)(i,j-1)(i,j−1) 和 (i−1,j−1)(i-1,j-1)(i−1,j−1) 的分数。你不能一次计算整个网格。然而,你可以看到,所有沿“反对角线”(其中 i+ji+ji+j 是常数)的单元格只依赖于先前反对角线的单元格。这允许一个并行的“波前”计算。你不能一次在整个海滩上工作,但一波并行计算可以扫过问题空间。波前上的所有单元格都可以同时计算。

然而,即使在这些巧妙的方案中,问题的某些部分可能仍然顽固地保持串行。在多序列比对的渐进方法中,必须构建一个“指导树”来确定比对的顺序,而这个过程本质上是串行的——每一步都依赖于上一步。最终的比对路径也是通过串行回溯找到的。这突显了一个关键的教训:大多数复杂的现实世界应用是可并行化和串行组件的混合体,而串行部分,无论多么小,最终都会限制整体的加速比,这一原则由阿姆达尔定律正式确立。

分解的艺术与并行的局限

并行编程最前沿的应用通常涉及一种深奥的数学技巧来打破依赖链。考虑管理一个国家电网的问题。机组组合问题旨在决定在一段时间内开启或关闭哪些发电厂,以最低成本满足电力需求。这是一个极其复杂的优化问题,因为一个发电厂的决策通过系统范围的需求约束与所有其他电厂耦合在一起。

一种称为拉格朗日松弛的技术施展了一种计算魔法。通过为违反需求约束引入一组“价格”(拉格朗日乘子),它将单个、庞大、相互依赖的问题转化为一组更小的、完全独立的问题——每个发电厂一个。每个子问题都在问:“在这些能源价格下,这个发电厂的最优调度是什么?”这些独立的子问题可以并行解决。然后,一个外部循环迭代地调整价格,直到找到一个几乎满足全局需求的解决方案。这种分解将问题的复杂度从发电厂数量的指数级降低到线性级,将一个不可能的问题变成了一个可以为现实世界电网日常解决的问题。这一点,连同其他分区策略,表明算法设计既在于寻找创造独立性的方法,也在于管理依赖性。

然而,我们也必须认识到,有些问题抗拒并行化。例如,广受欢迎的Lempel-Ziv (LZ) 数据压缩算法族本质上是串行的。要解压缩一部分数据,你通常需要引用刚刚解压缩过的前一部分数据。这会产生一个长长的依赖链,其“跨度”或关键路径长度几乎与整个任务一样长,没有提供任何渐进加速的空间。这是一个谦卑的提醒:向一个问题投入更多处理器并不总是有帮助。在这种情况下,实现并行性的唯一方法是改变问题本身,例如,将数据分成独立的块。这使得并行压缩成为可能,但代价是:压缩率变差,因为无法跨块边界找到匹配项。这说明了算法设计中经常出现的一个基本权衡:并行性与解决方案质量。

一个普适的原理

当我们结束本章时,让我们以最广阔的视角来审视。我们使用的并行计算模型是如此基础,以至于它们甚至可以描述对抗性或涌现系统。一次分布式拒绝服务 (DDoS) 攻击可以被建模为一次并行计算,其中“处理器”是数千台被攻陷的僵尸机,而“工作”是它们生成的恶意请求总数。攻击者的目标是最大化这项工作以压垮受害者,同样适用协调和执行的概念。

但也许最深刻的联系不在于机器,而在于生物学。灵长类动物的视觉系统是并行处理的杰作。来自视网膜的信息并非通过单一管道流向大脑,而是通过多个不同的并行通路。具有大感受野和快速响应的大细胞通路,专门用于检测运动和亮度变化。具有较小感受野和颜色拮抗性的小细胞通路,则调整用于精细细节和红绿颜色。第三条,即尘细胞通路,处理来自蓝敏感视锥细胞的信息。这些通道同时运作,并行处理视觉世界的不同方面,然后它们的信息在皮层中被整合,形成我们连贯的知觉。大自然,通过进化,发现处理像视觉这样的高带宽、复杂数据流的最佳方式就是分而治之。

从急诊室到黑洞的事件视界,从蛋白质中原子的排列到我们自己心智的架构,并行原理是一条深刻而统一的线索。它是管理复杂性的基本策略,证明了通过将不可能的庞大分解为可管理的微小,我们可以实现那些否则永远无法触及的目标。