try ai
科普
编辑
分享
反馈
  • 左预处理

左预处理

SciencePedia玻尔百科
核心要点
  • 左预处理将一个困难的线性系统 Ax=bAx=bAx=b 变换为一个更容易求解的等价系统 M−1Ax=M−1bM^{-1}Ax=M^{-1}bM−1Ax=M−1b,从而显著加速迭代求解器的收敛速度。
  • 该方法的一个主要陷阱是,求解器最小化的是预处理后的残差,即使在真实问题的残差仍然很大的情况下,这个预处理残差也可能变得具有欺骗性地小。
  • 对于对称正定系统,左预处理不仅仅是一种代数技巧,更是一种保留了某种对称形式的几何变换,从而使得高效的共轭梯度算法得以应用。
  • 左预处理和右预处理之间的选择会显著影响求解器的行为、残差监控和计算效率,尤其是在并行环境中涉及矩阵稀疏性和通信时。

引言

在科学与工程模拟领域,许多复杂现象都通过庞大的线性方程组进行建模,表示为 Ax=bA x = bAx=b。求解这些系统是现代计算的基石。尽管迭代方法(例如 Krylov 子空间族中的方法)是完成此任务的强大工具,但当问题是“病态”时——好比一个徒步者试图找到一个又长又险的峡谷底部——它们可能会失效。收敛可能变得异常缓慢,使得模拟不切实际。本文通过探讨一种称为预处理的强大技术来应对这一关键挑战。

具体来说,我们将重点关注​​左预处理​​,这是一种从根本上重塑问题,使其对求解器更易于处理的方法。本文将引导您了解该技术的核心概念。在第一部分“原理与机制”中,我们将揭示左预处理的工作原理、其潜在的数学之美,以及从业者必须应对的微妙陷阱,例如求解器报告的进展可能具有欺骗性。随后,“应用与跨学科联系”部分将深入比较左预处理与右预处理,揭示这个看似微小的代数选择如何对求解器的选择、准确性和性能在从流体力学到医学成像等不同领域产生深远影响。

原理与机制

想象一下,你正站在一个广阔、雾气弥漫的峡谷边缘,任务是找到它的最低点。如果峡谷是一个简单的对称碗状,你可以自信地朝任何方向下坡行走,并且知道很快就能到达底部。但如果它是一个极其狭长、蜿蜒、两壁极陡而底部几乎平坦的峡谷呢?你可能一步就坠落数千英尺到达谷底,但随后发现自己沿着缓坡底部徘徊数英里,不确定是否朝着真正的最低点取得了任何实际进展。

这正是迭代求解器在求解线性方程组 Ax=bA x = bAx=b 时所面临的挑战。矩阵 AAA 定义了问题的“景观”。一个性态良好的矩阵就像我们那个简单的碗;一个所谓的​​病态​​矩阵则像那个险恶的峡谷。作为现代科学计算主力军的 Krylov 子空间方法,就像我们在雾中的徒步者;它们通过连续的步骤来摸索着“下山”走向解。在狭窄的峡谷中,它们可能会陷入困境,沿着底部迈着微小的步伐,收敛速度极其缓慢。

那么,我们能做些什么呢?我们无法改变峡谷本身——问题就是问题。但如果我们能戴上一副能从光学上重塑景观的特殊眼镜呢?如果这些眼镜能让那个狭长险峻的峡谷在我们看来变成一个友好的圆形碗呢?这就是​​预处理​​背后的绝妙思想。

重塑问题

我们不直接处理困难的系统 Ax=bA x = bAx=b,而是求解一个不同但数学上等价的系统。通过​​左预处理​​,我们找到一个特殊的矩阵 MMM,称为​​预处理器​​,并用它的逆 M−1M^{-1}M−1 从左侧乘以整个方程:

M−1Ax=M−1bM^{-1} A x = M^{-1} bM−1Ax=M−1b

请注意,解向量 xxx 与原始问题中的完全相同。如果我们找到了解这个新方程的 xxx,我们就找到了原始问题的解。我们没有改变答案;我们改变了通向答案的系统。新的“景观矩阵”不再是 AAA,而是复合矩阵 M−1AM^{-1}AM−1A。

预处理的艺术和科学在于选择矩阵 MMM。一个好的预处理器必须满足两个相互矛盾的目标:

  1. ​​它必须能有效地变换景观。​​我们希望新的矩阵 M−1AM^{-1}AM−1A 尽可能接近单位矩阵 III。单位矩阵是完美的碗——它的所有特征值都恰好是 111,其​​条件数​​(衡量景观“扁平”程度的指标)是理想值 111。如果 MMM 是 AAA 的一个良好近似,那么 M−1M^{-1}M−1 就是 A−1A^{-1}A−1 的一个近似,而 M−1AM^{-1}AM−1A 将接近于 III。

  2. ​​它的使用成本必须低廉。​​ 在我们变换后的方程中,我们看到了 M−1bM^{-1}bM−1b 这一项。在迭代求解器的每一步中,我们都必须执行类似的操作——将 M−1M^{-1}M−1 应用于某个向量。这等同于求解一个以 MMM 为矩阵的线性系统。如果用 MMM 求解和用 AAA 求解一样困难,那我们什么也没得到!

最完美的预处理器是 M=AM=AM=A,因为此时 M−1A=IM^{-1}A = IM−1A=I。但这是一个无用的选择,因为应用 M−1M^{-1}M−1 意味着计算 A−1A^{-1}A−1,而这正是我们最初试图解决的问题!因此,在实践中,我们寻求一个能够捕捉 AAA 的“本质”但结构简单得多的 MMM——也许是一个对角矩阵,或者一个三角矩阵——这样用它来求解系统就变得微不足道。

求解器的欺骗性视角

这里我们遇到了一个微妙而关键的点。当我们把预处理后的系统 M−1Ax=M−1bM^{-1}Ax = M^{-1}bM−1Ax=M−1b 交给像广义最小残差法(GMRES)这样的迭代求解器时,求解器并不知道我们的原始问题。它只看到新的矩阵 M−1AM^{-1}AM−1A 和新的右端项 M−1bM^{-1}bM−1b。

在每一步 kkk,求解器生成一个近似解 xkx_kxk​ 并通过查看残差——即剩余误差 b−Axkb - Ax_kb−Axk​——来检查其进展。但它是通过预处理器的眼镜来看的。它实际计算并试图使其变小的残差是​​预处理残差​​ [@problem_id:3407992, @problem_id:3593940]:

r~k=(M−1b)−(M−1A)xk=M−1(b−Axk)\tilde{r}_k = (M^{-1}b) - (M^{-1}A)x_k = M^{-1}(b - Ax_k)r~k​=(M−1b)−(M−1A)xk​=M−1(b−Axk​)

求解器的目标是最小化这个预处理残差的大小(范数),即 ∥r~k∥2\|\tilde{r}_k\|_2∥r~k​∥2​。它无法直接访问​​真实残差​​ rk=b−Axkr_k = b - Ax_krk​=b−Axk​。两者通过 rk=Mr~kr_k = M \tilde{r}_krk​=Mr~k​ 相关联。

这就是眼镜可能具有欺骗性的地方。求解器可能会报告它找到了一个解,使得 ∥r~k∥2\|\tilde{r}_k\|_2∥r~k​∥2​ 非常小,比如 10−810^{-8}10−8。我们可能会认为我们已经完成了。但是,衡量我们的解对原始问题满足程度的真实残差有多大呢?从关系式 rk=Mr~kr_k = M \tilde{r}_krk​=Mr~k​,我们可以界定真实残差的大小:

∥rk∥2=∥Mr~k∥2≤∥M∥2∥r~k∥2\|r_k\|_2 = \|M \tilde{r}_k\|_2 \le \|M\|_2 \|\tilde{r}_k\|_2∥rk​∥2​=∥Mr~k​∥2​≤∥M∥2​∥r~k​∥2​

这里,∥M∥2\|M\|_2∥M∥2​ 是预处理器矩阵本身的范数。如果我们的预处理器 MMM 虽然是 AAA 的一个良好近似,但碰巧是一个包含非常大元素(即范数很大)的矩阵,那么我们微小的预处理残差可能掩盖了一个大得多的真实残差! 如果 ∥r~k∥2=10−8\|\tilde{r}_k\|_2 = 10^{-8}∥r~k​∥2​=10−8 但 ∥M∥2=106\|M\|_2 = 10^6∥M∥2​=106,那么真实残差范数 ∥rk∥2\|r_k\|_2∥rk​∥2​ 可能高达 10−210^{-2}10−2。求解器自豪地宣布胜利,而实际的解仍然相当差。

这不仅仅是一个理论上的奇谈;这是一个现实世界中的陷阱。它告诉我们,在使用左预处理时,我们不能盲目相信求解器的收敛准则。一个稳健的实现必须要么周期性地计算真实残差(这可能代价高昂),要么使用更复杂的停止测试,该测试考虑到 MMM 的属性,例如通过确保估计的真实残差 ∥M∥2∥r~k∥2\|M\|_2 \|\tilde{r}_k\|_2∥M∥2​∥r~k​∥2​ 足够小。

更深层次的真理:作为几何变换的预处理

对于物理和工程领域的一大类问题——比如涉及扩散或结构力学的问题——矩阵 AAA 是​​对称正定(SPD)​​的。这些系统具有一种特殊而优美的结构。它们对应于寻找一个简单凸能量函数的最小值。这些问题的标准算法是著名的​​共轭梯度(CG)​​法,其效率从根本上依赖于 AAA 的对称性。

当我们对一个 SPD 系统进行左预处理时会发生什么?新的矩阵是 M−1AM^{-1}AM−1A。如果我们构造一个 SPD 预处理器 MMM(这是标准做法),乘积 M−1AM^{-1}AM−1A 通常不再是对称的!我们似乎破坏了允许我们使用优雅而强大的 CG 方法的基本属性。

但真相远比这深刻。我们没有破坏对称性规则;我们改变了几何本身的规则 [@problem_id:3605510, @problem_id:3575829]。

一个 SPD 矩阵 MMM 可以用来定义一种新的内积——一种衡量我们空间中向量之间长度和角度的新方法。这被称为​​MMM-内积​​,定义为 ⟨u,v⟩M=u⊤Mv\langle u, v \rangle_{M} = u^{\top} M v⟨u,v⟩M​=u⊤Mv。我们熟悉的欧几里得几何只是 M=IM=IM=I 的特例。

现在是见证奇迹的时刻:如果我们在这种新的几何框架内重新审视我们的预处理算子 M−1AM^{-1}AM−1A,我们会发现它相对于 MMM-内积是对称的!预处理共轭梯度(PCG)算法无非就是原始的 CG 算法,像往常一样进行,但它生活在由预处理器定义的几何世界中。

这是一个惊人的统一。预处理不仅仅是一个代数技巧。它是一次向新现实、新几何空间的转变,这个空间被精心选择,以便在其中,我们那个扭曲、丑陋的问题看起来又变得简单、对称和美丽。

最后一个惊人的转折

我们已经看到,左预处理可以帮助求解器显著加快收敛速度,尽管我们必须对求解器报告的残差的真实含义保持谨慎。但是最终目标呢:最终答案的准确性如何?​​前向误差​​ ∥x−x^∥2\|x - \hat{x}\|_2∥x−x^∥2​ 衡量我们计算出的解 x^\hat{x}x^ 与真实解 xxx 的距离。对于原始系统,一个标准界限将前向误差与真实残差联系起来:∥x−x^∥2≤∥A−1∥2∥r∥2\|x - \hat{x}\|_2 \le \|A^{-1}\|_2 \|r\|_2∥x−x^∥2​≤∥A−1∥2​∥r∥2​。人们可能天真地认为,一个能使系统更易于求解的“好”的预处理方案也会改善这个误差界。

准备好迎接一个意外吧。虽然预处理旨在改善系统矩阵的条件数从而加速收敛,但它可能会使求解器最小化的量(预处理残差 r~k\tilde{r}_kr~k​)与真实解误差 x−x^kx - \hat{x}_kx−x^k​ 之间的关系变得复杂。误差从根本上与真实残差 rkr_krk​ 相关联,即 x−x^k=A−1rkx - \hat{x}_k = A^{-1} r_kx−x^k​=A−1rk​,但它与预处理残差的关联则是通过 x−x^k=A−1Mr~kx - \hat{x}_k = A^{-1} M \tilde{r}_kx−x^k​=A−1Mr~k​。这导致了如下界限:∥x−x^k∥2≤∥A−1M∥2∥r~k∥2\|x - \hat{x}_k\|_2 \le \|A^{-1} M\|_2 \|\tilde{r}_k\|_2∥x−x^k​∥2​≤∥A−1M∥2​∥r~k​∥2​。

让我们来研究一下新的因子 ∥A−1M∥2\|A^{-1} M\|_2∥A−1M∥2​。如果我们使用“理想”(但不切实际)的预处理器 M=AM=AM=A,会发生什么?这个因子变成 ∥A−1A∥2=∥I∥2=1\|A^{-1}A\|_2 = \|I\|_2 = 1∥A−1A∥2​=∥I∥2​=1。在这种完美的情况下,界限变为 ∥x−x^k∥2≤∥r~k∥2\|x - \hat{x}_k\|_2 \le \|\tilde{r}_k\|_2∥x−x^k​∥2​≤∥r~k​∥2​,这意味着预处理残差范数是误差范数的一个直接且紧凑的上界。这是一个优美的结果。然而,可能存在一个预处理器,它使得 M−1AM^{-1}AM−1A 条件良好,但范数 ∥A−1M∥2\|A^{-1}M\|_2∥A−1M∥2​ 却非常大。在这种情况下,求解器可能报告一个极小的 ∥r~k∥2\|\tilde{r}_k\|_2∥r~k​∥2​,但真实误差 ∥x−x^k∥2\|x - \hat{x}_k\|_2∥x−x^k​∥2​ 可能仍然顽固地保持较大值。

这并不意味着预处理有缺陷。它突显了一个深刻的真理:解决一个系统的不同方面是截然不同的。左预处理是一种旨在帮助迭代算法生成一系列迭代,以更快地找到峡谷底部的工具。它通过从求解器的视角变换景观来实现这一点。我们如何从外部将求解器的进展与我们原始、未变换问题的误差界联系起来,则是一个更微妙的故事。预处理的力量是不可否认的,但像任何强大的工具一样,理解其原理和机制是明智使用它并避免其潜在欺骗性的关键。

应用与跨学科联系

在探寻了预处理的原理之后,我们现在面临一个至关重要且引人入胜的问题:将预处理器放在哪一边有关系吗?求解 M−1Ax=M−1bM^{-1} A x = M^{-1} bM−1Ax=M−1b(左预处理)与求解 AM−1y=bA M^{-1} y = bAM−1y=b(右预处理)真的有任何不同吗?乍一看,这似乎只是一个微不足道的代数重排。但正如在物理学和数学中经常出现的那样,视角的改变可以揭示一个全新的景观。这个选择不仅仅是符号上的问题;它是一个深刻的决定,它改变了问题的几何结构,决定了我们可以使用哪些工具,并在广泛的科学学科中产生深远的影响。

我们究竟在最小化什么?关于“真实”残差的问题

想象一下,你在山脉中迷路了,想要到达山谷的最低点。一张好的地图——我们的预处理器——可以提供帮助。但你如何使用这张地图会改变你所走的路径。

像广义最小残差(GMRES)法这样的迭代方法是“下降”法;在每一步,它们都试图最小化某物的“大小”。左预处理和右预处理之间的关键区别在于它们选择最小化什么。

对于​​右预处理​​,求解器被应用于系统 AM−1y=bA M^{-1} y = bAM−1y=b。它在每一步 kkk 试图缩小的残差是 rk=b−(AM−1)ykr_k = b - (A M^{-1})y_krk​=b−(AM−1)yk​。通过代入 xk=M−1ykx_k = M^{-1}y_kxk​=M−1yk​,我们发现这正是我们原始问题 b−Axkb - A x_kb−Axk​ 的真实残差。这非常直观。算法正在直接削减我们希望为零的那个量。当我们告诉程序在残差范数低于某个容差(例如 10−810^{-8}10−8)时停止,我们就有一个直接的保证,即 ∥b−Axk∥210−8\|b - A x_k\|_2 10^{-8}∥b−Axk​∥2​10−8。残差范数的收敛曲线将是一条令人满意的单调递减曲线,这在调试复杂模拟时是一种极大的安慰。

​​左预处理​​则走了一条不同的路。它处理系统 M−1Ax=M−1bM^{-1} A x = M^{-1} bM−1Ax=M−1b。因此,求解器致力于最小化*预处理残差*的范数,即 r^k=M−1b−M−1Axk=M−1(b−Axk)\hat{r}_k = M^{-1}b - M^{-1}Ax_k = M^{-1}(b - A x_k)r^k​=M−1b−M−1Axk​=M−1(b−Axk​)。这不是真实残差!它是通过 M−1M^{-1}M−1 的“透镜”观察到的真实残差。这导致了一个关键的微妙之处:一个小的预处理残差并不自动保证一个小的真实残差。两者通过以下不等式相关联:

1∥M−1∥2∥r^k∥2≤∥b−Axk∥2≤∥M∥2∥r^k∥2\frac{1}{\|M^{-1}\|_2} \|\hat{r}_k\|_2 \le \|b - A x_k\|_2 \le \|M\|_2 \|\hat{r}_k\|_2∥M−1∥2​1​∥r^k​∥2​≤∥b−Axk​∥2​≤∥M∥2​∥r^k​∥2​

如果预处理器 MMM 是病态的(意味着其条件数 κ2(M)=∥M∥2∥M−1∥2\kappa_2(M) = \|M\|_2 \|M^{-1}\|_2κ2​(M)=∥M∥2​∥M−1∥2​ 很大),则两者之间可能存在巨大差异。求解器可能自豪地报告一个微小的预处理残差,导致提前终止,而真实残差却顽固地保持较大值。这是科学计算中一个臭名昭著的陷阱。然而,这并不是说左预处理没有优点。当预处理器 MMM 是原始矩阵 AAA 的一个良好近似时,预处理残差范数 ∥r^k∥2=∥M−1Aek∥2≈∥ek∥2\|\hat{r}_k\|_2 = \|M^{-1} A e_k\|_2 \approx \|e_k\|_2∥r^k​∥2​=∥M−1Aek​∥2​≈∥ek​∥2​,其中 eke_kek​ 是误差。在许多物理问题中,最小化这个量与最小化误差的能量范数密切相关,而后者可能更具物理意义。

与求解器的相互作用:保持对称性

预处理在哪一侧的选择甚至可以决定我们能使用哪种求解器。著名的共轭梯度(CG)法是我们解决许多问题的最快工具,但它有一个严格的要求:系统矩阵必须是对称正定(SPD)的。

考虑求解一个产生 SPD 矩阵 AAA 的扩散方程。我们可能会巧妙地决定使用前向 Gauss-Seidel 扫描作为预处理器,这可以表示为矩阵 M=D+LM = D+LM=D+L(AAA 的对角和下三角部分)。如果我们将此作为​​左预处理器​​应用,我们的新系统矩阵是 M−1A=(D+L)−1AM^{-1}A = (D+L)^{-1}AM−1A=(D+L)−1A。尽管 AAA 是对称的,这个新矩阵通常不是对称的。我们破坏了 CG 的规则!对称性丢失了,我们被迫退回到一个更通用但通常更慢的方法,如 GMRES 或 BiCGSTAB。要使用 CG,我们必须构造一个更复杂的对称 Gauss-Seidel 预处理器,这证明了预处理器和求解器必须协同选择。

超越特征值:非对称系统的细微差别

一个常见的误解是,由于矩阵 AM−1A M^{-1}AM−1 和 M−1AM^{-1} AM−1A 是相似的(M−1A=M−1(AM−1)MM^{-1} A = M^{-1}(A M^{-1}) MM−1A=M−1(AM−1)M),因此具有完全相同的特征值,所以迭代方法的收敛对于两者应该是相同的。对于像 BiCGSTAB 这样的非对称求解器来说,这是错误的。这些复杂方法的收敛不仅取决于特征值,还取决于矩阵的整个结构、其偏离正规性的程度以及其与其转置矩阵的相互作用。

在计算流体力学中,当解决对流占优问题时,得到的矩阵 AAA 是高度非对称和非正规的。虽然使用 ILU(不完全 LU)分解进行左预处理和右预处理会产生具有相同谱的系统,但它们的收敛行为可能大相径庭。BiCGSTAB 中实际的计算序列为这两种情况生成了不同的搜索方向和残差多项式。根据经验,右预处理通常能产生更稳健、更平滑的收敛,部分原因是它直接跟踪真实残差,并且可能不易受预处理算子非正规性的影响,而左预处理中的相似变换可能会加剧这种非正规性。

作为统计白化的预处理:逆问题的视角

左预处理和右预处理之间的区别在数据同化和逆问题的世界中找到了一个特别优美的解释,这些问题是天气预报、医学成像和地球物理学等领域的核心。

在这里,我们通常寻求找到一个能最好地解释某些观测数据 yyy 的模型状态 xxx,同时与某些先验知识保持一致。在线性高斯框架中,这导致最小化一个代价函数,如:

J(x)=12∥Cs−1/2(Ax−y)∥22+λ22∥Cc−1/2x∥22J(x) = \frac{1}{2} \| C_s^{-1/2} (A x - y) \|_2^2 + \frac{\lambda^2}{2} \| C_c^{-1/2} x \|_2^2J(x)=21​∥Cs−1/2​(Ax−y)∥22​+2λ2​∥Cc−1/2​x∥22​

第一项衡量与数据的失配,由数据噪声协方差 CsC_sCs​ 的逆加权。第二项衡量与我们先验信念的偏差,由先验协方差 CcC_cCc​ 的逆加权。最终的线性系统是一组“正规方程”。

在这种背景下,通过变量变换 x=Cc1/2zx = C_c^{1/2} zx=Cc1/2​z 实现的​​右预处理器​​不仅仅是一个代数技巧;它是将问题重塑于一个“白化”空间,在该空间中先验是一个简单的各向同性高斯分布。这简化了正则化参数 λ\lambdaλ 的分析和解释。

我们在数值代数中所谓的​​左预处理​​,对应于该领域中常说的“对称预处理”。标准的预处理共轭梯度(PCG)方法在数学上等同于将 CG 应用于系统 M−1/2HM−1/2M^{-1/2} \mathcal{H} M^{-1/2}M−1/2HM−1/2,其中 H\mathcal{H}H 是 J(x)J(x)J(x) 的 Hessian 矩阵。这反过来又与使用 P=M1/2P=M^{1/2}P=M1/2 进行变量变换的右预处理系统相同。这两种观点是统一的。这种深刻的联系揭示了预处理策略的选择等同于选择我们观察参数和数据的统计透镜。值得注意的是,使用“完美”的预处理器——即真实的后验精度矩阵本身——会导致求解器在单次迭代中找到精确解。

实用性胜于代数:真实世界的实现

最后,预处理在哪一侧的选择可能对计算性能产生巨大且有时不那么明显的后果,尤其是在现代并行计算机上。

应用成本

假设我们的预处理器 M−1M^{-1}M−1 本身是一个复杂的操作,可能是一个内部迭代求解,其成本取决于输入向量。想象一下,将 M−1M^{-1}M−1 应用于右端向量 bbb 由于某种原因异常昂贵。我们应该选择哪种策略?快速查看算法就会揭示答案。左预处理首先构造系统 M−1Ax=M−1bM^{-1}Ax = M^{-1}bM−1Ax=M−1b,需要在最开始就进行昂贵的 M−1bM^{-1}bM−1b 计算。然而,右预处理求解的是 AM−1y=bAM^{-1}y=bAM−1y=b。右端项是原始的 bbb。预处理器 M−1M^{-1}M−1 仅应用于 Krylov 方法生成的内部搜索方向,完全避免了昂贵的初始计算。在这种实际场景中,右预处理是明显的赢家。

稀疏性与并行通信

也许最引人注目的例子来自于预处理与矩阵结构之间的相互作用。考虑一个可以分解为 A=LUA=LUA=LU 的矩阵 AAA,其中 LLL 是一个稀疏下三角矩阵,UUU 是一个稠密上三角矩阵。让我们使用 M=UM=UM=U 作为我们的预处理器。

  • 对于​​右预处理​​,算子是 AM−1=(LU)U−1=LAM^{-1} = (LU)U^{-1} = LAM−1=(LU)U−1=L。求解器可以处理优美稀疏的矩阵 LLL。将 LLL 应用于向量在计算上是廉价的,并且在并行环境中,仅需要在相邻处理器之间进行局部通信。

  • 对于​​左预处理​​,算子是 M−1A=U−1(LU)M^{-1}A = U^{-1}(LU)M−1A=U−1(LU)。这个相似变换将稀疏矩阵 LLL 变成了一个通常是稠密的矩阵。稀疏性被破坏了!应用这个稠密算子需要全局通信,即每个处理器都需要来自所有其他处理器的信息。

这种差异对于像通信避免 GMRES 这样的现代算法是深远的,这些算法试图一次执行多个步骤以隐藏数据移动的成本。右预处理通过保持通信的局部性来支持这些方法,而左预处理则通过在每一步强制进行昂贵的全局通信而使它们失效。

最终,我们看到,左预处理与右预处理的简单选择是一个丰富的主题,它将抽象的代数结构与科学建模和高性能计算的实际情况联系起来。它告诉我们,要真正掌握我们的数值工具,我们必须超越方程的表面,理解我们选择的更深层次的几何、物理和计算后果。