try ai
科普
编辑
分享
反馈
  • 普适勾股定理

普适勾股定理

SciencePedia玻尔百科
核心要点
  • 勾股定理是在任何具有内积的空间中正交性的直接结果,而不仅仅是关于三角形的几何事实。
  • 该原理可以延伸到抽象的函数空间,其表现形式为帕塞瓦尔定理(Parseval's Theorem),该定理将信号的总能量等同于其正交分量能量之和。
  • 在统计学和机器学习中,该定理体现为正交投影(最小二乘法),它将数据分解为最优解和与之正交的误差。
  • 该定理的结构为量子力学中的概率论以及信息论中衡量概率分布间“距离”的方法提供了基础。

引言

勾股定理 a2+b2=c2a^2 + b^2 = c^2a2+b2=c2 是数学中最广为人知的成果之一,与直角三角形的几何学紧密相连。然而,这个熟悉的方程仅仅是冰山一角——它是一个贯穿于看似不相关领域的普适原理的具体实例。将该定理视为孤立的几何法则的普遍看法造成了知识上的鸿沟,掩盖了其作为正交性基本原理的真正力量。本文旨在通过揭示该定理在整个科学领域的深刻而统一的影响力,来填补这一鸿沟。

本文将引导您踏上一段揭示这种隐藏的统一性的旅程。在“原理与机制”一章中,我们将使用向量和内积的语言来重构该定理,以揭示其代数核心。然后,我们将见证这一核心思想如何在无限维的函数空间、弯曲的时空结构以及抽象的信息领域中绽放光彩。在此之后,“应用与跨学科联系”一章将展示这一推广后的原理如何成为数据科学、量子力学和信号处理中的实用工具,为广泛的现象提供统一的几何直觉。

原理与机制

这是我们最早学到的优美数学知识之一:对于一个直角三角形,a2+b2=c2a^2 + b^2 = c^2a2+b2=c2。它似乎只是一个关于画在平坦纸面上的三角形和正方形的简单而自足的事实。但如果我告诉你这个小小的方程其实是一个钥匙孔呢?如果你透过它窥视,你将看到一个广阔、相互连接的图景,从提琴的琴弦延伸到时空的结构,甚至触及信息与不确定性的本质。勾股定理不仅仅是一条法则;它是宇宙中一个更深层、更基本结构的表征。让我们踏上旅程,去揭示这种隐藏的统一性。

内积中的秘密

让我们从重新构想三角形开始。我们不考虑边长,而是考虑向量——带有长度和方向的箭头。直角三角形的两条直角边可以看作是两个相互垂直的向量,我们称之为 a\mathbf{a}a 和 b\mathbf{b}b。斜边则是表示它们和的向量,即 c=a+b\mathbf{c} = \mathbf{a} + \mathbf{b}c=a+b。

用这种语言,定理就变成了:如果 a\mathbf{a}a 垂直于 b\mathbf{b}b,那么 ∥a+b∥2=∥a∥2+∥b∥2\|\mathbf{a}+\mathbf{b}\|^2 = \|\mathbf{a}\|^2 + \|\mathbf{b}\|^2∥a+b∥2=∥a∥2+∥b∥2,其中 ∥v∥\|\mathbf{v}\|∥v∥ 表示向量 v\mathbf{v}v 的长度。数学是如何知道向量何时垂直的呢?它通过一种奇妙的运算,即​​内积​​(在熟悉的欧几里得空间中也称为点积)来得知。对于两个向量 x\mathbf{x}x 和 y\mathbf{y}y,它们的内积记为 ⟨x,y⟩\langle \mathbf{x}, \mathbf{y} \rangle⟨x,y⟩。

这一个简单的运算就是问题的核心。它定义了我们需要的一切:

  1. ​​长度:​​ 向量 x\mathbf{x}x 的长度的平方就是它与自身的内积:∥x∥2=⟨x,x⟩\|\mathbf{x}\|^2 = \langle \mathbf{x}, \mathbf{x} \rangle∥x∥2=⟨x,x⟩。
  2. ​​角度:​​ 两个非零向量 x\mathbf{x}x 和 y\mathbf{y}y 被称为​​正交​​(perpendicular 的更正式说法),当且仅当它们的内积为零:⟨x,y⟩=0\langle \mathbf{x}, \mathbf{y} \rangle = 0⟨x,y⟩=0。

现在,让我们利用内积的基本代数法则展开斜边长度平方的表达式 ∥a+b∥2\|\mathbf{a}+\mathbf{b}\|^2∥a+b∥2:

∥a+b∥2=⟨a+b,a+b⟩=⟨a,a⟩+⟨a,b⟩+⟨b,a⟩+⟨b,b⟩\|\mathbf{a}+\mathbf{b}\|^2 = \langle \mathbf{a}+\mathbf{b}, \mathbf{a}+\mathbf{b} \rangle = \langle \mathbf{a}, \mathbf{a} \rangle + \langle \mathbf{a}, \mathbf{b} \rangle + \langle \mathbf{b}, \mathbf{a} \rangle + \langle \mathbf{b}, \mathbf{b} \rangle∥a+b∥2=⟨a+b,a+b⟩=⟨a,a⟩+⟨a,b⟩+⟨b,a⟩+⟨b,b⟩

在任何合理的空间(实内积空间)中,顺序无关紧要,所以 ⟨a,b⟩=⟨b,a⟩\langle \mathbf{a}, \mathbf{b} \rangle = \langle \mathbf{b}, \mathbf{a} \rangle⟨a,b⟩=⟨b,a⟩。这样可以简化为:

∥a+b∥2=∥a∥2+∥b∥2+2⟨a,b⟩\|\mathbf{a}+\mathbf{b}\|^2 = \|\mathbf{a}\|^2 + \|\mathbf{b}\|^2 + 2\langle \mathbf{a}, \mathbf{b} \rangle∥a+b∥2=∥a∥2+∥b∥2+2⟨a,b⟩

看!我们熟悉的勾股定理 ∥a+b∥2=∥a∥2+∥b∥2\|\mathbf{a}+\mathbf{b}\|^2 = \|\mathbf{a}\|^2 + \|\mathbf{b}\|^2∥a+b∥2=∥a∥2+∥b∥2 成立,当且仅当最后一项 2⟨a,b⟩2\langle \mathbf{a}, \mathbf{b} \rangle2⟨a,b⟩ 为零。而它恰好在 ⟨a,b⟩=0\langle \mathbf{a}, \mathbf{b} \rangle = 0⟨a,b⟩=0 时为零——这正是正交性的定义!

这不仅仅是一个证明;它是一个启示。勾股定理不是一个几何上的巧合,而是通过内积定义长度和角度的最直接结果。任何空间,无论多么抽象,只要它有一个自洽的内积概念,其结构中就必然内含一个勾股定理。这种等价性是开启未来所有推广的关键。同样的内积代数还免费赠送我们其他几何瑰宝,比如​​平行四边形法则​​,它将平行四边形的边长与其对角线长度联系起来:∥u+v∥2+∥u−v∥2=2(∥u∥2+∥v∥2)\|\mathbf{u}+\mathbf{v}\|^2 + \|\mathbf{u}-\mathbf{v}\|^2 = 2(\|\mathbf{u}\|^2 + \|\mathbf{v}\|^2)∥u+v∥2+∥u−v∥2=2(∥u∥2+∥v∥2)。

正交函数的交响乐

所以,任何具有内积的空间都有一个勾股定理。但是什么样的空间有内积呢?我们习惯于二维或三维空间中的箭头。但是……函数呢?我们能把像 f(t)=sin⁡(t)f(t) = \sin(t)f(t)=sin(t) 这样的函数当作一个“向量”吗?

当然可以!想一想:一个三维向量是三个数字 (x,y,z)(x, y, z)(x,y,z) 的列表。而一个函数 f(t)f(t)f(t) 就像一个有无限个分量的向量,每个 ttt 值对应一个分量。我们可以为定义在某个区间(比如说从 -1 到 1)上的两个实函数 f(t)f(t)f(t) 和 g(t)g(t)g(t) 定义一个内积,方法是使用积分:

⟨f,g⟩=∫−11f(t)g(t) dt\langle f, g \rangle = \int_{-1}^{1} f(t)g(t) \, dt⟨f,g⟩=∫−11​f(t)g(t)dt

这个积分的作用就像点积一样:它接受两个函数,然后给出一个数字。它遵循所有正确的规则,我们可以用它来定义函数的“长度”(即其​​范数​​)以及两个函数“正交”的含义。

事情从这里开始变得非常有趣。考虑声音和信号的基本构成单元:正弦波和余弦波。事实证明,像 sin⁡(t)\sin(t)sin(t), sin⁡(2t)\sin(2t)sin(2t), sin⁡(3t)\sin(3t)sin(3t),... 这样的函数构成了一个​​正交集​​。一个和弦是这些基频音符的和。来自射电望远镜的复杂信号是简单电磁波的和。用函数空间的语言来说,一个复杂的信号 S(t)S(t)S(t) 是正交函数向量的向量和。

勾股定理在这里告诉我们什么呢?它告诉我们,信号的总功率(其范数的平方)就是其各个独立分量功率的总和!如果一个信号由三个振幅分别为 C1,C2,C3C_1, C_2, C_3C1​,C2​,C3​ 的正交频率构成,它的总功率就是 ∣C1∣2+∣C2∣2+∣C3∣2|C_1|^2 + |C_2|^2 + |C_3|^2∣C1​∣2+∣C2​∣2+∣C3​∣2。这在物理学和工程学中是一个极其重要的结果,而它只不过是换了一身新装的勾股定理。

这个思想在傅里叶级数的​​帕塞瓦尔定理​​中达到了顶峰。该定理指出,一个函数的总“能量”(由 ∫∣f(x)∣2dx\int |f(x)|^2 dx∫∣f(x)∣2dx 给出)完全等于它在正弦和余弦函数基底下坐标的平方和。这正是无限维函数空间中的勾股定理。一个向量的长度并不取决于你用哪一套标准正交基来测量其分量;分量的平方和总是相同的。帕塞瓦尔定理是这种不变性的终极表达,将其从有限维的箭头延伸到了无限的函数世界。

更深层次的几何学

带着我们强大的新视角,让我们回过头来看看几何学本身。我们已经将这个定理从几何学带到了代数领域;现在让我们再把它带回来,看看它如何重塑我们对空间的理解。

从弯曲空间看

在地球的曲面上,一个顶点分别在北极、非洲赤道上一点和南美洲赤道上一点的大三角形可以有三个直角。我们熟悉的 a2+b2=c2a^2+b^2=c^2a2+b2=c2 在这里完全失效。

然而,如果你观察地球表面一个极小的微观区域,它看起来是相当平坦的。对于一个无穷小的直角三角形,该定理仍然成立。这就是微分几何的核心思想,也是爱因斯坦广义相对论的语言。

在弯曲空间或时空中,勾股定理成为测量距离的局部、无穷小法则。无穷小距离 dsdsds(称为​​线元​​)的公式从平面上的 ds2=dx2+dy2ds^2 = dx^2 + dy^2ds2=dx2+dy2 推广为:

ds2=∑i,jgijdxidxjds^2 = \sum_{i,j} g_{ij} dx^i dx^jds2=i,j∑​gij​dxidxj

这个 gijg_{ij}gij​ 就是著名的​​度量张量​​,你可以把它看作一组局部修正因子,它告诉你勾股定理在一个特定、可能扭曲的坐标系中是如何运作的。即使在像“双曲烯”这样距离被拉伸和扭曲的奇异非欧几何材料中,任何路径的长度也是通过累加(积分)这些无穷小的勾股距离来找到的。该定理不再是一个全局真理,但它成为所有几何学的基本局部法则。

更多维度,更多面

该定理在平直空间中还有另一种令人惊叹的美丽推广方式。想象一个三维空间中的四面体,其中一个角在原点,另外三个顶点分别位于 x、y 和 z 轴上。这个“直角”四面体有四个面。其中三个是坐标平面上的直角三角形——我们可以称之为“直角面”。第四个面,即连接三个轴上顶点的那个面,是“斜面”。

​​德古阿定理​​是勾股定理的三维类比,它指出斜面面积的平方等于三个直角面面积的平方和。这并非巧合!这个模式在任何维度都成立,即一个直角 n-单纯形的“斜”面 (n-1) 维超体积的平方,等于其他 n 个“直角”面超体积的平方和。这正是同样的勾股旋律,只是用更高维体积的乐器演奏出来。

信息的几何学

我们已经在箭头空间、函数空间甚至时空本身中看到了这个定理。我们还能不能把它推得更远?如果我们空间中的“点”不是位置,而是像概率分布这样的抽象概念呢?

欢迎来到令人脑洞大开的​​信息几何​​领域。在这个世界里,每个点都是一个概率分布。一个点可能是一个完美的高斯分布钟形曲线;另一个点可能是一个加权骰子所有可能结果的分布。

你如何衡量两种“信念”之间的“距离”?这里没有物理的尺子。信息论提供了一个工具:​​Kullback-Leibler (KL) 散度​​,DKL(P∥Q)D_{KL}(P\|Q)DKL​(P∥Q)。它量化了当你用一个模型分布 QQQ 来近似一个真实分布 PPP 时所“惊讶”的程度或丢失的信息。它不是一个完美的距离度量——关键在于 DKL(P∥Q)≠DKL(Q∥P)D_{KL}(P\|Q) \neq D_{KL}(Q\|P)DKL​(P∥Q)=DKL​(Q∥P)——但就我们的目的而言,它的行为类似于距离的平方。

现在是压轴戏。想象你有一个复杂的“真实”分布 PPP(你数据的杂乱现实)和一个更简单的模型族 E\mathcal{E}E(比如,所有可能的钟形曲线集合)。在 E\mathcal{E}E 中找到 PPP 的“最佳”近似是一个投影行为:你正在流形 E\mathcal{E}E 中寻找在 KL 散度意义上“最接近” PPP 的点 P∗P^*P∗。这正是统计学家和机器学习算法在将模型拟合到数据时所做的事情。

而且,几乎令人难以置信的是,勾股定理再次出现。对于真实分布 PPP、其最佳近似 P∗P^*P∗ 以及模型族 E\mathcal{E}E 中的任何其他模型 QQQ,一个“信息勾股定理”成立:

DKL(P∥Q)=DKL(P∥P∗)+DKL(P∗∥Q)D_{KL}(P\|Q) = D_{KL}(P\|P^*) + D_{KL}(P^*\|Q)DKL​(P∥Q)=DKL​(P∥P∗)+DKL​(P∗∥Q)

这太惊人了。它意味着使用任意模型 QQQ 的总“误差”可以分解为两个“正交”的部分:最佳可能模型的“误差”DKL(P∥P∗)D_{KL}(P\|P^*)DKL​(P∥P∗),以及从最佳模型移动到我们任意模型的“误差”DKL(P∗∥Q)D_{KL}(P^*\|Q)DKL​(P∗∥Q)。这个定理是统计学和机器学习中许多基本结果的概念支柱,它保证了当我们在给定类别的模型中为数据找到最佳解释时,某种“正交性”是成立的。

从一个关于三角形的简单法则,勾股定理已经演变成一个普适的正交性原理。它是一条金线,将空间几何学、函数分析、场物理学和推断逻辑联系在一起。它提醒我们,在数学中,最简单的思想往往最为深刻,其回声在知识最意想不到的角落里回响。

应用与跨学科联系

我们已经探讨了广义勾股定理的抽象框架,看到一个关于直角三角形的简单思想如何能用向量和内积的优雅语言来表达。但这种抽象的意义何在?它对我们有什么用处吗?我向您保证,它用处很大。这个原理不是一件供人远观的博物馆展品,而是一匹任劳任怨的“工作马”。它是一条贯穿几乎所有现代科学和工程分支的几何直觉线索。它一次又一次地以伪装的形式出现,揭示了世界运作方式深层的统一性。让我们现在踏上旅程,在一些意想不到的地方发现这个熟悉的身影。

多维世界

我们的大脑习惯于三维空间。但科学技术不断迫使我们在更多维度上思考。数据科学家描述一个客户可能不是用位置 (x,y,z)(x, y, z)(x,y,z),而是用一个 50 维“特征空间”中的一个点,其坐标轴可以是年龄、收入、在网站上花费的时间、购买的商品等等。这个空间中两个客户之间的“距离”是他们相似度的度量,也是推荐引擎和定向广告的基石。我们如何测量这个距离?用勾股定理。

想象一个 n 维超立方体,一个延伸到 n 维的完美立方体。连接两个相对顶点的长大对角线有多长?如果边长是 sss,我们可以想象从一个顶点 (0,0,…,0)(0, 0, \dots, 0)(0,0,…,0) 移动到另一个顶点 (s,s,…,s)(s, s, \dots, s)(s,s,…,s)。这段旅程等同于沿着 n 个相互垂直的轴连续走 n 步,每步长度为 sss。总位移向量是 (s,s,…,s)(s, s, \dots, s)(s,s,…,s)。推广到 n 维的勾股定理告诉我们,这个向量长度的平方就是其分量平方的和:s2+s2+⋯+s2=ns2s^2 + s^2 + \dots + s^2 = n s^2s2+s2+⋯+s2=ns2。因此,距离是 sns\sqrt{n}sn​。一个边长为 2.5 米的 11 维立方体,其主对角线长约 8.3 米,这个结果是用两千多年前铸就的工具计算出来的。

这种将垂直分量的平方相加的原理是普适的。如果我们有一组相互正交的向量,比如 v1,v2,…,vk\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_kv1​,v2​,…,vk​,它们和的范数平方遵循同样的简单规则:∥v1+v2+⋯+vk∥2=∥v1∥2+∥v2∥2+⋯+∥vk∥2\|\mathbf{v}_1 + \mathbf{v}_2 + \dots + \mathbf{v}_k\|^2 = \|\mathbf{v}_1\|^2 + \|\mathbf{v}_2\|^2 + \dots + \|\mathbf{v}_k\|^2∥v1​+v2​+⋯+vk​∥2=∥v1​∥2+∥v2​∥2+⋯+∥vk​∥2。这是组合独立量的基本法则,其回响无处不在。

近似与分解的艺术

当事物并非完美对齐时会发生什么?在现实世界中,数据充满噪声,解决方案也鲜有完美的。在这里,勾股定理提供了整个定量科学中最强大的概念之一:正交投影。

想象一个在我们熟悉的三维空间内的平面,我们称之为子空间 WWW。把这个平面看作代表一个问题的所有“可能”或“理想”的解。现在,假设我们有一个向量 a\mathbf{a}a,它指向该平面之外的某处;这可能就是我们杂乱的现实世界数据。我们想在平面 WWW 中找到一个向量 u\mathbf{u}u,使它“最接近”我们的数据 a\mathbf{a}a。答案是从 a\mathbf{a}a 的顶端向该平面作一条垂线。垂足就是我们最佳近似向量 u\mathbf{u}u 的顶端。

连接 u\mathbf{u}u 和 a\mathbf{a}a 的向量,我们称之为 v=a−u\mathbf{v} = \mathbf{a} - \mathbf{u}v=a−u,是“误差”或“残差”向量。根据其构造,它与平面 WWW(因此也与 u\mathbf{u}u)正交。我们已将原始数据 a\mathbf{a}a 分解为两个正交部分:一个理想解 u\mathbf{u}u 和一个误差 v\mathbf{v}v。因为它们是正交的,所以勾股定理成立:∥a∥2=∥u∥2+∥v∥2\|\mathbf{a}\|^2 = \|\mathbf{u}\|^2 + \|\mathbf{v}\|^2∥a∥2=∥u∥2+∥v∥2。“总长度”的平方等于“解长度”的平方与“误差长度”的平方之和。最小化误差 ∥v∥\|\mathbf{v}\|∥v∥ 正是著名的​​最小二乘法​​背后的核心思想,该方法用于拟合数据点、分析经济趋势以及训练无数的机器学习模型。勾股定理是统计回归的几何灵魂。

信号与波的交响曲

我们定理的旅程并未停留在有限维度。让我们来一次壮观的飞跃。如果我们的“向量”不是一列数字,而是一个连续的实体,比如一个持续一秒的音符,或者一根被加热的杆上的温度分布呢?这些都是函数,而函数可以被看作是无限维空间(称为希尔伯特空间)中的向量。

两个函数的“内积”不再是一个简单的和,而是一个积分。如果两个函数在给定区间上乘积的积分为零,那么它们就是“正交”的。一个美丽的例子是正弦和余弦波的集合 {sin⁡(nx),cos⁡(nx)}\{\sin(nx), \cos(nx)\}{sin(nx),cos(nx)},它们是傅里叶分析的基石。不同整数频率的波是相互正交的。

在这个世界里,勾股定理以​​帕塞瓦尔恒等式​​的形式重生。它指出,一个信号的总“能量”——定义为其值的平方的积分,即 ∫∣f(x)∣2dx\int |f(x)|^2 dx∫∣f(x)∣2dx——等于其各个正交分量能量的总和。对于傅里叶级数,这意味着总能量是傅里叶系数的平方和。这是一个意义深远的论断!正是因此,我们才能分析来自小提琴的复杂声音,并有意义地讨论其基音与泛音所包含的能量。这个原理是数字信号处理的基础,支持着从音乐应用中的音频压缩到医学 MRI 扫描中的图像滤波等一切技术。此外,由勾股结构保证的几何稳定性确保了像傅里叶级数这样的无穷函数级数能够收敛到一个良好定义的极限,这是数学分析的基石。

量子竞技场与信息逻辑

抽象的层次还在攀升,其回报也变得更加深远。在量子力学的奇异世界里,一个粒子的状态由希尔伯特空间中的一个向量来描述。物理可观测量,如能量或动量,由特殊的“正规”算符表示。测量的可能结果是这些算符的本征值,而与这些确定结果相对应的系统状态是它们的本征向量,这些本征向量构成一个标准正交集。

当一个粒子处于 f=∑icivif = \sum_{i} c_i v_if=∑i​ci​vi​ 的叠加态时,如果我们测量一个可观测量 TTT,会发生什么?勾股定理的精神指引着答案。测量的“平均平方值”⟨T2⟩\langle T^2 \rangle⟨T2⟩ 由 ∥Tf∥2\|Tf\|^2∥Tf∥2 给出。由于 viv_ivi​ 是标准正交的,向量 Tvi=λiviTv_i = \lambda_i v_iTvi​=λi​vi​ 也是正交的。应用该定理可得 ∥Tf∥2=∑i∥λicivi∥2=∑i∣λi∣2∣ci∣2\|Tf\|^2 = \sum_i \|\lambda_i c_i v_i\|^2 = \sum_i |\lambda_i|^2 |c_i|^2∥Tf∥2=∑i​∥λi​ci​vi​∥2=∑i​∣λi​∣2∣ci​∣2。变换后状态向量的“长度”平方是其各分量长度平方的总和,并由测量结果的平方加权。获得每个结果 λi\lambda_iλi​ 的概率本身由 ∣ci∣2|c_i|^2∣ci​∣2 给出,这是将状态向量投影到基向量上的直接结果。整个量子力学的概率框架都建立在这种希尔伯特空间几何学之上。

或许我们定理最令人惊讶的现身之处是在信息论领域。在这里,两个概率分布 ppp 和 qqq 之间的“距离”通常用一个称为 Kullback-Leibler (KL) 散度的量来衡量,即 DKL(p∥q)D_{KL}(p\|q)DKL​(p∥q)。它不是真正的距离——它不对称——但它的几何行为却惊人地相似。如果你有一个先验信念 ppp,然后收到了新的信息,将你的信念限制在一个集合 C\mathcal{C}C 内,那么更新信念的最佳方式是找到集合 C\mathcal{C}C 中“最接近” ppp 的分布 q∗q^*q∗。这个 q∗q^*q∗ 被称为信息投影。

一个关于信息的“广义勾股定理”指出,对于约束集 C\mathcal{C}C 中的任何分布 rrr,从 rrr 到 ppp 的“距离”可以完美分解为:DKL(r∥p)=DKL(r∥q∗)+DKL(q∗∥p)D_{KL}(r\|p) = D_{KL}(r\|q^*) + D_{KL}(q^*\|p)DKL​(r∥p)=DKL​(r∥q∗)+DKL​(q∗∥p)。这看起来就像 c2=a2+b2c^2 = a^2 + b^2c2=a2+b2!这不仅仅是一个数学上的花招。这个性质可以用来证明复杂的、去中心化的学习算法的收敛性,在这些算法中,多个代理必须基于局部信息达成共识。勾股恒等式保证了系统中由 KL 散度之和度量的总“分歧”是一个在每次通信步骤中只会减少的量,从而确保系统能够学习并趋于稳定。

从坚实的几何学基础,到嘈杂的数据世界,再到交响乐中振动的琴弦,到量子原子的概率迷雾,最后到信息本身的抽象逻辑——勾股定理如同一座灯塔矗立。在其广义形式下,它远不止一个公式。它是一个关于分解与和谐的基本原理,规定了如何将独立的贡献相加,无论是长度、误差、能量,还是信息量。它雄辩地证明了所有数学领域的相互关联性,以及一个单一而优美的思想所蕴含的强大力量。