try ai
科普
编辑
分享
反馈
  • 尺度等变性

尺度等变性

SciencePedia玻尔百科
核心要点
  • 等变性确保当模型的输入数据经历变换(如测量单位的改变)时,其输出会以可预测的方式进行相应变换。
  • 像岭回归这样的正则化方法并非天生具有尺度等变性,除非对数据进行标准化,否则可能导致结果依赖于任意的单位选择。
  • 对称性原则规定,对于一个尺度不变问题,其最优估计量必须是尺度等变的,这为设计稳健的统计方法提供了指导。
  • 等变性是一项普遍原则,它体现为物理定律、人工智能架构的蓝图,甚至是生物体适应环境的生物学策略。

引言

当我们改变参考系时,对一个物理对象的描述应该以一种可预测的方式改变——这个概念在物理学中被称为协变性。在统计学和机器学习中,同样的概念被称为​​等变性​​(equivariance),它是一个行为良好模型的基本属性。它确保了如果你改变数据的单位(例如,从米到厘米),模型的输出会以相应简单且可预测的方式改变。然而,许多强大而流行的方法,从正则化回归到稳健估计量,都可能违反这一原则,从而导致结论是任意选择的产物,而非现实的反映。

本文深入探讨了等变性这一关键原则,解释其数学基础和深远影响。第一章 ​​“原理与机制”​​ 将剖析尺度等变性与平移等变性的数学核心。我们将探讨为何某些统计模型天生具备此属性而另一些则不然,以及像标准化这样的技术如何恢复它。我们还将揭示一个深刻的定理,它将问题的对称性与其最优解的对称性联系起来。第二章 ​​“应用与跨学科联系”​​ 将揭示这一抽象原则如何支配现实世界。我们将遍览物理学、工程学、人工智能乃至生物学,看等变性如何作为普适定律、设计指南和构建智能系统的蓝图发挥作用。

原理与机制

想象一下,你是一位旧世界的工匠,正在为一件精美的家具测量一块木料。你测得其长度为1.5米。你的学徒用的是另一套单位体系,他测量同一块木料后宣称其长度为150厘米。另一位使用英制单位的学徒则说它大约是59英寸。你们都是对的。你们得到了不同的数字,但你们都理解同一个物理现实——木料的长度。而且,你们无需重新测量,就知道如何将一个数字转换成另一个。这个简单而深刻的思想——当我们的参考系改变时,我们的描述应该以可预测的方式改变——是物理学的一块基石,被称为协变性原则。在数据、统计学和机器学习的世界里,同样思想有着不同的名称,但其精神是完全相同的:​​等变性​​(equivariance)。

如果一个估计量、模型或程序能随着数据的变换而“协变”,那么它就被称为是​​等变的​​。如果你改变数据的单位,一个等变程序的输出会以相应简单且可预测的方式改变。这是一个行为良好且值得信赖的工具的标志。缺乏此属性的程序就像一把神奇的卷尺,翻个面读数就会发生不可预测的变化;你不会信任它来盖房子,我们也不应该信任它来构建科学知识。

单位的暴政与等变性的优雅

让我们看看这个原则在实践中的应用。假设我们想建立一个简单模型,根据一个人的身高(xxx)来预测其体重(yyy)。最基本的模型是一条直线:y=β0+β1xy = \beta_0 + \beta_1 xy=β0​+β1​x。β1\beta_1β1​ 项是斜率——它告诉我们身高每增加一米,体重通常会增加多少公斤。β0\beta_0β0​ 项是截距,即一个基准体重。使用像​​普通最小二乘法(OLS)​​这样的标准方法,我们可以为我们的数据找到最佳拟合直线。

现在,如果我们决定用厘米而不是米来测量身高,会发生什么?每个身高值 xix_ixi​ 都变成了 100xi100x_i100xi​。如果我们的模型要有任何意义,它必须对每个人产生完全相同的体重预测。为了使方程成立,如果 xxx 乘以100,那么与之相乘的系数 β1\beta_1β1​ 必须除以100。而这正是 OLS 所做的。新的斜率将是 β^1′=β^1/100\hat{\beta}'_1 = \hat{\beta}_1 / 100β^​1′​=β^​1​/100。模型完美地适应了。这就是​​尺度等变性​​。

但 OLS 有一个臭名昭著的问题:它会“过拟合”数据,学习到的是噪声而非真实信号。一个流行的解决方法是​​正则化​​,即对模型的复杂度增加一个惩罚项。例如,​​岭回归​​试图找到既能很好地拟合数据,又能惩罚较大系数的系数。其目标是最小化:

Cost=∑(prediction error)2+λ∑βj2\text{Cost} = \sum (\text{prediction error})^2 + \lambda \sum \beta_j^2Cost=∑(prediction error)2+λ∑βj2​

λ∑βj2\lambda \sum \beta_j^2λ∑βj2​ 项是对斜率系数平方大小的“预算”。现在,让我们回到身高-体重问题。当我们使用米时,我们的身高系数可能比如说 β^1=30\hat{\beta}_1 = 30β^​1​=30。当我们切换到厘米时,它变成了 β^1′=0.3\hat{\beta}'_1 = 0.3β^​1′​=0.3。岭惩罚项 λβ12\lambda \beta_1^2λβ12​ 从 λ⋅302=900λ\lambda \cdot 30^2 = 900\lambdaλ⋅302=900λ 变成了 λ⋅0.32=0.09λ\lambda \cdot 0.3^2 = 0.09\lambdaλ⋅0.32=0.09λ。突然之间,对于完全相同的物理关系,惩罚变得小了10,000倍!

算法对物理背景一无所知,现在它认为基于厘米的系数“复杂度”要低得多,因此对其惩罚也较小。最终的模型将会不同,预测也会改变。我们对单位的选择污染了结果。模型不再具有尺度等变性。

解决方法既优雅又简单:​​标准化​​。在将数据送入算法之前,我们将所有预测变量转换为一个通用的、无单位的尺度。一种标准方法是重新缩放每个预测变量,使其均值为0,标准差为1。一个预测变量的值不再是“3米”或“180磅”,而是“比平均值高1.2个标准差”。通过将所有预测变量置于这个公平的竞争环境中,正则化惩罚变得公平了。单位的暴政被推翻,有意义的比较成为可能。

锚点与斜率:平移等变性

等变性不仅仅关乎输入缩放。考虑一下我们一直忽略的截距项 β0\beta_0β0​。它的作用是为我们的预测提供一个基线或“锚点”。如果我们的模型不包含任何预测变量,β0\beta_0β0​ 将只是响应变量的平均值 yˉ\bar{y}yˉ​。

现在想象我们重新分析数据,但这一次每个人都背上了一个5公斤的背包。每一个 yiy_iyi​ 值都增加了5。我们的模型应该发生什么变化?常识告诉我们,身高和体重之间的关系(斜率 β1\beta_1β1​)应该完全不变。整条回归线应该只是向上平移5公斤。这意味着新的截距 β^0′\hat{\beta}'_0β^​0′​ 应该是 β^0+5\hat{\beta}_0 + 5β^​0​+5。这个属性被称为​​平移等变性​​。

回头看看岭回归的成本函数。注意,惩罚项 λ∑βj2\lambda \sum \beta_j^2λ∑βj2​ 只适用于斜率(β1,β2,…\beta_1, \beta_2, \dotsβ1​,β2​,…),而不适用于截距 β0\beta_0β0​。这是一个刻意且关键的设计选择。如果我们将 β0\beta_0β0​ 也包含在惩罚中,算法会试图将其收缩至零。在我们背包的例子中,惩罚项会阻止截距向上平移5,试图将其拉回。这将破坏平移等变性并损坏模型的基线。我们惩罚斜率,因为它们代表了我们试图防止过拟合的潜在复杂关系。我们不惩罚截距,因为它仅仅代表我们数据的整体平均水平,这是一个我们想要捕捉而不是压制的基本属性。

固定参考系的危险:当等变性失效时

有时,等变性的失效更为微妙。想象一下,你试图找出一组测量的“中心”,但你知道你的仪器偶尔会产生剧烈的误差(离群值)。简单地取平均值不是一个好主意,因为一个巨大的离群值就可以将平均值拖离真实中心很远。

一个​​稳健估计量​​,比如​​Huber M-估计量​​,就是为这种情况设计的。它的工作原理是降低远离中心的点的影响力。它考察残差(xi−θx_i - \thetaxi​−θ)并规定:如果残差小,就正常对待;如果残差大,就限制其影响。何为“大”的阈值由一个调整常数(比如 kkk)设定。

让我们看看忽略尺度会发生什么。假设我们有数据 {1,2,4,5,15}\{1, 2, 4, 5, 15\}{1,2,4,5,15},并且我们将阈值设为 k=1.5k=1.5k=1.5。估计量找到的中心是 θ^X=3.75\hat{\theta}_X = 3.75θ^X​=3.75。点15是一个明显的离群值,因为 15−3.75=11.2515 - 3.75 = 11.2515−3.75=11.25,远大于 k=1.5k=1.5k=1.5,所以它的影响被限制了。

现在,一位同事通过将所有数值乘以2,将测量结果转换为新单位,得到 {2,4,8,10,30}\{2, 4, 8, 10, 30\}{2,4,8,10,30}。如果我们天真地使用相同的固定阈值 k=1.5k=1.5k=1.5 重新运行相同的程序,灾难就发生了。找到的新中心是 θ^Y=8\hat{\theta}_Y = 8θ^Y​=8。

这个结果是等变的吗?一个等变估计量应该产生 2×θ^X=2×3.75=7.52 \times \hat{\theta}_X = 2 \times 3.75 = 7.52×θ^X​=2×3.75=7.5。而我们的结果是8。虽然接近,但却是错误的。失败的原因是我们的数据被拉伸了2倍,但我们关于何为离群值的概念——我们固定的阈值 k=1.5k=1.5k=1.5——却没有改变。之前被认为大的偏差现在可能看起来很小,反之亦然。估计量的行为从根本上与输入数据的任意尺度绑定在了一起。

一个真正稳健的程序必须是尺度等变的。这要求它不仅要估计位置,还要同时估计数据的尺度(或离散程度)。离群值的阈值不应该是一个固定的数字,而应该是估计的数据尺度的倍数。例如,“离群值是任何距离中心超过2.5个标准差的点”。这个规则是尺度不变的;它对米、厘米或光年都同样有效。

更深的联系:问题中的对称性,答案中的对称性

到目前为止,我们一直将等变性视为一个理想属性,是良好设计的标志。但其间的联系远比这深刻。等变性不仅仅是我们附加的一个特性;它是提出正确问题的必然结果。

假设我们想要估计一个尺度参数,比如模拟一个组件寿命的Weibull分布的尺度参数 λ\lambdaλ。我们如何判断一个估计 λ^\hat{\lambda}λ^ 是否好呢?我们使用​​损失函数​​。对于尺度参数,一个自然的选择是相对误差度量。如果平均寿命是2小时,偏差1小时是灾难性的;但如果平均寿命是20年,这就微不足道了。因此,我们可能会使用一个尺度不变的损失函数,如平方相对误差 L(λ,λ^)=((λ^−λ)/λ)2L(\lambda, \hat{\lambda}) = ((\hat{\lambda} - \lambda)/\lambda)^2L(λ,λ^)=((λ^−λ)/λ)2。这个损失函数只取决于比率 λ^/λ\hat{\lambda}/\lambdaλ^/λ。

这里有一个优美的定理:如果你选择一个尺度不变的损失函数,那么任何最小化期望损失的“最优”估计量必须是尺度等变的。问题的对称性(我们的损失函数不关心绝对单位)强制要求答案具有相应的对称性(我们的最佳估计量必须尊重单位的变化)。

这一见解极其强大。它告诉我们,如果我们在寻找最佳估计量,我们可以通过只在等变估计量类别中寻找,从而极大地简化我们的搜索。这是许多“最优”统计方法背后的指导原则。​​Pitman最优等变估计量​​ 和​​最小风险等变(MRE)估计量​​ 就是通过首先将搜索限制在等变候选中,然后在其中找到最优者来得到的。通常,这种“同类最佳”估计量最终被证明是​​极小化极大​​的,这意味着它在最坏情况下提供了最佳性能,使其异常可靠。同样的逻辑也适用于寻找参数的​​可能最短的置信区间​​。通过强制执行等变性,我们可以推导出数学上的最优解。

等变性原则就像黑暗中的一盏灯,引导我们穿越无限可能的程序空间,进入一个充满合理且通常是最优解的小而明亮的房间。对于像回归中使用的稳健​​S-估计量​​这样复杂的现代方法,这些属性不仅仅是理论上的精妙之处;它们是可靠性的保证。我们知道,如果我们变换数据,新的估计值可以从旧的估计值中完美地预测出来。例如,如果对我们的数据应用线性变换 y′=5−0.5yy' = 5 - 0.5yy′=5−0.5y 和 x′=2x−3x' = 2x - 3x′=2x−3,我们不需要重新运行复杂的估计过程。估计量的等变性保证了新的系数和尺度估计会以精确、可预测的方式变换:

β^1′=−0.52β^1,β^0′=5−0.5β^0−(−0.5)(−3)2β^1,σ^′=∣−0.5∣σ^\hat{\beta}'_1 = \frac{-0.5}{2}\hat{\beta}_1, \quad \hat{\beta}'_0 = 5 - 0.5\hat{\beta}_0 - \frac{(-0.5)(-3)}{2}\hat{\beta}_1, \quad \hat{\sigma}' = |-0.5|\hat{\sigma}β^​1′​=2−0.5​β^​1​,β^​0′​=5−0.5β^​0​−2(−0.5)(−3)​β^​1​,σ^′=∣−0.5∣σ^

这确保了我们的科学结论是稳定、稳健的,并且反映了数据的现实,而不是我们选择观察它的任意视角。说到底,等变性就是忠于问题的本质。这是嵌入在数学语言中的一种基本的学术诚信原则。

应用与跨学科联系

在探索了对称性与等变性原理之后,你可能会感受到一种数学上的优雅。但这仅仅是一种悦人的抽象概念吗?远非如此。这个原则并非局限于数学教科书中的深奥概念;它是织入宇宙结构深处的一条强大而深刻的线索。自然界以毫不动摇的忠诚遵守着这些对称性,而作为科学家和工程师,我们若忽视它们,后果自负。

为了真正领会这一思想的广度,我们现在将探讨它如何在众多令人惊叹的学科中体现。我们将看到等变性如何作为物理学的基本定律、工程师的实用指南、人工智能的革命性蓝图,甚至是生命本身采用的一种巧妙策略。正是在这里,数学之美转化为实实在在的预测能力。

宇宙的法则:作为物理定律的等变性

等变性最深刻的应用不是我们发明的,而是我们发现的。它们是物理世界的基本规则。物理学的一个基石,即客观性原则,指出自然法则必须独立于观察者。这本质上就是一种等变性的陈述。

考虑材料在应力下的行为。如果你拿一块金属施加一个力,它会变形。如果你旋转整个实验——金属、测试设备、一切——结果应该是相同的,只是被旋转了。材料的内部响应必须随着施加的力一起旋转。这似乎是常识,但要建立一个能如此表现的材料数学理论,我们必须明确地强制要求旋转等变性。例如,在连续介质损伤力学领域,描述材料如何弱化和失效的模型必须将真实应力 σ\boldsymbol{\sigma}σ 与一个概念性的“有效应力” σ~\tilde{\boldsymbol{\sigma}}σ~ 联系起来。为了使模型在物理上是现实的,它们之间的映射必须是旋转等变的。任何其他选择都将描述一种奇异的材料,其属性会根据其在实验室中的朝向而改变——这明显违反了客观性原则。

当我们观察处于重大变化边缘的系统时,这一尺度与对称性原则呈现出更为神奇的特性,这种现象被称为相变。想象一下水沸腾或磁铁在高温下失去磁性。在这个“临界点”,系统似乎忘记了自身的尺度感。涨落发生在从微观到宏观的所有长度尺度上。物理学变得尺度不变。

这意味着什么?这意味着描述系统的方程在尺度变换下必须是等变的——如果你对系统进行“放大”或“缩小”,物理定律的形式保持不变。这一强大的约束使我们能够预测普适行为。例如,在一个简单的反应扩散过程模型中,比如带有非线性源项 ut=Δu+upu_t = \Delta u + u^put​=Δu+up 的热量传播,要求该方程在热方程的自然尺度变换下保持不变,会揭示出存在一个特殊的、“临界”的指数值 p=1+2/dp = 1 + 2/dp=1+2/d,它仅依赖于空间维度 ddd。这不仅仅是一个数学技巧;这个临界指数划分了两个截然不同的物理区域:一个区域中解永远存在,另一个区域中解可能在有限时间内“爆破”。

同样的想法支配着所有系统在临界点附近的行为。临界现象的标度假设是现代统计物理学的基石,它就建立在这个基础上。它告诉我们,像磁化强度(MMM)和磁化率(χ\chiχ)这样的量必须以一种非常具体的方式随系统尺寸(LLL)进行标度,由幂律如 χ∼Lsχ\chi \sim L^{s_\chi}χ∼Lsχ​ 和 M∼L−sMM \sim L^{-s_M}M∼L−sM​ 描述。尺度不变性原则继而引出了深刻的“超标度”关系,将这些指数与空间维度联系起来,例如 sχ+2sM=ds_\chi + 2s_M = dsχ​+2sM​=d。这就是为什么截然不同的系统——磁体、流体、合金——在它们的临界点附近都遵循相同的普适定律。它们都在遵守相同的对称性规则。

对称性也可以是一种创造性力量,能使秩序从混乱中自发涌现。在许多化学和生物系统中,均匀的初始条件可以自发地发展出复杂的图案,如条纹、斑点或六边形。系统的基本方程是完全对称的——它们没有偏好的方向。一个对称的因如何能产生一个对称性较低的果呢?答案在于对称性如何约束可能性。在图案形成的初期,等变性原则就像一本严格的规则手册,规定了不同图案形成模式之间如何相互作用。例如,对于一个产生六边形图案的系统,平移和旋转对称性规定,在第一模式振幅 A1A_1A1​ 的方程中,允许存在形如 A2∗A3∗A_2^* A_3^*A2∗​A3∗​ 的二次相互作用项。而对于条纹图案,这个项是被禁止的。正是这些对称性允许的非线性项的存在与否,决定了系统是选择形成六边形还是条纹。等变性不仅仅是描述世界;它还在编排世界的创造过程。

工程师指南:尊重等变性

如果等变性支配着宇宙的法则,那么在宇宙中建造事物的工程师们必须是这些法则的大师。尺度和对称性原则不仅适用于理论物理学家;它们是预测、设计和控制不可或缺的工具。

以桥梁或飞机机翼的设计为例。我们需要预测金属在负载下将如何弯曲、拉伸以及可能发生的失效。描述永久变形的塑性理论是出了名的复杂。然而,通过尺度变换的视角分析这些方程,我们发现了一个显著的简化。对于一个标准的塑性模型,当用材料刚度进行归一化后,整个材料响应仅取决于少数几个无量纲比率,例如屈服应力除以杨氏模量,σ^y=σy/E\hat{\sigma}_y = \sigma_y/Eσ^y​=σy​/E。这是控制方程尺度等变性的直接结果。这意味着,如果我们把一个材料的所有类应力参数(EEE, σy\sigma_yσy​等)都加倍,其应力-应变曲线在归一化坐标中绘制时,形状将保持完全相同。这一原则使工程师能够将一种材料的结果推广到另一种材料,并理解哪些参数真正控制着材料的行为,这对材料设计来说是一个强有力的洞见。

当我们从物理对象转向模拟它们的计算机模型时,等变性同样至关重要。考虑一个线性时不变(LTI)系统,这是从电路到卫星控制系统等一切事物背后的数学模型。系统的演化由矩阵指数 eAte^{At}eAt 控制。如果我们改变单位,这对应于对状态变量进行尺度变换 x→z=Txx \to z = Txx→z=Tx,会发生什么?新的系统矩阵变为 As=TAT−1A_s = TAT^{-1}As​=TAT−1。相似等变性属性 eAst=TeAtT−1e^{A_s t} = T e^{At} T^{-1}eAs​t=TeAtT−1 让我们放心,底层的物理原理——由特征值决定的系统稳定性——保持不变。

但这同时也是一个警示故事。虽然精确的数学解行为良好,但其数值计算可能充满陷阱。那个保持物理不变量的尺度变换 TTT,却可以极大地影响我们模拟的数值稳定性。计算解的误差可以被条件数 κ(T)\kappa(T)κ(T) 的平方放大。一个选择不当的尺度(一个病态的 TTT)可以将一个完全稳定的现实世界系统变成一个爆炸的模拟,或者掩盖一个真实的不稳定性。尊重尺度变换的数学不仅仅是为了优雅;这是为了确保我们的火箭能够笔直飞行。

新前沿:教机器学会等变性

近年来,等变性最激动人心的应用出现在一个新前沿:科学机器学习。我们不再是给计算机编写物理定律程序,而是教它从数据中发现这些定律。要成功做到这一点,我们必须将宇宙的基本对称性构建到学习机器本身之中。

对于预测分子或材料中原子受力之类的任务,我们面临一个关键的架构选择。我们是应该建立一个模型来预测总能量(一个在旋转下不变的标量),还是应该建立一个模型直接预测力(一个在旋转下必须是等变的矢量)?

第一条路径,学习一个不变的能量,非常优雅。如果一个神经网络 E^θ\hat{E}_\thetaE^θ​ 被设计成不变的(即 E^θ(旋转后的分子)=E^θ(原始分子)\hat{E}_\theta(\text{旋转后的分子}) = \hat{E}_\theta(\text{原始分子})E^θ​(旋转后的分子)=E^θ​(原始分子)),那么通过取其梯度得到的力 F^=−∇E^θ\hat{\mathbf{F}} = -\nabla \hat{E}_\thetaF^=−∇E^θ​ 就自动地并且完美地是等变的。这种方法还保证了学习到的力场是保守的,意味着能量守恒——这是一个通过构造就得以满足的物理约束。

第二条路径,直接学习等变的力,需要更复杂的网络架构。这些模型,如E(3)等变图神经网络(例如NequIP),其内部特征不仅仅是数字,而是像矢量和张量这样的几何对象。网络中的每个计算层都经过精心设计,以遵循旋转变换的规则。这种方法的优势通常在于更高的数据效率。通过硬编码所预测量的正确几何性质,模型不必浪费数据和参数从头学习这些基本对称性。这在预测像晶体应力这样的张量属性时尤其强大。

这两种策略之间的选择代表了一个活跃的研究领域,涉及在准确性、效率和物理保真度方面的权衡。但其根本信息是明确的:在科学领域,人工智能最成功的应用不是那些从零开始的应用,而是建立在物理对称性这一基础支柱之上的应用。借助自动微分计算这些复杂架构梯度的能力,我们现在可以创建不仅准确而且符合物理原理的模型。

生命的逻辑:生物学中的等变性

或许这些思想最令人惊奇和欣喜的应用来自一个远离物理学和工程学的领域:微生物学。活细胞必须不断地感知并响应其环境。一个关键的挑战是对信号的相对变化做出反应,而不仅仅是其绝对水平。例如,一个细菌可能需要在营养物浓度加倍时做出反应,而不管起始浓度是高是低。这个特性,被称为*倍数变化检测*,使生物体能够在广泛的环境条件下适应并保持稳健的行为。

从数学上讲,什么是倍数变化检测?它正是尺度等变性。这意味着如果输入信号 u(t)u(t)u(t) 被一个因子 aaa 缩放,系统的内部响应 c(t)c(t)c(t) 会以一种可预测的方式变换,即 c(t)→C(a)c(t)c(t) \to C(a) c(t)c(t)→C(a)c(t),且与信号的基线水平无关。令人惊奇的是,简单的生物化学回路,涉及基因表达和蛋白质活性的反馈循环,可以实现这一特性。通过分析细菌中钾调控的一个最小模型,可以证明一个简单的反馈回路——其中钾的流入刺激一种抑制剂(c-di-AMP)的产生,而后者反过来又关闭钾转运蛋白——可以实现完美的倍数变化检测。数学推导揭示了系统必须遵守的精确标度关系 C(a)=a1/(1+m)C(a) = a^{1/(1+m)}C(a)=a1/(1+m)。

这是一个深刻的发现。进化,通过自然选择这个盲目的过程,偶然发现并实现了一个复杂的数学原理,以解决生物信息处理中的一个基本问题。

对称性的交响乐

我们的探索之旅从材料的失效到图案的诞生,从相变的核心到活细胞的逻辑,从卫星的控制到人工智能的架构。在每一种情况下,我们都发现了同一个深刻的原则在起作用:对称性与等变性原则。

它作为一种约束,告诉我们什么是不可能的。它作为一种指南,揭示普适定律并简化复杂问题。它还作为一种蓝图,向我们展示如何构建与世界运作方式一致的模型——无论是理论模型还是计算模型。看到这一个优美而简单的思想连接了科学如此多不同的角落,就如同瞥见了支撑所有现实的深刻统一性与连贯性。