try ai
科普
编辑
分享
反馈
  • 次梯度微积分

次梯度微积分

SciencePedia玻尔百科
核心要点
  • 次梯度微积分通过在具有“尖点”或“拐角”的点上定义一组有效的斜率(即次微分),从而将导数的概念推广到非光滑凸函数。
  • 次梯度优化的基本原理指出,一个点是全局最小值的充分必要条件是,数字零是其对应次微分集合中的一个元素。
  • 该理论对现代数据科学至关重要,它解释了像 l1 范数(LASSO)这样的非光滑惩罚项如何通过创建一个“死区”来诱导稀疏性,使得模型参数能够精确地收敛到零。
  • 其应用扩展到稳健统计学(Huber 损失)、图像去噪(全变分),并为训练使用像 ReLU 这样的非光滑激活函数的神经网络提供了理论支持。

引言

在数学领域,经典微积分为我们理解一个充满平滑、连续变化的世界提供了强有力的视角。其核心概念——导数,巧妙地描述了函数在没有中断的情况下流动的瞬时变化率。然而,现代科学与工程中许多最紧迫的问题——从带有硬性约束的经济模型到人工智能的优化图景——都不是平滑的。它们的特点是存在尖角、尖点和突变,在这些地方传统导数是无定义的。这就带来了一个关键的知识空白:我们如何分析和优化在这些不可微点上的函数?

本文通过引入次梯度微积分来应对这一挑战,这是一种深刻的推广,将微积分的力量扩展到了非光滑的世界。在接下来的章节中,我们将首先深入探讨次梯度微积分的“原理与机制”,为其工作方式建立直观理解,并确立其核心规则和定理。随后,在“应用与跨学科联系”部分,我们将探索这一数学框架如何在机器学习、信号处理和优化中开启强大的技术,揭示这些“拐角”出人意料的效用。

原理与机制

在我们穿越物理学和数学世界的旅程中,我们常常发现自己站在巨人的肩膀上,使用的工具是如此熟悉,以至于感觉像是我们自己思想的延伸。其中最基础的工具就是微积分——描述变化的语言,它让我们能够描绘出抛出的球的优美弧线,或是热量在金属棒中的流动。其核心在于导数,一个具有崇高力量的概念,它告诉我们函数在任意给定点的“斜率”或瞬时变化率。对于一个平滑起伏的景观,这就是我们所需要的全部。但当景观不平滑时会发生什么?当我们遇到一个尖锐的山峰、一个锯齿状的边缘或一个突然的拐角时,又会怎样?

我们熟悉的工具——导数,突然间失效了。在拐角处,斜率是什么?是引入的斜率,还是引出的斜率?似乎没有唯一的答案。这并非某种深奥的、纯粹的数学奇谈;这些“尖点”和“拐角”无处不在。它们出现在会突然断裂的材料物理学中,出现在有硬性约束的经济决策中,并且对现代科学而言最为紧迫地,出现在我们用来训练最强大人工智能模型的数学函数中。我们必须在这些尖锐的边缘处放弃我们的探索吗?

当然不!自然界不会在拐角处停止,我们也不应如此。我们只需要一个更新、更强大的思想——一种导数的推广,它能以其前辈处理平滑曲线时同样的优雅来处理这些粗糙之处。这个思想就是​​次梯度微积分​​的基础。

边缘求生:超越导数

让我们从我们能想象到的最简单的“拐角”开始:绝对值函数 f(z)=∣z∣f(z) = |z|f(z)=∣z∣。它的图像是一个完美的“V”形,其尖点位于 z=0z=0z=0。在其他任何地方,这个函数都非常平滑。对于任何 z>0z > 0z>0,斜率显然是 111。对于任何 z0z 0z0,斜率同样清晰地是 −1-1−1。但在 z=0z=0z=0 这个临界点,导数是未定义的。定义导数的极限根据你从哪一侧逼近会给出两个不同的答案。

与其在 z=0z=0z=0 处寻找唯一的斜率,不如让我们问一个不同的问题。我们能找到穿过点 (0,f(0))=(0,0)(0, f(0)) = (0,0)(0,f(0))=(0,0) 并且完全位于或接触 f(z)=∣z∣f(z)=|z|f(z)=∣z∣ 图像下方的直线吗?这样一条直线的形式为 y=g⋅zy = g \cdot zy=g⋅z。条件是对所有 zzz 都有 ∣z∣≥g⋅z|z| \geq g \cdot z∣z∣≥g⋅z。

让我们测试一些斜率 ggg 的值。

  • 如果我们选择 g=1g=1g=1,直线是 y=zy=zy=z。这条线接触“V”形的右臂,并保持在左臂下方。它可行。
  • 如果我们选择 g=−1g=-1g=−1,直线是 y=−zy=-zy=−z。这条线接触左臂,并保持在右臂下方。它也行。
  • 那么 g=0.5g=0.5g=0.5 呢?直线 y=0.5zy=0.5zy=0.5z 当然也保持在 ∣z∣|z|∣z∣ 的图像下方。
  • 那么 g=2g=2g=2 呢?直线 y=2zy=2zy=2z 不可行。对于任何小的正数 zzz,我们有 2z>∣z∣2z > |z|2z>∣z∣,所以这条线会穿过图像。

通过这个简单的思想实验,我们发现闭区间 [−1,1][-1, 1][−1,1] 中的任何斜率 ggg 都会产生一条保持在 ∣z∣|z|∣z∣ 图像“下方”的直线。这一整套有效的斜率,即 [−1,1][-1, 1][−1,1],就是我们在不可微点处替代导数的概念。这个集合中的每一个斜率都称为​​次梯度​​(subgradient),而这个集合本身则称为​​次微分​​(subdifferential),记作 ∂f(0)\partial f(0)∂f(0)。

这种几何直觉被一个极为简单而深刻的定义所捕捉。一个向量 ggg 是一个凸函数 fff 在点 xxx 处的​​次梯度​​,如果对于所有其他点 yyy:

f(y)≥f(x)+g⊤(y−x)f(y) \geq f(x) + g^\top(y - x)f(y)≥f(x)+g⊤(y−x)

这个不等式表明,由次梯度 ggg 定义的超平面是函数 fff 的一个全局下逼近,并锚定在点 xxx。​​次微分​​ ∂f(x)\partial f(x)∂f(x) 就是在 xxx 处所有这些次梯度的集合。如果函数恰好在 xxx 处可微,这个集合只包含一个元素:我们熟悉的梯度 ∇f(x)\nabla f(x)∇f(x)。但在一个尖点处,它包含了一整族斜率。

这个概念立即在机器学习中证明了其价值。流行的​​修正线性单元(ReLU)​​激活函数,定义为 f(x)=max⁡(0,x)f(x) = \max(0, x)f(x)=max(0,x),在 x=0x=0x=0 处有一个与绝对值函数一样的尖点。使用相同的逻辑,我们可以看到它在原点的次微分是区间 [0,1][0, 1][0,1]。这不仅仅是一个理论上的细节。在训练神经网络的反向传播算法中,我们需要一个“梯度”来向后传递通过网络。在这个尖点处,我们可以自由选择次微分中的任何值——即 [0,1][0, 1][0,1] 中的任何值——来继续我们的计算。虽然大多数软件库会做出一个默认选择(通常是 000 或 111),但理论告诉我们,这个范围内的任何选择都是有效的。这种自由可能非常强大;可以想象,如果持续选择一个为 000 的次梯度,算法可能会“卡住”,因为它没有收到更新其参数的信号。

集合的微积分

用一个斜率的集合代替单个斜率可能看起来很复杂,但一个优美且一致的微积分体系由此产生。我们可以定义这些次微分集合如何组合的规则,这与普通微积分的规则相呼应。

  • ​​求和法则:​​ 如果我们有一个函数 f(x)f(x)f(x) 是两个凸函数之和,即 f(x)=f1(x)+f2(x)f(x) = f_1(x) + f_2(x)f(x)=f1​(x)+f2​(x),那么和的次微分就是次微分的(闵可夫斯基)和:∂f(x)=∂f1(x)+∂f2(x)\partial f(x) = \partial f_1(x) + \partial f_2(x)∂f(x)=∂f1​(x)+∂f2​(x)。这意味着你可以通过从 ∂f1(x)\partial f_1(x)∂f1​(x) 中选取任意一个次梯度,从 ∂f2(x)\partial f_2(x)∂f2​(x) 中选取任意一个次梯度,然后将它们相加,来构成 fff 的一个次梯度。这个优雅的规则让我们能够从更简单的部分构建复杂的非光滑函数,比如合页损失函数 f(x)=∑imax⁡(0,gi(x))f(x) = \sum_{i} \max(0, g_i(x))f(x)=∑i​max(0,gi​(x)),并逐个计算它们的次微分。

  • ​​链式法则:​​ 对于函数的复合,比如 f(x)=h(Bx)f(x) = h(Bx)f(x)=h(Bx),其中 hhh 是一个凸函数(但可能非光滑),BBB 是一个线性映射(一个矩阵),情况又如何呢?次微分的链式法则给了我们一个同样优雅的答案:

    ∂f(x)=B⊤∂h(Bx)\partial f(x) = B^\top \partial h(Bx)∂f(x)=B⊤∂h(Bx)

    这个公式非同凡响。它告诉我们,为了找到复合函数 fff 在 xxx 处的次微分,我们首先找到外部函数 hhh 在点 BxBxBx 处的次微分。这给了我们一个向量集合。然后,我们将线性变换 B⊤B^\topB⊤(BBB 的转置)应用于整个集合。字典矩阵 BBB 不仅在前向传播中作用于输入 xxx,其转置 B⊤B^\topB⊤ 还在后向传播中主动塑造次微分的几何形状。矩阵 BBB 的行成为次微分这个多胞体的几何生成元。

有了这些规则,我们就为一大类重要的非光滑函数建立了一个完整的“微积分”体系。我们可以对它们进行加法和与线性映射的复合,并且在每一步中,我们都有一个清晰的程序来计算广义斜率的集合。

回报:优化与稀疏性之谜

我们费了这么多功夫是为了什么?这套机制最重要的应用在于​​优化​​。对于一个平滑的凸函数,最小值出现在梯度为零的点 x⋆x^\starx⋆:∇f(x⋆)=0\nabla f(x^\star) = 0∇f(x⋆)=0。这是山谷底部地面平坦的点。对非光滑凸函数的推广则简单得惊人:

一个点 x⋆x^\starx⋆ 是凸函数 fff 的全局最小值,当且仅当​​零是其次微分的一个元素​​:

0∈∂f(x⋆)0 \in \partial f(x^\star)0∈∂f(x⋆)

这个条件意味着,在集合 ∂f(x⋆)\partial f(x^\star)∂f(x⋆) 中所有可能的斜率中,斜率 000 是其中之一。从几何上看,这意味着我们可以画一条水平线(或超平面)来支撑函数于其最小值点。这个单一而强大的条件,是次梯度定义的直接结果,也是解开现代数据科学中一些最重要思想的关键。

考虑寻找一个方程组的​​稀疏​​解的问题——一个大部分分量都恰好为零的解。这是压缩感知、医学成像以及创建更简单、更易解释的机器学习模型背后的核心思想。我们如何鼓励解是稀疏的呢?答案在于向我们的优化问题中添加一个非光滑惩罚项。其中最著名的是​​l1l_1l1​-范数​​,h(x)=∥x∥1=∑i∣xi∣h(x) = \|x\|_1 = \sum_i |x_i|h(x)=∥x∥1​=∑i​∣xi​∣。

假设我们想解决一个形如 min⁡x(g(x)+λh(x))\min_x ( g(x) + \lambda h(x) )minx​(g(x)+λh(x)) 的问题,其中 g(x)g(x)g(x) 是一个平滑的“数据保真”项(如平方误差 12∥Ax−b∥22\frac{1}{2}\|Ax-b\|_2^221​∥Ax−b∥22​),h(x)h(x)h(x) 是我们的 l1l_1l1​-范数惩罚项,由参数 λ>0\lambda > 0λ>0 加权。在最优解 x⋆x^\starx⋆ 处,最优性条件告诉我们 0∈∇g(x⋆)+λ∂∥x⋆∥10 \in \nabla g(x^\star) + \lambda \partial \|x^\star\|_10∈∇g(x⋆)+λ∂∥x⋆∥1​。这可以重写为:

−1λ∇g(x⋆)∈∂∥x⋆∥1-\frac{1}{\lambda} \nabla g(x^\star) \in \partial \|x^\star\|_1−λ1​∇g(x⋆)∈∂∥x⋆∥1​

让我们逐个分量地看这个条件。对于第 iii 个分量 xi⋆x_i^\starxi⋆​,条件表明 −1λ(∇g(x⋆))i-\frac{1}{\lambda}(\nabla g(x^\star))_i−λ1​(∇g(x⋆))i​ 必须在 ∣xi⋆∣|x_i^\star|∣xi⋆​∣ 的次微分中。我们知道这个次微分是什么:

  • 如果 xi⋆>0x_i^\star > 0xi⋆​>0,次微分是 {1}\{1\}{1}。这迫使 (∇g(x⋆))i=−λ(\nabla g(x^\star))_i = -\lambda(∇g(x⋆))i​=−λ。
  • 如果 xi⋆0x_i^\star 0xi⋆​0,次微分是 {−1}\{-1\}{−1}。这迫使 (∇g(x⋆))i=λ(\nabla g(x^\star))_i = \lambda(∇g(x⋆))i​=λ。
  • 如果 xi⋆=0x_i^\star = 0xi⋆​=0,次微分是 [−1,1][-1, 1][−1,1]。这只要求 ∣(∇g(x⋆))i∣≤λ|(\nabla g(x^\star))_i| \leq \lambda∣(∇g(x⋆))i​∣≤λ。

这就是魔力所在!要使一个分量 xi⋆x_i^\starxi⋆​ 非零,平滑部分的梯度必须在一个特定的值(+λ+\lambda+λ 或 −λ-\lambda−λ)上达到完美平衡。但要使一个分量恰好为零,梯度被允许落在整个区间内的任何位置。对应于 xi⋆x_i^\starxi⋆​ 值为零的梯度有一个大得多的“着陆区”。l1l_1l1​ 惩罚项在零附近创建了一种“死区”,如果来自平滑项的“力”不够强,无法将解推出这个区域,那么该分量就会精确地收敛到零。这就是 l1l_1l1​-范数诱导稀疏性能力的数学机制。

这个优美的思想可以扩展到诱导​​结构化稀疏性​​。我们可以惩罚整组变量的范数,而不是单个分量,如​​组套索 (group Lasso)​​ 惩罚项 ∑gλg∥xg∥2\sum_g \lambda_g \|x_g\|_2∑g​λg​∥xg​∥2​。这鼓励整块变量同时变为零。或者,我们可以惩罚相邻变量之间的差异,如​​全变分 (Total Variation, TV)​​ 范数 ∑i∣xi+1−xi∣\sum_i |x_{i+1}-x_i|∑i​∣xi+1​−xi​∣,这鼓励解是分段常数——这一特性在图像去噪中极为有用。在每一种情况下,原理都是相同的:非光滑惩罚函数的几何形状,通过其次微分来表达,决定了最优解的结构。

统一的视角:一幅几何杰作

次梯度微积分为我们优雅地描述各种问题的最优性提供了可能。我们可以将此更进一步,形成一个宏大、统一的几何图景。考虑在一个凸集 KKK 上最小化一个凸函数 f(x)f(x)f(x)。这是一个约束优化问题的原型。

这个问题等价于在整个 Rn\mathbb{R}^nRn 空间上最小化函数 f(x)+δK(x)f(x) + \delta_K(x)f(x)+δK​(x),其中 δK(x)\delta_K(x)δK​(x) 是集合 KKK 的​​指示函数​​——它在 KKK 内部为 000,在外部为 +∞+\infty+∞。最优性条件就是 0∈∂(f+δK)(x⋆)0 \in \partial (f + \delta_K)(x^\star)0∈∂(f+δK​)(x⋆)。

在温和的假设下,这可以分解为 0∈∂f(x⋆)+∂δK(x⋆)0 \in \partial f(x^\star) + \partial \delta_K(x^\star)0∈∂f(x⋆)+∂δK​(x⋆)。指示函数的次微分是什么?它是凸分析中的一个基本对象,称为​​法锥​​ (normal cone),NK(x⋆)N_K(x^\star)NK​(x⋆)。你可以将法锥想象成所有向量的集合,当这些向量置于 x⋆x^\starx⋆ 时,它们指向集合 KKK 的“外部”。

因此,最终的最优性条件可以写成:

0∈∂f(x⋆)+NK(x⋆)0 \in \partial f(x^\star) + N_K(x^\star)0∈∂f(x⋆)+NK​(x⋆)

这个单一、优美的包含关系是凸优化的一个主方程。它表明,在一个最优点 x⋆x^\starx⋆ 处,各种力必须处于平衡状态。必须存在一个来自函数的“下坡”方向 −s-s−s(其中 s∈∂f(x⋆)s \in \partial f(x^\star)s∈∂f(x⋆)),它被一个来自约束集的“向外指”的方向 v∈NK(x⋆)v \in N_K(x^\star)v∈NK​(x⋆) 完美抵消。下降方向正指向可行集的一堵“墙”,无法再进一步。这个几何陈述内在地包含了我们熟悉的平滑无约束问题的条件、我们已经探索过的非光滑情况,甚至是用于一般约束优化的著名的 Karush-Kuhn-Tucker(KKT)条件。

从一个关于拐角处斜率的简单问题出发,我们建立了一个强大的微积分体系,用它来理解稀疏性的深刻原理,并最终得出了一个统一了广阔优化理论图景的单一几何陈述。这证明了一个事实:通过直面明显的悖论和“被打破”的规则,数学揭示了更深、更美、更统一的结构。

应用与跨学科联系

在掌握了次梯度微积分的原理之后,我们可能会觉得仿佛一直在探索一个相当抽象的数学领域,一个充满函数和不便的尖锐拐角的世界。但这次探索的目的何在?这仅仅是一次理论练习吗?答案既优美又深刻,是一个响亮的“不”。事实证明,正是这些“不便之处”——这些尖点和拐角——并非缺陷,而是特性。它们是阈值、开关、约束和鲁棒性的数学体现。通过为它们发展出一套微积分,我们开启了数量惊人且种类繁多的工具,用以描述和塑造我们周围的世界。

这段应用之旅就像看到一把单一而优雅的钥匙打开了十几扇不同的门,每一扇门都通向科学殿堂中一个不同的房间。从机器学习中对数据进行雕琢,到物理学中模拟不可逆的时间之箭,次梯度是揭示不同领域之间深层且出乎意料联系的统一概念。

稀疏性的艺术:在机器学习中雕琢数据

或许,次梯度微积分最著名的应用在于现代数据科学和机器学习领域。我们生活在一个“大数据”时代,我们拥有的潜在解释因素(特征)往往比我们的观测数据还多。我们如何才能建立一个既准确又简单的模型,一个能从噪声的海洋中识别出少数几个真正重要的驱动因素的模型?

这就是诸如最小绝对收缩和选择算子(LASSO)等方法所要解决的挑战。LASSO 的目标是拟合一个线性模型到数据,但有一个关键的转折。我们不仅因为模型在拟合数据时的误差而惩罚它,还因为模型本身的纯粹复杂性而惩罚它。其中的奥秘在于我们如何衡量复杂性:不是用一个平滑函数,而是用非平滑的 ℓ1\ell_1ℓ1​ 范数,它就是模型系数绝对值的总和。

目标函数变成了一场平滑项(平方误差)和非平滑项(ℓ1\ell_1ℓ1​ 惩罚)之间的拉锯战。为了找到平衡点——即最优模型——我们需要找到“梯度”为零的地方。但 ℓ1\ell_1ℓ1​ 范数并非处处都有明确定义的梯度!这时,次梯度就登场了。源自次梯度微积分的最优性条件指出,平滑部分的梯度必须被惩罚项次微分中的一个成员所抵消。

这个条件告诉我们什么?它揭示了一个非常直观的“阈值法则”。对于任何给定的特征,计算其与模型未解释误差的相关性。如果这个相关性的量级低于某个阈值(由正则化参数 λ\lambdaλ 设定),那么次梯度条件只有在该特征的系数恰好为零时才能满足。该特征被视为不相关而被丢弃。如果相关性的量级足够强以达到该阈值,该特征就被包含在模型中。在最简单的情况下,这种机制充当一个“软阈值算子”:它从每个特征中减去一个固定量的“重要性”,如果重要性降至零或以下,该特征就消失了。次梯度,凭借其在原点处的区间值特性,为这种强大的特征选择机制提供了数学上的正当性。

这种诱导稀疏性的思想远不止于简单的回归分析。在生物学或金融学等领域,我们可能希望了解成千上万个基因或股票之间关系的网络。图套索(Graphical Lasso)使用了完全相同的原理,但现在应用于一个代表网络连接的矩阵。次梯度最优性条件提供了一个阈值,用于滤除虚假的连接,从而揭示所研究系统的稀疏、潜在结构。

穿透噪声:信号处理与稳健统计学

世界并非一个干净、平滑的地方。我们的测量被噪声污染,我们的数据被离群值困扰。次梯度微积分提供了构建对这些不完美之处具有鲁棒性的模型的工具。

考虑对数字图像进行去噪的任务。一个简单的方法可能是对相邻像素值进行平均,但这会模糊所有东西,破坏定义图像内容的锐利边缘。一个远为优越的方法是全变分(TV)去噪,它最小化一个由数据拟合项和对“全变分”——相邻像素之间绝对差之和——的惩罚组成的目标函数。这个惩罚项再次是非平滑的。使用次梯度微积分的分析揭示,最优解倾向于是分段常数。这非同寻常!这意味着该方法在平坦区域平滑噪声,同时保留边缘处的急剧跳变——这正是我们想要的。绝对值函数中的“拐角”正是保护图像中拐角的关键。

这种鲁棒性原则延伸到了统计建模。标准的最小二乘回归对离群值极其敏感;一个糟糕的数据点就可能使整个模型偏离轨道。我们可以通过使用不同的损失函数来防御这种情况。与其惩罚平方误差(r2r^2r2),我们可以惩罚绝对误差(∣r∣|r|∣r∣),后者对大的偏差不那么敏感。但如果我们能兼得两者的优点呢?Huber 损失函数正是这样做的。对于小的残差,它的行为像平滑的二次损失。但对于大的残差,超过某个阈值 δ\deltaδ 后,它转为像绝对值损失那样。那个转变点,当然,是一个不可微的尖点。Huber 损失的次梯度优雅地展示了这种双重性质:在阈值内,它与残差呈线性关系;在阈值外,它饱和到一个常数值,有效地“削减”了离群值的影响。

我们可以将这个想法更进一步。如果我们想要估计的不是一个分布的均值,而是它的中位数,或它的第90百分位数呢?这就是分位数回归的目标,它依赖于一个名字很有趣的“弹球损失”(pinball loss)。这个损失函数在原点有一个单一的尖点,但与对称的绝对值函数不同,它的两个线性臂有不同的斜率,由一个参数 τ\tauτ 控制。原点处的次微分不再是一个对称的区间如 [−1,1][-1, 1][−1,1],而是一个不对称的区间 [τ−1,τ][\tau-1, \tau][τ−1,τ]。正是这种源于非平滑函数几何形状的不对称性,使得优化能够“瞄准”数据分布的特定分位数。

约束的语言与现代人工智能

次梯度微积分的效用在用于模拟物理和逻辑约束时,展现出其最深刻和令人惊讶的表达。

想象一下模拟材料断裂的过程。一个基本的物理法则是不可逆性:裂缝可以增长,但不能愈合。我们如何将这个时间之箭嵌入到一个数学优化框架中?我们可以将给定时间步长的可接受状态定义为仅那些损伤场 ddd 大于或等于前一步损伤的状态。这个约束可以用一个“指示泛函”编码到目标函数中,如果约束满足则该泛函为零,否则为无穷大。这创建了一个具有无限尖锐、垂直墙壁的函数。这个指示泛函的次微分,被称为法锥,产生了一套最优性条件(即 KKT 条件)。这些抽象的条件优美地解析为一个简单的、具体的更新规则:新的损伤仅仅是旧损伤和一个新计算的“潜在”损伤之间的最大值。复杂的不可逆性物理定律通过次梯度微积分被优雅地转化为一个简单的投影算子。

将约束转化为非平滑惩罚函数的思想本身就是优化理论的基石。精确罚函数法表明,在某些条件下,一个约束优化问题可以通过添加一个形如 ρ∥g(x)∥\rho \|g(x)\|ρ∥g(x)∥ 的惩罚项来完美地转化为一个无约束问题,其中 g(x)=0g(x)=0g(x)=0 是约束条件。次梯度分析揭示了原始约束问题的拉格朗日乘子 λ⋆\lambda^{\star}λ⋆ 与所需惩罚权重 ρ\rhoρ 之间的深刻联系。为了使等价性成立,ρ\rhoρ 必须大于或等于拉格朗日乘子的对偶范数 ∥λ⋆∥∗\|\lambda^{\star}\|_{\ast}∥λ⋆∥∗​。它提供了一个精确的度量,衡量惩罚必须有多“强”,才能忠实地代表原始约束的力量。

最后,我们来到了现代人工智能的核心。深度神经网络的训练是一个巨大的优化问题,由反向传播算法引导。许多最成功的网络组件,如修正线性单元(ReLU)激活函数,定义为 max⁡(0,x)\max(0, x)max(0,x),都是非平滑的。用于最先进模型的许多复杂损失函数也是如此,例如用于教授图像识别嵌入的对比边距损失。每当 ReLU 单元的输入恰好为零,或者损失函数中的边距被精确满足时,我们就遇到了一个不可微点。次梯度微积分为在这些尖点处分配一个有效的“梯度”(例如,通过在次微分区间中选择任何一个值)提供了理论基础,从而让优化得以继续,网络得以学习。没有这个“拐角的微积分”,深度学习的引擎将会停滞不前。

从在点云中寻找一条简单直线的宁静优雅,到断裂固体的剧烈物理过程,再到训练 GPU 内部的计算旋风,次梯度微积分是贯穿始终的共同主线。它教给我们一个宝贵的教训:有时候,最有趣、最有用、最美的行为,并非出现在平滑的山谷中,而恰恰就在那尖锐的拐角处。