try ai
科普
编辑
分享
反馈
  • 变分正则化

变分正则化

SciencePedia玻尔百科
核心要点
  • 变分正则化通过寻找一个稳定的解来解决不适定问题,该解在对含噪数据的保真度与关于解性质的先验知识之间取得平衡。
  • 该框架在数学上等同于在贝叶斯背景下寻找最大后验(MAP)估计,其中正则化器充当先验信念。
  • 正则化器的选择,如用于平滑的吉洪诺夫(Tikhonov)(L2L^2L2)或用于锐利边缘的全变分(Total Variation)(L1L^1L1),编码了关于解结构的特定假设。
  • 该原理具有广泛的跨学科应用,为医学成像、天气预报、工程设计和人工智能模型训练提供了重要工具。

引言

在许多科学和工程学科中,从根据模糊照片重建图像到预测天气,我们都面临一个共同的挑战:求解逆问题。通常,这些问题是“不适定的”,意味着直接求解不稳定、不唯一或根本不存在,当处理真实世界数据时会导致充满噪声且无意义的结果。那么,我们如何从不完美的测量中提取稳定而有意义的真相呢?本文介绍的变分正则化,就是一个为克服这一根本困难而设计的强大且有原则的框架。通过将问题转化为在拟合数据与遵循“合理”解应有样貌的先验知识之间进行折衷,该方法提供了一条稳健的前进道路。接下来的章节将首先深入探讨​​原理与机制​​,解释其数学基础、与贝叶斯统计的联系以及不同类型的正则化器。然后,我们将探索其广阔的​​应用与跨学科联系​​,揭示这个优雅的数学思想如何在从医学成像到现代人工智能等领域提供解决方案。

原理与机制

病态:不适定问题

想象一下,你是一名侦探,正试图从一张非常模糊的监控摄像头照片中重建嫌疑人的面部。这张照片是你的数据,而真实的脸是你希望找到的未知量。问题在于,许多不同的脸,只要以恰当的方式模糊化,都可能产生几乎完全相同的照片。这里的尖下巴,那里的高颧骨——这些细节都消失在模糊之中。没有单一、唯一的答案。更糟糕的是,如果你找到一个试图“去模糊”图像的计算机程序,它可能会生成一张布满噪声和伪影的怪异面孔。相机镜头上的一个微小尘埃(数据中的噪声)可能在重建出的脸上被“去模糊”成一个巨大的、无意义的斑点。

这就是数学家所说的​​不适定问题​​的本质。用我们的数学语言来说,我们试图求解一个形如 Ax=yAx = yAx=y 的方程,其中 xxx 是真实物体(脸),yyy 是我们的测量值(模糊的照片),而 AAA 是描述模糊这一物理过程的“正演算子”。如果一个问题的解不存在、不唯一,或者灾难性地不稳定,那么它就是不适定的。对于科学界的大多数逆问题,从医学成像到地球物理学,我们对抗的恶魔就是不稳定性。

要理解其原因,我们可以把算子 AAA 想象成一台有一系列杠杆的机器。对于物体 xxx 中的每一种基本模式或方向,都有一个相应的杠杆将其拉伸或压缩,从而产生测量值 yyy。每种模式的拉伸或压缩量被称为​​奇异值​​,用 σi\sigma_iσi​ 表示。“模糊”过程 AAA 通常会极大地压缩精细细节,这对应于非常小的奇异值。

当我们试图通过 yyy 来反演问题以求得 xxx 时,我们必须逆转这个过程。这意味着我们必须除以这些奇异值。如果一个奇异值 σi\sigma_iσi​ 非常小,比如 10−610^{-6}10−6,那么它的倒数就极其巨大:10610^6106。我们测量值中对应于该模式的任何微小噪声都将被乘以一百万,从而完全淹没真实的信号。这就是数学上的不稳定性,也是那些怪异、充满噪声的重建结果的根本原因。从数据回到解的逆向映射,用形式化的术语来说,是无界的。

折衷疗法:变分原理

如果试图寻找一个完美拟合我们含噪数据的解会导致灾难,那么我们必须改变提问的方式。这正是​​变分正则化​​背后的绝妙洞见。我们承认无法找到一个完美的解。取而代之,我们将寻求一个“足够好地”拟合数据的“合理”解。

我们通过定义一个代价函数来实现这一点,这是一个我们希望使其尽可能小的量。这个函数是在两个相互竞争的愿望之间精心设计的折衷:

J(x)=12∥Ax−y∥2⏟数据保真+λR(x)⏟正则化惩罚J(x) = \underbrace{\frac{1}{2}\|Ax - y\|^2}_{\text{数据保真}} + \underbrace{\lambda R(x)}_{\text{正则化惩罚}}J(x)=数据保真21​∥Ax−y∥2​​+正则化惩罚λR(x)​​

让我们来分解一下这个公式。

第一项,∥Ax−y∥2\|Ax - y\|^2∥Ax−y∥2,是​​数据保真项​​。它衡量了我们提出的解 xxx 所投射的“影子” AxAxAx 与我们实际测得的数据 yyy 之间的平方距离。使这一项变小意味着我们的解与观测结果是一致的。如果我们只有这一项,我们就会回到最初的不适定问题。

第二项,λR(x)\lambda R(x)λR(x),是神奇的成分。R(x)R(x)R(x) 是​​正则化器​​,或称​​惩罚项​​。它是一个为每个可能的解 xxx 赋予一个成本的函数。我们设计 R(x)R(x)R(x) 的方式是,对于我们认为“简单”或“合理”的解,其值较低;而对于我们认为“不合理”的解,如那些充满噪声的怪异结果,其值较高。正则化参数 λ\lambdaλ 是一个控制平衡的旋钮。如果 λ\lambdaλ 为零,我们只关心拟合数据。如果 λ\lambdaλ 非常大,我们则忽略数据,只选择能想象到的“最简单”的解。

变分正则化的目标是找到使这个组合代价 J(x)J(x)J(x) 最小化的 xxx。这种对最小化器的搜索稳定了问题,在一般条件下保证了一个唯一且稳定的解的存在。

更深层的真理:贝叶斯联系

这种平衡数据拟合与简单性的想法可能看起来像一个聪明的数学技巧,但它植根于一个来自概率世界的更深刻、更根本的原理:贝叶斯定理。

从统计学的角度想象这个问题。给定我们的测量值 yyy,可能产生它的最可能的真实物体 xxx 是什么?贝叶斯定理告诉我们,给定 yyy 的情况下 xxx 的概率,记作 π(x∣y)\pi(x|y)π(x∣y),与另外两个概率的乘积成正比:

π(x∣y)∝π(y∣x)π(x)\pi(x|y) \propto \pi(y|x) \pi(x)π(x∣y)∝π(y∣x)π(x)

π(y∣x)\pi(y|x)π(y∣x) 这一项是​​似然​​。它回答了这样一个问题:如果真实物体是 xxx,观测到数据 yyy 的概率是多少?如果我们假设测量中的噪声是随机的,并且服从高斯(钟形曲线)分布,那么似然的负对数 −ln⁡(π(y∣x))-\ln(\pi(y|x))−ln(π(y∣x)),恰好就是我们的数据保真项 12∥Ax−y∥2\frac{1}{2}\|Ax - y\|^221​∥Ax−y∥2(除去一些常数)。

π(x)\pi(x)π(x) 这一项是​​先验​​。它代表了我们在看到任何数据之前,对于一个合理的物体 xxx 应该是什么样子的信念。它是我们关于世界的累积智慧。一个狂野、尖锐、无意义的物体将具有非常低的先验概率。与之前一样,先验的负对数 −ln⁡(π(x))-\ln(\pi(x))−ln(π(x)),就成了我们的正则化项 R(x)R(x)R(x)。

这是一个美妙的统一。寻找最小化我们变分代价函数的解,在数学上等同于寻找​​最大后验(MAP)​​估计——在证据面前最可能的解。变分正则化并非一种临时的修补;它是一个有原则的框架,用于结合实验证据与先验知识,以做出最佳的推断。

正则化工具箱:选择你对“简单”的定义

变分正则化的强大和巧妙之处在于正则化器 R(x)R(x)R(x) 的选择。这个选择将我们对解的物理直觉嵌入到数学中。

经典之选:Tikhonov 正则化(L2L^2L2 范数)

最古老、最直接的“简单性”概念是平滑性。一幅有着平缓起伏山丘的图像,比一幅有着锯齿状、混乱尖峰的图像更简单。我们可以通过惩罚解的梯度 ∇x\nabla x∇x 的大小来强制实现这一点。经典的选择是惩罚梯度的 L2L^2L2 范数的平方:R(x)=12∥∇x∥22=12∫∣∇x∣2dxR(x) = \frac{1}{2}\|\nabla x\|_2^2 = \frac{1}{2}\int |\nabla x|^2 dxR(x)=21​∥∇x∥22​=21​∫∣∇x∣2dx。

这个选择有一个非常清晰的解释。在贝叶斯的视角下,它对应于对梯度假设一个高斯先验——我们相信小梯度比大梯度更有可能出现。当我们解决这个最小化问题时,描述解的最终方程涉及拉普拉斯算子 Δx\Delta xΔx。这与控制热扩散的算子是同一个。实际上,Tikhonov 正则化“扩散”或平滑了我们的解,抹平了那些尖锐、充满噪声的振荡。

我们也可以用我们的奇异值类比来精确地看到这是如何工作的。Tikhonov 正则化充当了一个​​谱滤波器​​。正则化后的解可以表示为一系列​​滤波因子​​与数据各分量的乘积。对于一个奇异值 σi\sigma_iσi​,相应的数据分量被乘以一个类似 σi2σi2+λ\frac{\sigma_i^2}{\sigma_i^2 + \lambda}σi2​+λσi2​​ 的因子。如果 σi\sigma_iσi​ 很大(一个强的信号分量),这个因子接近于 1。如果 σi\sigma_iσi​ 很小(一个弱的、易受噪声影响的分量),这个因子会变得非常小,从而有效地抑制它。参数 λ\lambdaλ 设定了截止点。这就是著名的​​偏差-方差权衡​​:一个小的 λ\lambdaλ 具有低偏差(它忠于数据)但高方差(它充满噪声),而一个大的 λ\lambdaλ 具有低方差但高偏差(它被过度平滑)。

现代主力:全变分(L1L^1L1 范数)

但如果我们的图像不是平滑的呢?如果它是一张建筑物映衬在天空下的照片,或是一个具有清晰地层边界的地质剖面图呢?Tikhonov 的平滑作用会模糊这些重要的边缘。我们需要一个不同的简单性概念。

一幅“卡通”图像之所以简单,不是因为它处处平滑,而是因为它由分片常数区域组成。这意味着它的梯度几乎处处为零,只在边缘处有急剧的尖峰。梯度是​​稀疏的​​。促进稀疏性的数学工具是 L1L^1L1 范数。这引出了​​全变分(TV)正则化​​,我们选择 R(x)=∥∇x∥1=∫∣∇x∣dxR(x) = \|\nabla x\|_1 = \int |\nabla x| dxR(x)=∥∇x∥1​=∫∣∇x∣dx。

在贝叶斯框架中,L1L^1L1 惩罚对应于一个拉普拉斯先验,它在零点处有一个比高斯先验更尖锐的峰值和更重的尾部。它对许多梯度值应恰好为零有更强的“信念”。结果是惊人的:TV 正则化在平坦区域内平滑噪声,但保留了区域之间清晰、锐利的边缘。这是因为它对单个大的梯度跳跃(一个边缘)的惩罚,比 Tikhonov 用来表示一个模糊过渡的成千上万个小梯度所受的惩罚要轻。这一特性彻底改变了数字图像处理。

两全其美:混合方法

当然,没有单一的工具是完美的。Tikhonov 会模糊边缘。TV 有时会产生一种人为的、块状的外观,称为“阶梯效应”,将平滑的斜坡变成一系列平坦的台阶。这催生了更复杂的正则化器的发展。

​​Huber 正则化器​​是一种优雅的混合体。对于小梯度,它的行为像二次函数(类 L2L^2L2);对于大梯度,它的行为像线性函数(类 L1L^1L1)。一个阈值参数 κ\kappaκ 允许用户定义什么是“小”(需要平滑的噪声)和什么是“大”(需要保留的边缘)。它的目标是兼得两者的优点:在平滑区域进行强力噪声抑制,并保持锐利的边缘。

更先进的方法,如​​全广义变分(TGV)​​也已被开发出来。TGV 引入一个辅助场来惩罚曲率,这使得它能够重建分片线性函数,而不仅仅是分片常数函数。这有效地消除了阶梯效应,展示了该领域在寻求完美正则化器的道路上如何持续演进。

统一视角与实践选择

这个变分框架与其他方法有着深刻的联系。例如,像 Landweber 迭代这样的简单迭代方法(一种梯度下降形式)也可以解决逆问题。事实证明,提早停止迭代具有正则化效果。每次迭代都像一个滤波器,慢慢地让越来越多高频的、含噪声的分量进入。在第 kkk 次迭代时停止,类似于选择一个正则化参数 λ∼1/k\lambda \sim 1/kλ∼1/k。这揭示了变分正则化方案和迭代正则化方案之间美妙的统一性——它们是同一枚硬币的两面。

但这引出了最终的实践问题:我们如何选择那个神奇的参数 λ\lambdaλ 或停止迭代的次数 kkk?如果它太小,我们的解就会充满噪声;如果它太大,解就会被过度平滑和带有偏差。

一种流行的方法是​​L曲线​​,它在一个对数-对数尺度上绘制了解的“简单性”(xxx 的范数或 R(x)R(x)R(x))与它的数据保真度(∥Ax−y∥\|Ax-y\|∥Ax−y∥ 的范数)。这条曲线通常具有一个特征性的“L”形。 “L”的拐角代表了一个点,在该点之后,数据拟合度的小幅改善开始需要以解的简单性的大幅牺牲为代价。这个“最大曲率点”通常是正则化参数的一个良好、实用的选择。

更深入的理论分析提供了更为严谨的指导。对于数据中给定水平的噪声 δ\deltaδ,可以推导出一个​​先验准则​​来规定参数的最优选择,例如 α∼δ\alpha \sim \deltaα∼δ。这些证明依赖于使用一种特殊的​​Bregman 距离​​来衡量重建误差,这种距离是根据所选正则化器 Ψ\PsiΨ 的几何结构自然定制的,而不是使用标准距离。通过平衡由数据噪声和正则化偏差引起的误差项,这些准则保证了随着噪声的消失,我们的正则化解能以最优速率收敛到真实解。这提供了最后一块令人安心的拼图:正则化不仅是一门实践艺术,更是一门数学上严谨的科学。

应用与跨学科联系

在我们完成了变分正则化原理与机制的探索之旅后,你可能会感到一种数学上的满足感,但或许也会有一个疑问:“这一切都非常优雅,但它在现实世界中究竟应用在哪里?”美妙的答案是:几乎无处不在。平衡我们所见与我们所信的原则是如此基本,以至于它以各种形式,有时甚至是伪装的形式,出现在众多令人惊叹的科学和工程学科中。它不仅仅是数学家的工具;它是在面对不确定性和复杂性时进行推理的统一语言。

从抖动的线条到平滑的真理

让我们从最简单、最直观的应用开始。想象一下,你正在追踪一颗卫星,而你测量的其位置数据充满了噪声和抖动。或者,你是一位经济学家,正在研究一个波动的股票价格,试图从日常的噪声中辨别出潜在的趋势。你的任务是画出一条平滑的曲线来代表“真实”的路径或趋势,这条曲线既要尊重数据,又不能盲目地跟随每一个随机波动。你会怎么做呢?

你面临两个相互竞争的愿望。一方面,你的曲线应该靠近测量的数据点。另一方面,你相信真实的路径是平滑的,不应该剧烈地曲折。变分正则化为我们提供了一种精确表达这种权衡的方式。我们可以创造一个要最小化的量,一个“代价函数”,它能同时捕捉这两种愿望:

J(u)=∑i(u(xi)−di)2⏟对数据的保真+λ∫(u′′(x))2 dx⏟对粗糙度的惩罚J(u) = \underbrace{\sum_{i} (u(x_i) - d_i)^2}_{\text{对数据的保真}} + \lambda \underbrace{\int \left(u''(x)\right)^2 \, dx}_{\text{对粗糙度的惩罚}}J(u)=对数据的保真i∑​(u(xi​)−di​)2​​+λ对粗糙度的惩罚∫(u′′(x))2dx​​

第一项,即“保真项”,就像在你的曲线 u(x)u(x)u(x) 和数据点 did_idi​ 之间连接了一组弹簧。它将曲线拉向测量值。第二项,即“正则化项”,衡量了曲线的总“弯曲度”。二阶导数 u′′u''u′′ 在曲线急剧弯曲的地方很大,所以对其平方进行积分会惩罚粗糙度。这一项就像用一根有弹性、抗弯曲的木条来构建你的曲线。

神奇之处在于参数 λ\lambdaλ。它就像控制木条刚度的旋钮。如果 λ\lambdaλ 几乎为零,木条就无限柔韧,曲线将穿过每一个数据点,包括所有的噪声。如果 λ\lambdaλ 巨大,木条就像一根钢棒,你最多只能画出一条平均了所有数据的直线。正则化的艺术和科学就在于选择一个合适的 λ\lambdaλ,以找出隐藏在含噪数据中的那条美丽、平滑的真理。同样的原理也被用来揭示波动的金融时间序列中的潜在趋势,并处理各种可以想象到的信号。

穿透迷雾的艺术

平滑噪声是一回事,但如果信号本身就被扭曲了呢?想象一下,你正在听一段通过老式、有噼啪声的电话线录制的语音。声音不仅有噪声,还很模糊和失真。电话线起到了一个“模糊”滤波器的作用。你的目标是同时消除这种模糊和噪声——这个过程被称为反卷积。这是一个经典的“逆问题”:我们知道输出(模糊的录音)和过程(电话线的滤波器特性),而我们想找到输入(原始、清晰的声音)。

你可能会想,“这应该很容易!如果模糊在频域中像乘法,那么去模糊就一定像除法。”你说得对,但你同时也掉进了一个陷阱。问题在于,任何现实世界中的模糊过程在扼杀高频细节方面都远比扼杀低频细节更有效。一个涂抹或平均的算子在数学上是“紧的”,这意味着对于对应于精细细节的分量,其奇异值(放大因子)会迅速衰减至零。

当我们试图逆转这个过程时,我们必须除以这些放大因子。对于那些信号几乎被完全消除的高频部分,我们最终要除以几乎为零的数字。现在,考虑一下噪声。现实世界的测量总会有一些随机噪声,分布在所有频率上。当高频处的微小噪声被一个接近零的放大因子相除时,它会被放大到一个天文数字。这个“解”会爆炸成一堆无意义的、被放大的噪声轰鸣。

这是一个深刻而根本的困难。这个问题是“不适定的”。输入数据中的微小扰动(噪声)会导致输出解发生灾难性的、宏观的变化。朴素的逆运算在任何稳定的意义上都是不存在的。

这正是正则化不仅成为一种便利,而且成为绝对必要之处。通过添加一个惩罚项,例如惩罚振荡的 Tikhonov 正则化器,我们是在告诉算法:“我不管你拟合数据有多好;我绝不接受一个混乱、充满噪声的解。”正则化项有效地“过滤”了逆运算,抑制了那些不稳定的高频噪声放大。它使一个不可能的问题成为可能。这个原理在无数科学成像技术中至关重要,从锐化哈勃太空望远镜的图像,到在X射线散射实验中“去涂抹”数据以揭示新材料的纳米结构。

先验的智慧:从天气到基因组

那么,从哲学的角度看,这个正则化项到底是什么?它仅仅是一个防止除以零的数学技巧吗?不,它是更为深刻的东西。它是我们关于世界的先验知识的数学体现。这正是变分正则化与贝叶斯推断原理之间美妙的联系。

没有比天气预报更能体现这一点的了。每天,气象学家都要面对一个可以想象到的最大的逆问题之一:他们拥有一系列来自气象站、气球和卫星的零散测量数据,他们必须从这些稀疏的数据中重建整个大气的完整状态——各地的温度、压力、风和湿度。他们使用的变分方法,被称为三维变分(3D-Var),涉及到最小化一个看起来异常熟悉的代价函数:

J(x)=∥y−Hx∥R−12⏟对新观测的保真+∥x−xb∥B−12⏟对先前预报的保真J(x) = \underbrace{\left\| y - H x \right\|_{R^{-1}}^2}_{\text{对新观测的保真}} + \underbrace{\left\| x - x_b \right\|_{B^{-1}}^2}_{\text{对先前预报的保真}}J(x)=对新观测的保真∥y−Hx∥R−12​​​+对先前预报的保真∥x−xb​∥B−12​​​

在这里,xxx 是我们想要找到的大气状态,yyy 是新的观测数据集,xbx_bxb​ 是“背景”——即上一次模型运行的预报结果。第一项衡量了与新数据的距离,并由观测误差协方差 RRR 加权。第二项衡量了与我们先前预报的距离,并由我们对预报误差协方差 BBB 的估计加权。

这正是一个广义形式的 Tikhonov 正则化问题。“正则化器”是我们的先验信念——六小时前的预报。找到 J(x)J(x)J(x) 的最小值,完全等同于在贝叶斯框架中计算“最大后验”(MAP)估计。事实证明,正则化仅仅是一种编码我们先验信念的方式,用以调节我们对新的、含噪证据的解释。Morozov 差异原则,一种选择正则化参数的方法,在这种视角下可以被看作是确保我们的最终分析与已知的观测噪声统计数据相符。

而我们的先验信念可以变得异常复杂。如果我们正在对地球的横截面进行成像,并期望看到不同岩层之间的清晰边界,该怎么办?一个标准的、偏爱平滑的二次 Tikhonov 正则化器会模糊这些边界。相反,我们可以使用一个不同的先验:全变分(TV)正则化。通过惩罚梯度幅值的 L1L^1L1 范数 ∫∥∇θ∥ dx\int \|\nabla \theta\| \, dx∫∥∇θ∥dx,TV 正则化特别适合于恢复“块状”或分片常数的图像。它完全乐于在界面处有大的梯度,只要梯度在其他地方几乎为零。这彻底改变了医学成像和地震层析成像等领域,使我们能够看到以前被模糊掉的清晰结构。

我们还可以更进一步。如果地球物理学家对地质层的方向或“倾角”有先验知识,他们可以设计一个定制的、各向异性的正则化器。这个特殊的惩罚项只在沿着地层的方向强制平滑,同时允许穿过地层的剧烈变化。这是该原理的终极体现:利用变分框架将高度具体、基于物理的先验知识直接编码到数学公式中。

从发现真理到创造形式与智能

到目前为止,我们一直将正则化视为一种揭示被噪声和失真所掩盖的、预先存在的真理的工具。但它的影响力远不止于此,甚至延伸到了创造和设计的领域。有时,正则化是使一个解成为可能的前提。

考虑这样一个工程问题——“拓扑优化”:对于固定数量的材料,桥梁支架或飞机机翼的最坚固的形状是什么?如果你将这个问题直接交给计算机,而没有任何进一步的约束,它会陷入一个悖论。它会发现,通过创造具有无限精细的孔洞和构件的结构,可以实现看似无限的刚度。这个优化问题是不适定的;一个简单的、可制造的设计作为最小化器是不存在的。计算机会产生无意义的、依赖于网格的模式,比如棋盘格。

解决方法是正则化。通过对设计的总周长——一个与全变分密切相关的项——增加一个惩罚,我们告诉优化器,复杂性是有代价的。这个简单的约束恢复了问题的适定性,迫使解具有一个特征长度尺度,并导致发现那些优雅、高效且通常具有有机形态的、可以实际建造的结构。在这里,正则化不仅仅是改进一个答案,它是在使其存在成为可能。

这种创造力也是现代人工智能的核心。当我们训练一个深度神经网络时,最大的危险之一是“过拟合”,即模型记住了训练数据而不是学习了潜在的模式。一个强大的解药是“权重衰减”。在广泛使用的 AdamW 优化器中,这被实现为“解耦权重衰减”,它恰好是 Tikhonov 正则化的一个优美而直接的应用。在每一步从数据中学习之后,算法都会将网络的参数向零的方向轻推一小步。这种简单的收缩是 L2L^2L2 惩罚的近端更新的一阶近似,防止权重变得过大,从而保持模型的“简单性”。一个源自正则化理论的五十年前的想法,正在悄然帮助训练当今最先进的人工智能模型。

这些领域的综合如今已经形成了一个完整的循环。我们不再是为每一份新数据解决一个变分问题,而是可以训练一个神经算子——一个学习函数间映射的深度学习模型——来近似一个逆问题的整个解映射。那么我们如何训练这个网络呢,特别是当我们没有“问题”和“正确答案”配对时?我们使用变分原理本身作为训练目标。我们要求网络产生一个输出,对于任何给定的观测,该输出都能最小化 Tikhonov 泛函。网络不是通过模仿答案来学习,而是通过学习满足编码在变分问题中的基本物理和统计原理来学习。

从一个简单的平滑工具开始,我们见证了变分正则化 blossoming 成一个深刻、统一的原则,它治愈了不可能,形式化了信念,促成了创造,并训练了智能。它证明了一个简单、优美的数学思想所拥有的力量,能够连接不同的领域,并在科学前沿推动发现。