try ai
科普
编辑
分享
反馈
  • 表示定理

表示定理

SciencePedia玻尔百科
核心要点
  • 表示定理指出,许多学习问题的最优解是以训练数据点为中心的核函数的线性组合。
  • 通过将此定理与正则化相结合,我们可以防止过拟合,并构建能够有效平衡数据保真度与结构简单性的鲁棒模型。
  • 在该定理的支持下,“核技巧”使模型能够在高维特征空间中进行运算而无需显式计算,从而简化了复杂的模式识别。
  • 该定理提供了一个统一的框架,将核岭回归、支持向量机甚至高斯过程等不同学科中的多种算法联系起来。

引言

在机器学习和统计学的广阔领域中,一个核心挑战是找到一个不仅能解释观测数据,而且能以优雅和简洁的方式做到这一点的函数。面对一组有限的数据点,我们如何从无限的可能性中选择“最佳”模型?选择过于复杂的模型会导致过拟合,即模型学习到的是数据中的噪声而非其底层模式。表示定理为这一困境提供了一个深刻而有力的答案,它为现代数据科学中许多最有效的算法提供了基础性原理。它通过揭示对于一大类问题,最优解具有一个出人意料的简单且有限的结构,从而解决了理论可能性与实际计算之间的知识鸿沟。

本文将探讨这一定理的深度与广度。在第一部分“原理与机制”中,我们将揭开其核心概念的神秘面纱,探索最简单解为何必须采取特定形式背后的数学直觉、正则化在创建鲁棒模型中的作用,以及“核技巧”在解锁无限维特征空间方面的威力。随后的“应用与跨学科联系”部分将展示该定理作为实用工具的角色,说明它如何成为从生物信息学到物理学等领域算法的蓝图,并揭示其与统计学习中其他基石思想的深刻联系。

原理与机制

想象你是一位古代天文学家,试图描绘一颗行星在夜空中的轨迹。你手头有少量观测数据,即星图上的一系列点。你该如何连接它们?你可以画一条狂野、锯齿状的线穿过每一个点,但你的直觉告诉你这是错的。自然法则偏爱简洁与优雅。你很可能会画出一条最平滑、最优雅的曲线来拟合这些数据。这种科学与艺术判断的简单行为,正位于表示定理的核心。它是一条深刻的原理,告诉我们,在科学和机器学习的众多问题中,“最佳”的数据解释不仅是最简单的,而且还具有一种惊人地具体而优雅的形式。

寻找最简单的故事

让我们把天文学家的问题说得更精确一些。我们有一组数据点,并且正在寻找一个能解释它们的函数 f(x)f(x)f(x)。在所有可能穿过我们数据点的函数(这个过程称为​​插值​​)中,我们应该选择哪一个?表示定理首先为“最佳”给出了一个标准:即“最简单”或“最平滑”的函数。用数学语言来说,我们用​​范数​​来衡量这种简单性,记作 ∥f∥\|f\|∥f∥。范数越小,函数越简单。于是问题就变成了:找到一个函数 fff,在满足所有数据点 iii 的插值条件 f(xi)=yif(x_i) = y_if(xi​)=yi​ 的同时,最小化 ∥f∥\|f\|∥f∥。

该定理的第一个惊人之处在于,这个问题的解并非某种奇异的、不可知的函数。它必须采取一种非常具体的形式:一个以我们的数据点为中心的特殊“基函数”的加权和。具体来说,最优函数 f⋆(x)f^\star(x)f⋆(x) 必须能表示为:

f⋆(x)=∑i=1nαik(x,xi)f^\star(x) = \sum_{i=1}^{n} \alpha_i k(x, x_i)f⋆(x)=i=1∑n​αi​k(x,xi​)

其中 αi\alpha_iαi​ 是一些系数,而函数 k(x,x′)k(x, x')k(x,x′) 就是我们所说的​​核函数​​。这个核函数与我们对简单性的定义,即范数 ∥f∥\|f\|∥f∥,密切相关。我们工作的函数空间被称为​​再生核希尔伯特空间(RKHS)​​,这个名字听起来吓人,但它仅仅意味着这是一个行为极好的空间,其中核函数就像一把尺子,衡量点与点之间的相似性。

但为什么解必须是这种形式呢?其背后的逻辑非常直观。想象一下我们所有可能函数的宇宙。对于我们的 nnn 个数据点,核函数 k(⋅,xi)k(\cdot, x_i)k(⋅,xi​) 张成了一个小而舒适的子空间——我们称之为“数据子空间”。任何函数 fff 都可以被分解为两部分:一部分位于这个子空间内,记为 fSf_SfS​;另一部分则与它正交,记为 fS⊥f_{S^\perp}fS⊥​。RKHS 的一个关键特性是,与数据子空间正交的部分 fS⊥f_{S^\perp}fS⊥​ 对我们的数据点是完全“不可见”的;它在每一个 xix_ixi​ 处都为零。这意味着 f(xi)=fS(xi)+fS⊥(xi)=fS(xi)+0f(x_i) = f_S(x_i) + f_{S^\perp}(x_i) = f_S(x_i) + 0f(xi​)=fS​(xi​)+fS⊥​(xi​)=fS​(xi​)+0。所以,拟合数据的任务完全落在了 fSf_SfS​ 的肩上。

现在,让我们考虑一下简单性成本 ∥f∥2\|f\|^2∥f∥2。根据函数的勾股定理,∥f∥2=∥fS∥2+∥fS⊥∥2\|f\|^2 = \|f_S\|^2 + \|f_{S^\perp}\|^2∥f∥2=∥fS​∥2+∥fS⊥​∥2。为了在拟合数据(这项工作仅由 fSf_SfS​ 处理)的同时,让 ∥f∥2\|f\|^2∥f∥2 尽可能小,我们别无选择,只能丢弃那个无用的部分。我们必须将 fS⊥f_{S^\perp}fS⊥​ 设为零函数!完成任务的最简单函数必须完全存在于由我们数据点上的核函数所张成的子空间内。而这正是该定理所陈述的内容。

一个优美的现实世界例子是​​三次样条​​。如果我们将复杂性(或“摆动性”)的度量定义为积分的二阶导数平方 ∫(f′′(t))2dt\int (f''(t))^2 dt∫(f′′(t))2dt,那么在插值我们数据点的同时最小化这种摆动性的函数就是一条自然三次样条。事实证明,这整套理论都可以用表示定理的语言来表述,其解是一个特殊的三次样条核与一个简单线性多项式(函数中摆动性为零的部分)的组合。一个看似用于绘制平滑曲线的特定技巧,被揭示为一个更宏大原理的实例。

妥协的艺术:正则化与现实

完美的插值是一个脆弱的想法。现实世界的数据是凌乱的,并被噪声污染。强迫我们的函数精确地穿过每一个点,就像一位艺术家试图完美地描绘肖像上的每一个毛孔和瑕疵——你会失去主体的精髓,最终得到一幅漫画。这就是​​过拟合​​:我们的模型学习的是噪声,而不是底层的信号。

为了建立一个更鲁棒的模型,我们必须做出妥协。我们允许函数稍微偏离数据点,但我们会对偏离的程度施加惩罚。同时,我们仍然保持对简单性的偏好。这引出了一个新的目标:

最小化∑i=1n(yi−f(xi))2⏟拟合优度+λ∥f∥H2⏟简单性惩罚\text{最小化} \quad \underbrace{\sum_{i=1}^n \big(y_i - f(x_i)\big)^2}_{\text{拟合优度}} + \underbrace{\lambda \|f\|_{\mathcal{H}}^2}_{\text{简单性惩罚}}最小化拟合优度i=1∑n​(yi​−f(xi​))2​​+简单性惩罚λ∥f∥H2​​​

参数 λ\lambdaλ 是我们的“怀疑旋钮”。如果 λ\lambdaλ 很小,我们对数据不太怀疑,优先考虑紧密拟合。如果 λ\lambdaλ 很大,我们高度怀疑,要求一个简单的函数,即使它拟合数据不佳。这被称为 ​​Tikhonov 正则化​​,由此产生的方法是​​核岭回归(KRR)​​。

这是第二个惊人之处:表示定理仍然成立!即使在这个新的、更现实的设定中,解 f⋆(x)f^\star(x)f⋆(x) 仍然必须具有 ∑i=1nαik(x,xi)\sum_{i=1}^{n} \alpha_i k(x, x_i)∑i=1n​αi​k(x,xi​) 的形式。逻辑并未改变。任何与数据子空间正交的函数分量仍然会增加简单性惩罚 λ∥f∥H2\lambda \|f\|_{\mathcal{H}}^2λ∥f∥H2​,却对拟合优度项毫无帮助。它仍然是必须被丢弃的累赘。

当我们调节 λ\lambdaλ 时,其行为的演变十分引人入胜。

  • 当 λ→0\lambda \to 0λ→0 时,我们逼近插值解。模型变得异常灵活,完美地拟合训练数据,但可能在新数据上表现不佳(低偏差,高方差)。
  • 当 λ→∞\lambda \to \inftyλ→∞ 时,对复杂性的惩罚变得如此之大,以至于模型几乎完全忽略数据,而选择最简单的可能函数——通常是零函数(高偏差,低方差)。

三次样条再次完美地展示了这种权衡。在正则化设定中,当 λ→0\lambda \to 0λ→0 时,我们得到摆动的、插值的自然样条。但当 λ→∞\lambda \to \inftyλ→∞ 时,对曲率的巨大惩罚迫使二阶导数处处为零,解会变平,成为该空间中最简单的非平凡函数:一条直线,具体而言,就是通过普通最小二乘回归找到的那条直线。模型从一个复杂的插值器平滑地过渡到一个简单的线性拟合,而这一切都由一个旋钮 λ\lambdaλ 的转动所控制。

解锁无限可能性的技巧

到目前为止,该定理的力量似乎在于它简化了我们对函数的搜索。但它真正的魔力,通常被称为​​核技巧​​,在于它允许我们在难以想象的复杂空间中工作。

让我们想象一下,对于每个输入 xxx,我们都有一个特征映射 ϕ(x)\phi(x)ϕ(x),将其转换到一个新的、可能维度非常高的特征空间。这个空间中的一个简单线性模型会是 f(x)=⟨w,ϕ(x)⟩f(x) = \langle w, \phi(x) \ranglef(x)=⟨w,ϕ(x)⟩,其中 www 是一个权重向量。如果这个特征空间是无限维的,那么寻找 www 似乎是一项不可能的任务。

但表示定理再次拯救了我们。它告诉我们,对于正则化问题,最优权重向量 www 必须是我们训练数据特征向量的线性组合:w=∑i=1nαiϕ(xi)w = \sum_{i=1}^n \alpha_i \phi(x_i)w=∑i=1n​αi​ϕ(xi​)。

现在看看当我们把这个代入模型时会发生什么:

f(x)=⟨w,ϕ(x)⟩=⟨∑i=1nαiϕ(xi),ϕ(x)⟩=∑i=1nαi⟨ϕ(xi),ϕ(x)⟩f(x) = \langle w, \phi(x) \rangle = \left\langle \sum_{i=1}^n \alpha_i \phi(x_i), \phi(x) \right\rangle = \sum_{i=1}^n \alpha_i \langle \phi(x_i), \phi(x) \ranglef(x)=⟨w,ϕ(x)⟩=⟨i=1∑n​αi​ϕ(xi​),ϕ(x)⟩=i=1∑n​αi​⟨ϕ(xi​),ϕ(x)⟩

特征映射 ϕ\phiϕ 出现的所有地方,现在都只出现在内积内部。我们可以简单地将核函数 k(xi,x)k(x_i, x)k(xi​,x) 定义为这个内积:k(xi,x)=⟨ϕ(xi),ϕ(x)⟩k(x_i, x) = \langle \phi(x_i), \phi(x) \ranglek(xi​,x)=⟨ϕ(xi​),ϕ(x)⟩。最终的预测函数是 f(x)=∑i=1nαik(xi,x)f(x) = \sum_{i=1}^n \alpha_i k(x_i, x)f(x)=∑i=1n​αi​k(xi​,x),这正是我们一直以来使用的形式!

这就是“免费的午餐”。我们可以设计对应于无限维特征空间中内积的核函数,让我们的模型能够捕捉极其复杂的模式,但我们永远不必实际计算甚至知道特征映射 ϕ\phiϕ 是什么。我们所有的计算——从找到系数 α\alphaα 到做出预测——都只涉及 n×nn \times nn×n 的核矩阵,其元素为 Kij=k(xi,xj)K_{ij} = k(x_i, x_j)Kij​=k(xi​,xj​)。我们可以在无限维的游乐场中玩耍,而我们的计算却牢牢地植根于我们 nnn 个数据点的有限世界中。

但是在无限维空间中工作,难道不保证会发生灾难性的过拟合吗?不,这是另一个深刻的见解。表示定理将我们的解限制在由数据张成的微小的、nnn 维子空间中。模型的真实复杂性不是由它所处的宇宙的浩瀚所控制,而是由我们拥有的数据点数量和正则化的强度 λ\lambdaλ 所控制。

一个统一的原理

表示定理并非只适用于平方损失回归的“一招鲜”。其力量在于其普适性。其核心逻辑——将函数分解为有益部分和有害部分——适用于任何我们最小化范数惩罚项加上一个仅依赖于函数在训练点上取值的损失函数的问题。

  • 想要一个对异常值不那么敏感的更鲁棒的回归模型?使用​​Huber损失​​代替平方误差。表示定理仍然成立,保证了解具有相同的核展开形式。
  • 在处理分类问题?著名的​​支持向量机(SVM)​​旨在寻找一个能最大化类别间间隔的分离超平面。当在高维特征空间中表述时,其解同样由表示定理决定。最优的分离边界由以被称为支持向量的特殊数据子集为中心的核函数的加权和决定。

在机器学习领域中那些看似迥然不同的算法,被揭示为同出一源的“兄弟”,它们都共享着由表示定理提供的相同的基础“DNA”。

数学对噪声与偏差的低语

这个优美的理论框架不仅仅是统一了算法;它为我们提供了关于从数据中学习的本质的切实见解。考虑一个极端情景:如果我们的“数据”是纯粹的噪声怎么办?假设我们的标签 yiy_iyi​ 只是均值为零、方差为 σ2\sigma^2σ2 的随机数。完美插值这些噪声所需的函数复杂性是多少?

利用表示定理,我们可以计算出期望的复杂性,用我们的插值函数的范数平方来衡量。结果惊人地简单而深刻:

E[∥f^∥H2]=nσ2\mathbb{E}[\|\hat{f}\|_{\mathcal{H}}^2] = n \sigma^2E[∥f^​∥H2​]=nσ2

我们“发明”出来解释纯粹随机性的函数的复杂性,随着数据点数量和噪声方差的增加而线性增长。这是数学本身对过拟合危险发出的清晰、定量的警告。它告诉我们,拟合噪声是一项代价高昂的努力,随着我们收集更多带噪数据,需要一个越来越复杂的模型。

此外,该框架为我们提供了一台显微镜,来审视经典的​​偏差-方差权衡​​。KRR 模型的预测值可以写成 y^=Sλy\hat{y} = S_\lambda yy^​=Sλ​y,其中 SλS_\lambdaSλ​ 是一个“平滑器”矩阵,它依赖于核矩阵 KKK 和正则化参数 λ\lambdaλ。该矩阵的特征值精确地告诉我们模型在多大程度上将数据“收缩”向一个更简单的解。通过增加 λ\lambdaλ,我们增加了这种收缩,从而降低了模型对噪声的敏感性(较低的方差),但代价是将预测值拉离真实的底层信号(较高的偏差)。

作为统一性的最后一个优美证明,考虑我们的核是简单的线性核 k(x,x′)=x⊤x′k(x, x') = x^\top x'k(x,x′)=x⊤x′ 的情况。在这种情况下,核岭回归在数学上与标准的线性岭回归完全相同。核方法的通用、强大机制,将入门统计学中熟悉的线性模型作为其特例包含在内。表示定理提供了一座桥梁,连接了看似不同的世界,并揭示了其下单一、优雅的结构。

应用与跨学科联系

在经历了一段关于表示定理原理与机制的旅程之后,你可能会对其数学上的优雅有所感触。但这仅仅是一个漂亮的想法,一个理论家的好奇心吗?事实远非如此。该定理不是博物馆里的陈列品,而是一匹任劳任怨的“工作马”。它是一只无形的手,塑造着现代科学与工程中大量问题的解决方案。其真正的力量并非在孤立中显现,而是在其应用中,它为几乎任何可以想象的数据形式的学习提供了一个统一的蓝图。

学习的蓝图:从曲线到认知

让我们从最直观的任务开始:你有一堆散落在图上的数据点,你想找到拟合它们的“最佳”函数。但“最佳”到底意味着什么?你想要一个忠于数据,但又不过于复杂以至于仅仅为了穿过每个点而剧烈摆动的函数——这种行为是“过拟合”的明确信号。表示定理提供了一个惊人简单的蓝图。它告诉我们,无论我们搜索的函数宇宙有多么浩瀚,最优解总是会呈现为“凸起”的加权和形式,每个凸起都以你的一个数据点为中心。这些凸起的形状由你选择的核函数 k(x,x′)k(x,x')k(x,x′) 决定,它定义了你对“相似性”的概念。你唯一的工作就是为每个凸起找到合适的高度 αi\alpha_iαi​。

这一见解直接为我们提供了​​核岭回归(KRR)​​的配方。寻找最优高度 αi\alpha_iαi​ 的过程,归结为求解一个简单的线性方程组。目标函数中的正则化项 λ∥f∥H2\lambda \|f\|_{\mathcal{H}}^2λ∥f∥H2​ 扮演着“简单性税”的角色。它惩罚过于复杂的函数(即在再生核希尔伯特空间中范数较大的函数),防止它们不自然地扭曲。这不仅仅是一种启发式技巧。这一原理使我们能够驯服逼近论中的经典病态问题,例如在​​龙格现象​​中看到的剧烈边缘振荡。在高度多项式插值惨败的地方,一个正则化的核模型通过在数据保真度与结构简单性偏好之间取得平衡,保持了平滑和稳定,提供了一个鲁棒的拟合。当然,这不仅仅是一个可以随意拨动的抽象旋钮;最优的正则化量本身可以通过诸如留一法交叉验证(LOOCV)之类的实用统计方法从数据中确定。

这个学习蓝图的通用性非凡。同样是让我们拟合数据点曲线的逻辑,可以扩展到为智能体近似行动的“价值”。在​​强化学习​​中,机器可以通过建立一个关于其世界的模型来学习做出最优决策。表示定理为构建这个模型提供了一种强大的非参数方法,构成了诸如拟合Q迭代等方法的基础。因此,学习一个好策略的问题被转化为我们熟悉的为核展开寻找正确系数的问题。从简单的曲线拟合,我们向着构建人工智能迈出了一步。

通用翻译器:适用于一切的核函数

表示定理的真正威力在于它与著名的“核技巧”相结合。该定理指出,解是核函数求值的总和,f(x)=∑iαik(xi,x)f(x) = \sum_i \alpha_i k(x_i, x)f(x)=∑i​αi​k(xi​,x)。请注意,数据点 xix_ixi​ 和输入 xxx 仅仅出现在核函数内部。这意味着我们永远不需要知道数据的显式特征表示。我们所需要的只是一个有效的核函数 k(x,x′)k(x, x')k(x,x′),它能计算任意两个对象之间的某种相似性得分。核函数变成了一个“通用翻译器”,让我们能够将学习机制应用于极其复杂的数据,远远超出了简单的数字向量。

考虑​​生物信息学​​的挑战。你如何对DNA链进行回归或分类?你不能将DNA序列放入标准的线性模型中。但你可以定义一个核来衡量两个DNA序列之间的相似性,例如,通过计算它们共享的遗传“单词”(即k-mers)。这就是​​谱核​​背后的思想。一旦定义了这个核,表示定理就为我们提供了一条清晰的路径,以构建强大的分类器,例如,可以直接处理序列数据本身,在基因组中识别像剪接位点这样的重要位置。

这一原理几乎可以扩展到任何结构化对象。想想我们世界中无处不在的网络:社交网络、蛋白质-蛋白质相互作用网络或通信基础设施。我们如何对一个网络的结构进行分类或预测其属性?我们可以设计一个​​图核​​,例如一个基于计算图中所有节点对之间不同长度的最短路径数量的核。这个核量化了结构相似性,然后表示定理使我们能够从一个图的数据集中学习——从网络的拓扑结构本身预测社区结构或参与度指标。

同样的想法为像工程学这样的经典领域提供了深刻的新工具。在​​非线性系统辨识​​中,工程师们长期以来使用像Volterra级数这样的复杂形式来建模那些输出是过去输入的复杂非线性函数的系统。由表示定理赋能的核框架提供了一种更优雅且通常更强大的方法。例如,一个多项式核可以隐含地捕捉与截断的Volterra级数相同的相互作用,而像高斯核这样的通用核可以逼近任何连续系统,有效地处理无限阶的相互作用,而不会出现困扰显式模型的参数组合爆炸问题。

超越基础:更深的结构与更广的联系

表示定理甚至比它初看起来更加通用。它的适用范围远远超出了回归的简单平方误差损失。在医学、金融和可靠性工程中,一个常见的问题不是预测一个值,而是预测事件发生前的时间——病人复发、股票违约或机器故障。这是​​生存分析​​的领域。这里的基石模型是Cox比例风险模型,它依赖于一个称为偏似然的复杂目标函数。值得注意的是,表示定理在这里也适用。当我们在一个RKHS中寻找一个非线性风险模型时,该定理保证了最优解仍然是 centered on the training data 的核函数的有限组合,使我们能够构建强大的非线性生存模型。

此外,该定理可以优雅地容纳关于我们问题的额外知识来源。标准的RKHS范数强制执行一种通用的平滑性。但是如果我们有更强的先验信念呢?假设我们相信我们的数据点,尽管它们可能生活在一个非常高维的空间中,但实际上位于一个低维流形上或其附近。我们可以通过添加第二个惩罚项来整合这一信念,该惩罚项源自​​图拉普拉斯算子​​,它鼓励学习到的函数沿着数据本身的轮廓保持平滑。这是​​流形正则化​​的核心思想,它使我们能够在半监督学习设置中利用有标签和无标签数据的几何形状。广义表示定理优美地融合了这种附加结构,再次向我们保证解保持其简单、有限的形式。

最后,我们得到的函数不是一个无法穿透的黑箱。它是一个我们可以检查和操作的显式解析函数。例如,我们可以计算它对输入变量的导数。这使我们能够进行​​灵敏度分析​​,询问如果我们稍微扰动一个输入,模型的预测会如何变化。这种能力在科学建模中是无价的,因为在科学建模中,理解因果关系至关重要;在优化中也同样重要,因为学习到的函数可能是需要优化的更大系统中的一个组成部分。

物理世界:一个宏大的统一

也许所有联系中最美妙的,是将这个抽象的数学定理与物理世界的有形法则联系起来的那个。看起来核函数似乎是聪明的数学发明,但有时它们直接源于物理学。

考虑​​热方程​​,这个偏微分方程(PDE)描述了热量如何在介质中扩散。它的基本解,被称为格林函数或​​热核​​,描述了由单个点热源产生的空间中任意点的温度。这个函数捕捉了一个基本的物理过程,同时也是一个完全有效的正定核。

当我们在学习算法中使用这个热核时,我们正在将一个物理的平滑模型嵌入到我们的统计程序中。与热核相关的RKHS范数会严重惩罚具有高频分量的函数,这在数学上等同于具有尖锐、锯齿状的温度梯度。一个范数小的函数,在非常真实的意义上,是物理上“平滑”的。

这把我们带到了最后一个令人惊叹的统一。还有另一个强大的从数据中学习的框架,称为​​高斯过程(GPs)​​,它采用贝叶斯视角。它不是寻找单个最佳函数,而是在所有可能的函数上定义一个概率分布。GP的预测是整个分布的平均值,由每个函数解释数据的优劣程度加权。当我们使用相同的核函数并假设高斯噪声时,通过优化单个目标函数找到的核岭回归的预测,在数学上与高斯过程的后验均值预测完全相同。

表示定理通过给出KRR解的形式,揭示了这种深刻而出人意料的等价性。它表明,寻找单个最优函数的“频率派”观点和对无限可能函数进行平均的“贝叶斯派”观点可以殊途同归。这是对统计思想底层统一性的深刻证明,通过一个单一、优雅的定理将优化、概率和物理学的基本法则联系在一起。