try ai
科普
编辑
分享
反馈
  • 感知机学习规则

感知机学习规则

SciencePedia玻尔百科
核心要点
  • 感知机学习规则是一种在线算法,它仅在遇到错分样本时更新权重,通过逐步微调决策边界来纠正错误。
  • 对于线性可分的数据,感知机保证能在有限步骤内找到一个分离超平面,Novikoff 的错误上界定理证明了这一点。
  • 该算法在处理像异或(XOR)这样的非线性可分问题时会失败,这一局限性推动了特征映射和核技巧等更强大概念的发展。
  • 现代变体扩展了感知机简单的纠错框架,用于构建鲁棒、公平、稀疏和主动学习模型,彰显了其持久的重要性。

引言

感知机学习规则是机器学习的基石之一,它体现了从错误中学习的直观思想。它是最早、最简单的监督学习形式之一,旨在回答一个基本问题:如何教会机器画一条线来区分不同类别的数据?这个简单的前提背后蕴含着丰富的理论和实践遗产,展示了迭代校正如何能够引向智能行为。本文将全面探讨这一基础算法,从其核心机制到其深远影响。

旅程始于第一章 ​​原理与机制​​,该章详细解读了感知机核心的简单更新规则。我们将探讨超平面的几何“舞蹈”,理解对线性可分数据的强大收敛保证,并直面该算法在非线性问题上的关键失败之处。在此基础上,第二章 ​​应用与跨学科联系​​ 将追溯感知机在神经科学中的概念渊源,以及它如何演变为复杂的现代框架。我们将看到这个简单的想法如何激发了对其自身局限性的解决方案,并作为解决鲁棒性、公平性和可解释性等当代人工智能挑战的底盘。

原理与机制

想象一下,你想教一个非常简单的机器执行一项任务,比如区分苹果和橙子。你一次给它看一个水果。如果它猜“苹果”而这确实是苹果,你什么也不做。但如果它猜“橙子”而这其实是苹果,你就要纠正它。感知机学习规则,从本质上讲,是人们能想象到的将这种从错误中学习的过程形式化的最简单、最自然的方式。它讲述了一台机器如何学会画一条线的故事。

简单机器的简单规则

让我们想象数据点存在于某个空间中,为简便起见,姑且看作一个二维平面。每个点都有坐标,我们将其捆绑成一个向量 x\mathbf{x}x,还有一个标签 yyy,其值为 +1+1+1(代表“苹果”)或 −1-1−1(代表“橙子”)。感知机的任务就是找到一条能将这两个类别分开的直线。

在任意维度中,一个平坦的分割表面被称为 ​​超平面​​。超平面由一组权重定义,每个维度对应一个权重,我们将这些权重捆绑成一个权重向量 w\mathbf{w}w,再加上一个偏置项 bbb。一个点 x\mathbf{x}x 被分类的依据是它落在超平面的哪一侧。数学上,我们计算一个得分 a=wTx+ba = \mathbf{w}^T \mathbf{x} + ba=wTx+b,而预测的类别 y^\hat{y}y^​ 就是这个得分的符号。如果 sign(a)\text{sign}(a)sign(a) 是 +1+1+1,我们就猜“苹果”;如果是 −1-1−1,就猜“橙子”。

当我们的预测 y^\hat{y}y^​ 与真实标签 yyy 不匹配时,就会发生错误。这种情况精确地发生在 yyy 和得分 aaa 符号相反时,或者当得分为零时(即点正好在边界上)。我们可以将这个条件紧凑地写成 y(wTx+b)≤0y(\mathbf{w}^T \mathbf{x} + b) \le 0y(wTx+b)≤0。

现在,神奇之处来了。当机器在一个点 (x,y)(\mathbf{x}, y)(x,y) 上犯错时,我们如何调整权重 w\mathbf{w}w 和偏置 bbb 以便下次做得更好?​​感知机学习规则​​ 惊人地简单:

wnew=wold+ηyx\mathbf{w}_{\text{new}} = \mathbf{w}_{\text{old}} + \eta y \mathbf{x}wnew​=wold​+ηyx
bnew=bold+ηyb_{\text{new}} = b_{\text{old}} + \eta ybnew​=bold​+ηy

这里,η\etaη(希腊字母 eta)是一个小的正数,称为 ​​学习率​​,它控制我们迈出的步子有多大。为简单起见,我们现在可以想象 η=1\eta=1η=1。

这个更新意味着什么?如果我们错分了一个“正”点(y=+1y=+1y=+1),我们就将其向量 x\mathbf{x}x 加到权重向量 w\mathbf{w}w 上。如果我们错分了一个“负”点(y=−1y=-1y=−1),我们就从 w\mathbf{w}w 中 减去 其向量 x\mathbf{x}x。这是一个温和的推动。我们是在告诉分类器:“嘿,你这个弄错了。你的边界需要稍微移动一下,把这个点放到正确的一侧。”这个更新规则正是对这种直观纠正的直接数学转化。

这个规则并非凭空捏造。它可以从一个衡量错分严重程度的简单损失函数(例如,对于一个错分点,损失函数为 L(w)=−y(wTx)L(\mathbf{w}) = -y(\mathbf{w}^T \mathbf{x})L(w)=−y(wTx))通过应用梯度下降法优雅地推导出来。它也源于一个更现代、更鲁棒的损失函数——​​合页损失​​(hinge loss),L(w)=max⁡{0,−y(wTx)}L(\mathbf{w}) = \max\{0, -y(\mathbf{w}^T \mathbf{x})\}L(w)=max{0,−y(wTx)},它构成了支持向量机(SVM)的基础。这个极其简单的规则能从不同的理论起点推导出来,暗示了其根本性质。

超平面的舞蹈

要真正领会这个学习规则,我们必须看到它运动起来。权重向量 w\mathbf{w}w 不仅仅是一串数字;它具有深刻的几何意义。它是分离超平面的 ​​法向量​​——它垂直于超平面表面向外指向。改变 w\mathbf{w}w 意味着重新定向超平面,而改变偏置 bbb 则使其来回平移。

通过一个被称为“偏置技巧”的绝妙数学手法,这个画面可以被进一步简化。我们可以通过给每个输入向量添加一个常数‘1’,将偏置 bbb 滚入权重向量中。我们的输入 x=(x1,…,xd)\mathbf{x} = (x_1, \dots, x_d)x=(x1​,…,xd​) 变成了 x′=(x1,…,xd,1)\mathbf{x}' = (x_1, \dots, x_d, 1)x′=(x1​,…,xd​,1),而我们的权重向量变成了 w′=(w1,…,wd,b)\mathbf{w}' = (w_1, \dots, w_d, b)w′=(w1​,…,wd​,b)。现在,决策规则就只是 sign(w′Tx′)\text{sign}(\mathbf{w}'^T \mathbf{x}')sign(w′Tx′),再也没有单独的偏置项了!从几何上看,我们已经将 ddd 维问题提升到了 (d+1)(d+1)(d+1) 维空间。我们原来的仿射超平面(一个不必穿过原点的超平面)在这个更高维空间中变成了一个齐次超平面(一个 必须 穿过原点的超平面)。原始数据集现在位于一张不经过这个新空间原点的“纸”(一个仿射平面)上。

有了这个技巧,整个学习过程就变成了一个单一向量 w′\mathbf{w}'w′ 及其定义的超平面围绕原点旋转的故事。更新规则简化为 w′←w′+yx′\mathbf{w}' \leftarrow \mathbf{w}' + y \mathbf{x}'w′←w′+yx′。每一次错误都会导致超平面倾斜,试图将被错分的点摆到其正确的一侧。

这种“超平面的舞蹈”可以以不同的方式进行。我们可以向机器展示所有数据点,记下所有错误,然后在最后进行一次大的、聚合的修正。这是一种 ​​批量更新​​。或者,我们可以像最初描述的那样:在 每次 犯错后立即修正我们的权重。这被称为 ​​在线​​ 或 ​​增量​​ 学习。后一种方法通常更实用、更动态。这就像你边开车边修正方向,而不是等到跑完一圈后才分析你所有的转弯。超平面所走的路径——以及它找到的最终解——可能会因更新策略和数据呈现的顺序而大不相同。

收敛的保证(附带条件)

这一切似乎很有希望,但是这种轻推超平面的简单过程真的有效吗?它最终能找到一条将苹果和橙子分开的线吗?1962年,Novikoff 的一个优美定理证明了它能做到,但有一个关键条件:数据必须是 ​​线性可分的​​。也就是说,必须存在 至少一个 完美的分离超平面。

如果这个条件成立,感知机学习算法 ​​保证​​ 会在有限次更新后 ​​收敛​​。但该定理还给了我们一个更深刻的东西:它将犯的错误次数的一个上界!这个著名的 ​​错误上界​​ 是:

Number of Mistakes≤(Rγ)2\text{Number of Mistakes} \le \left(\frac{R}{\gamma}\right)^2Number of Mistakes≤(γR​)2

这个公式是一首用数学写成的诗。让我们来解读它的含义。

  • RRR 是 ​​特征半径​​,定义为最长输入向量的范数(长度),R=max⁡i∥xi∥R = \max_i \|\mathbf{x}_i\|R=maxi​∥xi​∥。它衡量了数据的“分布范围”。数据点越分散,RRR 就越大。

  • γ\gammaγ(希腊字母 gamma)是 ​​间隔​​。它是距离最近的数据点到 最佳可能 分离超平面的距离。它代表了分隔两个类别的“安全走廊”或“无人区”的宽度。

该定理告诉我们,感知机在找到一个解之前会犯的错误次数,与间隔的平方成反比,与数据分布范围的平方成正比。这非常直观!如果两个类别被广泛分开(大的 γ\gammaγ),问题就简单,算法会很快找到解。如果类别几乎接触(微小的 γ\gammaγ),问题就困难,算法可能需要进行许许多多次更新,小心翼翼地调整超平面,直到它穿过那条狭窄走廊的针眼。同样,如果数据点离原点非常远(大的 RRR),更新可能会幅度大且不稳定,可能需要更多步骤才能稳定下来。这个单一、优雅的公式将算法的运行时行为直接与数据本身的几何结构联系起来。

特征向量的大小很重要。更新步骤 ηyx\eta y \mathbf{x}ηyx 对于离原点更远的点来说更大。这意味着远处的点可能对学习过程产生不成比例的影响。这就是为什么像归一化输入向量这样的技术有时可以带来更稳定的学习,即使最终的几何间隔可能结果相同。

当世界不那么简单时:异或(XOR)的挫败

感知机的保证很强大,但它的一个条件——线性可分性——是一个很大的限制。当世界并非如此整潔時會發生什麼?考虑经典的 ​​异或(XOR)​​ 问题。我们有四个点:(0,0)(0,0)(0,0) 和 (1,1)(1,1)(1,1) 属于一个类别,而 (0,1)(0,1)(0,1) 和 (1,0)(1,0)(1,0) 属于另一个类别。拿一支笔,试着在一张纸上画一条直线来分隔这两对点。你做不到。这个数据集不是线性可分的。

当我们对这个问题使用感知机算法时,它注定会失败。它会进行一次更新以正确分类一个点,却发现这一改变导致另一个点被错分。它会追着自己的尾巴跑,可能永远如此。权重向量可能会进入一个 ​​极限环​​,无休止地重复一系列值,或者它的范数可能无限增长。

这种情况与物理学家所称的 ​​受挫系统​​(如自旋玻璃)惊人地相似。该算法受到无法同时满足的相互竞争的约束。试图满足点A的约束会违反点B的约束。系统永远无法稳定在一个完美的、零能量的基态。最小错误数大于零,算法在可能的权重空间中无休止地徘徊,这是一个充满永久挫败感的景观。

巧妙的出路:特征映射与实用修正

感知机在异或问题上的失败不是一个结局;它是一个更宏大故事的开端。它教给我们一个根本性的教训:如果你无法在你所处的空间解决一个问题,那就换一个空间!

逃离平面

解决异或问题的天才方案是将数据投影到一个更高维的空间,使其 确实 变得线性可分。想象一下平面纸上的四个异或点。我们无法用一条线将它们分开。但如果我们能将其中两个点从纸上抬起来呢?突然之间,分开它们就变得容易了——我们只需在抬起的点和仍在纸上的点之间滑入一个平面即可。

这就是 ​​特征映射​​ 的精髓。对于异或问题,我们可以定义一个从我们的二维空间 x=(x1,x2)\mathbf{x} = (x_1, x_2)x=(x1​,x2​)到三维空间的映射,通过添加一个新特征:乘积 x1x2x_1 x_2x1​x2​。我们的新特征向量变为 z=(x1,x2,x1x2)\mathbf{z} = (x_1, x_2, x_1 x_2)z=(x1​,x2​,x1​x2​)。在这个三维空间中,这四个点可以用一个平面完美地分开。在二维空间中无能为力的感知机,现在可以在三维空间中轻松找到解决方案。这个强大的思想——非线性问题可以通过映射到更高维的特征空间来变得线性——是支持向量机中 ​​核技巧​​ 的概念种子,也是现代深度神经网络中隐藏层的核心功能。

在混乱世界中学习:口袋感知机与平均感知机

但是,如果我们没有一个巧妙的特征映射,而我们的数据本身就是有噪声且不可分的呢?标准的感知机将无限期地挣扎。我们需要更鲁棒的工具。

于是 ​​口袋感知机​​ 登场了。它的工作方式与标准算法一样,但带有一点记忆功能。当它尝试新的权重向量时,它会把“迄今为止找到的最好的那个”——即在整个数据集上犯错最少的那个——藏在它的“口袋”里。如果主算法陷入循环,我们只需在一段时间后停止它,然后从口袋里拿出最好的解决方案。它可能不是完美的,但它是我们所见过的最好的。

一个更微妙且通常更强大的变体是 ​​平均感知机​​。当权重在一个不可分问题上循环时,它们是在某个中心区域周围振荡。我们可以取这些振荡解的平均值,而不是选择其中任何一个。最终的权重向量是每次更新步骤中所有中间权重向量的平均值。这个平均过程倾向于平滑振荡,并且通常产生一个能更好地泛化到新的、未见过的数据的最终超平面 [@problemid:3190769]。

从一个惊人简单的规则出发,我们穿越了超平面的几何学、数学证明的保证、线性的令人沮丧的局限,以及通向现代机器学习中一些最强大思想的巧妙出路。感知机不仅仅是一个历史遗物;它是一个关于简单规则在迭代应用时如何能产生复杂和智能行为的基础课程。

应用与跨学科联系

我们已经看到,感知机学习规则的核心是一个非常简单的思想:当你犯错时,就把你的世界观——由权重向量 w\mathbf{w}w 代表——朝着能够避免该错误的方向稍微推动一下。它无非是美化的加法和减法。然而,科学中最美妙的事情之一,就是看到一个简单、优雅的规则如何能演变成一个丰富复杂的应用织锦,从我们大脑的湿软硬件到人工智能的伦理前沿。感知机的历程正是这样一个故事。

从生物火花到硅基大脑

感知机并非诞生于真空中;它的根源在于其发明器官本身:大脑。在20世纪中叶,神经科学家 Donald Hebb 提出了一个关于神经元如何学习的原理,通常概括为一句格言:“一起放电的细胞连接在一起。”在这种观点下,如果一个突触前神经元反复帮助触发一个突触后神经元,它们之间的连接,即突触,就会变得更强。

感知机的更新规则 w←w+yx\mathbf{w} \leftarrow \mathbf{w} + y\mathbf{x}w←w+yx,可以被看作是这个思想的一个有监督的、数学上的表亲。x\mathbf{x}x 项代表“突触前”输入的放电,如果我们将正确标签 yyy 解释为一个“教学”信号,迫使“突触后”神经元以某种方式放电,那么这个更新就完全是赫布式的。当输入与期望输出一致时,会发生增强(加强连接),而当它们相反时,则发生抑制(削弱连接)。

当然,大脑比这个简单模型要复杂得多。生物神经元通常遵守 Dale 原则:单个神经元要么是纯兴奋性的,要么是纯抑制性的;它不能同时拥有正负连接。为了实现一个需要正负权重的类感知机模型,需要一个更复杂的结构,可能涉及独立的兴奋性和抑制性神经元群体,其突触强度由这些赫布式规则调整。尽管存在这些微妙之处,但基础联系是不可否认的:感知机是生物学习基本原理的一种抽象。

这个美丽的思想——一个学习规则可以被体现在一个物理基底中——并不仅限于生物学。神经形态计算领域的研究人员正在通过创建突触的物理类似物来构建“芯片上的大脑”。最有希望的候选者之一是忆阻器,这是一种其电阻根据通过它的电流历史而改变的设备。通过将高低电阻状态映射到突触权重,人们可以构建一个直接实现类感知机学习规则的物理设备。当设备出现“错误”时,可以施加一个电压脉冲,随机地切换其电阻,从而将其物理状态——也就是其计算——推向正确的行为。在这里,抽象的加减算法变成了一个改变材料原子结构的具体过程。

线的力量与局限

有了这个简单的、受生物学启发的规则,机器究竟能做什么?最早也是最直观的应用之一是教机器“有感情地”阅读。想象一下,我们想构建一个分类器来判断一篇电影评论是正面的还是负面的。我们可以将每篇评论表示为一个“词袋”,实质上是一个向量,其中每个分量对应我们词汇表中的一个词。感知机以没有观点(零权重向量)的状态初始化,开始阅读评论。如果猜错了,它就调整权重。对于一篇它错分的正面评论,它会稍微增加“excellent”和“love”等词的权重。对于一篇它弄错的负面评论,它会将“terrible”和“hate”等词的权重向负方向轻推。经过许多例子之后,权重向量变成了一个“情感语言”的原型,机器现在可以用惊人的准确性来分类新的评论。

这似乎近乎神奇,但它揭示了感知机的根本性质:它是一个只能画直线的艺术家。在二维空间中,它找到一条线来分隔两组点。在更高维度中,它找到一个超平面。这非常强大,但它有一个著名的阿喀琉斯之踵:异或问题。想象平面上的四个点:(0,1)(0,1)(0,1) 和 (1,0)(1,0)(1,0) 属于“正”类,而 (0,0)(0,0)(0,0) 和 (1,1)(1,1)(1,1) 属于“负”类。你就算试一整天,也永远找不到一条能将正负点分开的直线。一个标准的感知机试图解决这个问题时,会永远地挣扎,其决策边界会无休止地振荡,永不收敛。

在这里,一个危机时刻催生了一个深刻的思想:核技巧。如果你无法在平面上解决问题,为什么不将它提升到更高维度呢?在二维空间中非线性可分的异或点 (x1,x2)(x_1, x_2)(x1​,x2​),如果我们简单地增加一个新坐标,比如说乘积 x1x2x_1 x_2x1​x2​,它们在三维空间中就变得完美地线性可分了。核化感知机正是这样做的,但方式在计算上极为巧妙。它从不显式地计算高维空间中的坐标。相反,它使用一个“核函数”——在这种情况下是多项式核——来计算向量之间的点积,仿佛 它们处于那个高维空间中一样。它通过在一个更丰富的隐藏空间中学习一个平坦的线性边界,来在原始空间中学习一个弯曲的非线性边界。这种洞见,即通过转移到正确的空间可以恢复线性,是现代机器学习的基石,为支持向量机等算法提供了动力。

寻求更好的线

感知机收敛定理保证,如果 可以 画出一条线,算法就会找到一条。但它并没有说会找到哪一条。对于任何可分的数据集,都存在无限多个可能的分离超 hyperplane。它们都同样好吗?

想象两类点被一条宽阔的通道隔开。一个解决方案可能是一条恰好擦过两侧点的线。这是一个脆弱、不稳定的解决方案;对数据点的一个微小的新扰动就可能导致它被错分。另一个解决方案可能是一条沿着通道正中间延伸的线,尽可能远离两个类别。这个解决方案是鲁棒的;它有一个大的 ​​间隔​​。

这就是感知机与其更复杂的继承者——支持向量机(SVM)之间的关键区别。感知机满足于 任何 分离超平面,一旦找到一个就停止。相比之下,支持向量机是一个优化器。它明确地寻找那个唯一的、最大化间隔的超平面。对于一个对称的数据集,感知机可能会偶然发现与SVM相同的最大间隔解。但对于一个倾斜的数据集,或者取决于例子的顺序,感知机很可能会找到一个不同的、次优的解决方案。

这种从单纯的正确性到鲁棒优化的哲学转变,也反映在这些算法使用的损失函数上。感知机使用“合页损失”:对于任何正确分类的点,无论它离边界多近,损失都为零。算法根本不关心它做对的点。另一方面,逻辑回归使用平滑的逻辑损失。即使对于一个正确分类的点,它仍然有一个微小、非零的损失,因此会受到一个小的更新推动,使其离边界更远。它永远不会完全满足,总是试图增加其置信度。这种基于梯度的连续优化是主导现代深度学习的范式。

现代感知机:智能、鲁棒与公平

将感知机仅仅看作一个历史遗物是错误的。其核心的迭代、纠错框架是如此灵活,以至于它成为探索现代人工智能最前沿概念的完美底盘。我们可以将这些进步看作是为感知机的简单契约增加了新的条款。

  • ​​更聪明地学习,而非更费力:​​ 如果算法不是被动地接收标记数据,而是能够请求它最困惑的点的标签呢?这就是 ​​主动学习​​(Active Learning)的思想。一个主动感知机检查未标记的点,并且只请求那些落在其当前决策边界附近(即 ∣wTx∣|\mathbf{w}^T \mathbf{x}|∣wTx∣ 很小)的点的标签。通过将其查询的“预算”集中在信息量最大的例子上,它可以用比被动学习者少得多的标记样本达到高水平的性能。

  • ​​在攻击下学习:​​ 如果一个对手故意通过对输入进行微小、难以察觉的改动来欺骗我们的分类器怎么办?一个标准的分类器可能会灾难性地脆弱。解决方案是构建一个 ​​鲁棒感知机​​(Robust Perceptron)。鲁棒更新规则不仅仅是确保点 x\mathbf{x}x 在边界的正确一侧,而是确保围绕 x\mathbf{x}x 半径为 ϵ\epsilonϵ 的整个“球”内的所有点都被正确分类。这是通过将更新条件修改为基于最坏情况下的间隔 ywTx−ϵ∥w∥2y \mathbf{w}^T \mathbf{x} - \epsilon \|\mathbf{w}\|_2ywTx−ϵ∥w∥2​ 来实现的。这有效地将决策边界“加厚”成一个安全区,使分类器对对抗性扰动具有弹性。

  • ​​有良知的学习:​​ 我们的训练数据往往是我们世界的反映,包括其社会偏见。一个在历史数据上训练的分类器可能会学会将某些敏感属性(如性别或种族)与结果联系起来,从而延续不公平。我们可以通过在学习规则中增加一个约束来构建一个 ​​公平感知机​​(Fair Perceptron)。例如,我们可以要求与敏感特征相关的权重不超过某个界限。在每次标准更新后,如果权重向量违反了这个约束,我们将其投影回“公平”区域中最近的点。这是一个优美的几何解决方案:学习照常进行,但它被限制在一个禁止有偏见解决方案的空间内,迫使算法找到一个既准确又公平的分类器。

  • ​​学习从简:​​ 在许多现实世界的问题中,从基因组学到金融,我们可能有成千上万个特征,但只有少数是真正重要的。一个标准的感知机可能会使用所有这些特征,导致模型复杂且难以解释。我们可以通过在每次更新后增加一个软阈值步骤来鼓励 ​​稀疏性​​(Sparsity)。这一步将所有权重向零收缩,并消除那些非常小的权重。结果是一个稀疏的权重向量,其中大部分分量都恰好为零。分类器学会了仅基于少数最相关的特征来做决策,创建了一个既具有预测性又具有可解释性的模型。

从一个模仿神经元的简单规则开始,感知机带我们进行了一次盛大的旅行。它向我们展示了它的力量和局限,并在此过程中,为更深层次的学习原理打开了大门。最重要的是,它简单的迭代结构已证明是一个可无限 Anpassung 的框架,用于应对现代人工智能的挑战——从效率和鲁棒性到公平性和可解释性。感知机是简单思想力量的美丽证明。