try ai
科普
编辑
分享
反馈
  • 保序回归

保序回归

SciencePedia玻尔百科
核心要点
  • 保序回归通过在顺序约束下最小化平方误差,为噪声数据找到最佳拟合的单调序列。
  • 池邻近违规者算法(PAVA)通过迭代地寻找并平均相邻的乱序数据点,高效地解决此问题。
  • 它是机器学习中校准模型输出的关键工具,能将分类器的原始分数转换为可信的概率。
  • 保序回归被视为到凸锥上的几何投影,是高级约束优化算法中的一个基本构建模块。

引言

在许多科学和现实场景中,我们期望关系遵循一种自然顺序:生长中的植物应该越长越高,较高的风险评分应该对应于事件发生的较高概率。然而,现实世界的数据通常是杂乱的,随机噪声掩盖了这些潜在的单调趋势。我们如何从这些不完美的观测中恢复出真实、有序的信号?保序回归为这个基本问题提供了一个强大而优雅的答案。它是一种旨在为任何数据点序列找到最佳单调拟合的技术。本文深入探讨了这种重要的非参数方法,揭示了其简单的机制和深远的效用。

为全面理解此主题,我们将分两大部分进行探讨。第一章“原理与机制”将解析核心概念,介绍直观的池邻近违规者算法(PAVA)以及解释其有效性的深刻几何与物理类比。随后,“应用与跨学科联系”一章将展示保序回归非凡的多功能性,展示其在从校准医学和物理学领域的前沿机器学习模型到在复杂统计分析中强制施加逻辑一致性等各个方面的影响。

原理与机制

对秩序的追求

自然界偏爱秩序,但我们对其的测量往往是杂乱的。想象你是一位生物学家,每天追踪一株幼苗的高度。你期望它会生长,或者至少不会变矮。然而,你的数据可能看起来像这样:10.110.110.1 厘米、10.510.510.5 厘米、10.410.410.4 厘米、10.910.910.9 厘米。第三个测量值 10.410.410.4 厘米,就是一个对你期望的“违规”。这很可能只是测量误差,比如尺子轻微晃动或一阵风吹过。但它扰乱了你所期望的清晰、非递减的叙事。

或者,考虑一位研究大脑如何表征不同视觉刺激的神经科学家。他们可能假设,随着两种刺激变得越来越不相似(例如,猫的图片与狗的图片,对比猫的图片与汽车的图片),它们所引发的神经活动模式也应变得更加不相似。他们测量了这些不相似性,但同样,噪声潜入其中。他们可能会发现成对的(刺激不相似性,神经不相似性)值,如:(0.8,1.1)(0.8, 1.1)(0.8,1.1)、(1.2,0.9)(1.2, 0.9)(1.2,0.9)、(1.4,1.3)(1.4, 1.3)(1.4,1.3)。第二对 (1.2,0.9)(1.2, 0.9)(1.2,0.9) 打破了趋势;一个更大的刺激不相似性导致了一个更小的神经不相似性。我们如何从这些含噪声的数据中恢复潜在的有序关系?

这正是​​保序回归​​旨在解决的基本问题。“Isotonic”(保序)一词的含义就是“保持顺序”。我们正在寻找一个新的数值序列,这个序列 (a) 尊重我们认为应该存在的非递减顺序,并且 (b) 尽可能接近我们原始的、杂乱的数据。

我们所说的“尽可能接近”是什么意思?一个源自 Gauss 和 Legendre 的优美、简单而强大的思想是,最小化平方差之和。如果我们原始的数据是一个序列 y=(y1,y2,…,yn)y = (y_1, y_2, \dots, y_n)y=(y1​,y2​,…,yn​),我们希望找到一个新的、非递减的序列 y^=(y^1,y^2,…,y^n)\hat{y} = (\hat{y}_1, \hat{y}_2, \dots, \hat{y}_n)y^​=(y^​1​,y^​2​,…,y^​n​),使得 ∑i=1n(yi−y^i)2\sum_{i=1}^{n} (y_i - \hat{y}_i)^2∑i=1n​(yi​−y^​i​)2 这个量尽可能小。这是一个约束优化问题:我们在最小化一个误差,同时受制于规则 y^1≤y^2≤⋯≤y^n\hat{y}_1 \le \hat{y}_2 \le \dots \le \hat{y}_ny^​1​≤y^​2​≤⋯≤y^​n​。

一个优雅的解决方案:池邻近违规者算法

我们如何找到这个最佳拟合的有序序列?答案是一种如此直观和优雅的算法,以至于感觉就像是常识。它被称为​​池邻近违规者算法 (Pool Adjacent Violators Algorithm, PAVA)​​。

让我们回到神经科学家关于神经不相似性的数据:y=(1.1,0.9,1.3,1.7,1.6,2.0,1.9)y = (1.1, 0.9, 1.3, 1.7, 1.6, 2.0, 1.9)y=(1.1,0.9,1.3,1.7,1.6,2.0,1.9)。我们将一步步地构建我们新的、干净的序列。

  1. 我们从查看前两个数开始:1.11.11.1 和 0.90.90.9。这是我们的第一个违规!1.1>0.91.1 > 0.91.1>0.9。要修正这个问题,同时尊重这两个值,最民主的方式是什么?我们用它们的平均值替换它们:1.1+0.92=1.0\frac{1.1 + 0.9}{2} = 1.021.1+0.9​=1.0。我们的序列现在以 (1.0,1.0,… )(1.0, 1.0, \dots)(1.0,1.0,…) 开始。这是一个“池”。

  2. 我们当前处理的序列是 (1.0,1.0,1.3,1.7,1.6,2.0,1.9)(1.0, 1.0, 1.3, 1.7, 1.6, 2.0, 1.9)(1.0,1.0,1.3,1.7,1.6,2.0,1.9)。我们继续。1.0≤1.31.0 \le 1.31.0≤1.3 吗?是的。1.3≤1.71.3 \le 1.71.3≤1.7 吗?是的。1.7≤1.61.7 \le 1.61.7≤1.6 吗?不是!又一个违规。所以我们合并 1.71.71.7 和 1.61.61.6。它们的平均值是 1.7+1.62=1.65\frac{1.7 + 1.6}{2} = 1.6521.7+1.6​=1.65。序列变为 (1.0,1.0,1.3,1.65,1.65,2.0,1.9)(1.0, 1.0, 1.3, 1.65, 1.65, 2.0, 1.9)(1.0,1.0,1.3,1.65,1.65,2.0,1.9)。现在,我们必须向后检查。我们上一个“好的”块的结尾(1.31.31.3)是否小于或等于我们新块的开始(1.651.651.65)?是的,1.3≤1.651.3 \le 1.651.3≤1.65。顺序得以维持。

  3. 我们继续。1.65≤2.01.65 \le 2.01.65≤2.0 吗?是的。2.0≤1.92.0 \le 1.92.0≤1.9 吗?不是!最后一个违规。我们将 2.02.02.0 和 1.91.91.9 合并,得到 2.0+1.92=1.95\frac{2.0 + 1.9}{2} = 1.9522.0+1.9​=1.95。我们的序列以 (1.95,1.95)(1.95, 1.95)(1.95,1.95) 结尾。我们向后检查:1.65≤1.951.65 \le 1.951.65≤1.95。一切正常。

最终的、干净的序列是 y^=(1.0,1.0,1.3,1.65,1.65,1.95,1.95)\hat{y} = (1.0, 1.0, 1.3, 1.65, 1.65, 1.95, 1.95)y^​=(1.0,1.0,1.3,1.65,1.65,1.95,1.95)。这就是保序回归的拟合结果。它通过构造是非递减的,并且在最小二乘意义上,它是与我们原始数据最接近的非递减序列。

这个简单的平均或“汇集”思想,赋予了算法它的名字。有时,并非所有数据点都是平等的。我们可能对某些测量值比其他值更有信心。在这种情况下,我们可以为每个数据点分配一个​​权重​​ wiw_iwi​。目标变为最小化加权平方和 ∑wi(yi−y^i)2\sum w_i (y_i - \hat{y}_i)^2∑wi​(yi​−y^​i​)2。PAVA 算法同样优雅地处理了这种情况:当我们汇集违规者时,我们只需计算一个​​加权平均值​​,而不是简单的平均值。

秩序的几何学

这个算法感觉上是对的,但它为什么有效呢?为了看到更深层次的原理,我们可以将我们的视角从数字和算法转向几何。

想象我们的 nnn 个数据点序列 y=(y1,y2,…,yn)y = (y_1, y_2, \dots, y_n)y=(y1​,y2​,…,yn​) 是 nnn 维空间中的一个单点。现在,考虑所有可能的非递减序列的集合。这个集合,我们称之为 C\mathcal{C}C,在这个高维空间中形成一个特殊的区域。这个区域是一个​​凸锥​​。“凸”意味着如果你在该区域内取任意两点并画一条直线连接它们,整条线段都保持在该区域内部。“锥”意味着如果一个点在区域内,那么从原点穿过该点的任何射线也保持在该区域内。

我们找到对数据点 yyy 的最佳非递减拟合 y^\hat{y}y^​ 的任务,现在有了一个优美的几何解释:我们在凸锥 C\mathcal{C}C 内寻找离我们数据点 yyy 几何上最近的点 y^\hat{y}y^​。这无非就是点 yyy 到集合 C\mathcal{C}C 上的​​欧几里得投影​​。

PAVA 算法是执行这种几何投影的非凡计算工具。这一洞见极其强大。它告诉我们,保序回归不仅仅是一个临时的程序;它是一个基本的几何操作。这就是为什么它可以作为更通用优化框架中的一个构建模块,例如​​投影梯度法​​或​​交替方向乘子法 (ADMM)​​。这些方法通过迭代地朝着一个有希望的方向迈出一步,然后将结果“投影”回可行解集来工作。对于具有单调性约束的问题,PAVA 就是那个投影算子。

最优拟合的物理学

我们也可以用物理类比来思考这个问题。想象我们原始的数据值 yiy_iyi​ 是固定的柱子。对于每个柱子,我们有一个珠子 y^i\hat{y}_iy^​i​,它通过一根弹簧与柱子相连。这些珠子被限制在一条直线上滑动,弹簧将珠子拉向它们各自的柱子。系统中的能量是拉伸弹簧长度平方的总和,即 ∑(y^i−yi)2\sum (\hat{y}_i - y_i)^2∑(y^​i​−yi​)2。系统会自然地稳定在一个最小化此能量的状态。

现在,让我们加入非递减约束。想象用短而刚性的杆连接这些珠子,使得珠子 y^i\hat{y}_iy^​i​ 不能移动到珠子 y^i+1\hat{y}_{i+1}y^​i+1​ 的右边。这是我们的单调性约束。系统再次稳定在一个最小能量状态,但这次是受这些约束的。

当一个 PAVA 块形成时,例如当 y^i=y^i+1\hat{y}_i = \hat{y}_{i+1}y^​i​=y^​i+1​ 时,会发生什么?这意味着珠子们被紧紧地推到了一起。它们之间的杆处于压缩状态,施加一个力。这个力正是数学家所称的​​拉格朗日乘子​​。一个非零的乘子表示一个约束是“激活”的——即系统正在对抗它。

这个物理图像是约束优化的​​Karush-Kuhn-Tucker (KKT) 条件​​的一个优美例证。这些条件为最优性提供了严格的检验。它们指出,在最优解处,来自“弹簧”的力(目标函数的梯度)必须被来自“杆”的力(激活约束的拉格朗日乘子)完美平衡。分析这些条件揭示出,任何块内的解值必须是该块中原始数据值的平均值——这正是 PAVA 计算的结果。拉格朗日乘子实质上衡量了将一个块聚合在一起以抵抗数据拉力的“压力”。

从理论到实践:校准的艺术

这种优美且有原则的方法不仅仅是数学上的奇珍;它在现代数据科学中是一个不可或缺的工具,尤其是在​​模型校准​​方面。

许多机器学习模型,从简单的逻辑回归到复杂的神经网络,都会为预测输出一个“分数”。一个模型可能会预测某位患者的“败血症风险评分”为 0.80.80.8。这是否意味着有 80% 的败血症概率?不一定。模型可能系统性地过于自信,一个 0.80.80.8 的分数可能只对应 60% 的真实概率。或者它可能在所有方面都过于不自信。校准就是调整这些原始分数,使它们成为真实、可靠的概率的过程。

保序回归是完成这项任务的首选方法。我们取一个数据集(“校准集”),其中包含模型的得分和真实结果(例如,如果发生败血症则为 111,否则为 000)。我们想找到一个将分数映射到概率的函数。由于更高的分数应该对应更高的风险,这个函数必须是非递减的。保序回归能找到最适合这项工作的非递减函数。

由此产生的校准图是一个阶梯函数。对于一个分数范围,比如从 0.750.750.75 到 0.850.850.85,它可能会输出一个单一的校准概率 0.620.620.62。这意味着,在我们校准数据中,所有得分在此范围内的患者中,有 62% 的人实际上得了败血症。

保序回归是一种​​非参数​​方法;它不假设校准曲线具有任何特定形状,除了是单调的。这赋予了它极大的灵活性。它与​​参数​​方法形成对比,如 ​​Platt 缩放​​,后者假设校准曲线是一个特定的 S 型(S-shaped)函数。

这种差异导致了一个经典的权衡:

  • ​​Platt 缩放​​ 简单而稳健。由于只有两个参数,它不太可能“过拟合”小型数据集中的随机噪声。当数据稀缺时,它是一个不错的选择。
  • ​​保序回归​​ 非常灵活。如果分数和概率之间的真实关系是复杂的、非 S 型的,只要有足够的数据,保序回归就能捕捉到它。然而,在数据量小或稀疏的情况下,同样的灵活性也使其容易拟合噪声,产生一个泛化能力不佳的锯齿状校准曲线。

这个思想也可以扩展到二元结果之外。对于像“低”、“中”、“高”级肿瘤这样的序数结果,我们可以使用保序回归来校准累积概率,例如具有“中等或更低”等级的概率。这需要仔细考虑单调性的方向:随着风险评分的增加,处于较低等级类别的概率应该是非递增的。

最后,保序回归为我们提供了一种强有力的方式,来强制执行我们在世界上期望看到的最基本的结构之一——秩序——同时忠实于我们观察到的数据。它是直观原则、优雅几何和实际效用的完美结合。

应用与跨学科联系

我们花了一些时间来理解保序回归的“是什么”和“如何做”——即池邻近违规者算法找到任何数字序列的最佳单调拟合的优雅逻辑。但是,一个物理或数学原理的真正美妙之处不仅在于其内在的优雅,还在于其应用的广度和多样性。为什么这样一个简单的想法如此重要?它出现在哪里?事实证明,答案是“几乎无处不在”。从亚原子世界到我们星球广阔的生态系统,从智能机器的逻辑到金融经济学,这个强制执行秩序的单一原则在各个领域都找到了用武之地。让我们来一次这些应用之旅。你会看到,同一个简单的想法,就像一把万能钥匙,在各种各样的领域中解开了难题。

伟大的校准器:教模型变得诚实

或许,保序回归最常见和最直观的角色是作为“校准器”。想象你有一个温度计,它是一致的——当温度升高时,它的读数总会上升——但它不准确。当实际温度是25度时,它可能读作30度;当实际是40度时,它读作50度。你所需要的是一个“校正曲线”,将温度计的读数映射到真实温度。保序回归恰好为许多机器学习模型的输出提供了这种校正。

例如,许多分类器产生的是一个“分数”而不是真实的概率。更高的分数可能意味着模型对其预测更有信心,但这种信心可能存在系统性的错位——就像一个过度自信的学生,对所有答案都深信不疑,即使是错误的答案。模型的分数与真实概率是单调相关的(我们希望如此!),但它们并不相等。我们需要校准它们。

考虑感知机,这是机器学习中最早、最简单的模型之一。它的输出是基于输入线性组合的原始分数。虽然我们可以设计巧妙的方法使这个分数更稳定,但它仍然只是一个分数,而不是一个真实可信的概率。通过在一个验证数据集上收集模型的分数,并将它们与实际结果进行比较,我们可以使用保序回归来学习一个非递减函数,将原始分数映射到经过良好校准的概率。我们甚至可以使用像 Brier 分数这样的指标来衡量模型“诚实度”的提升,该指标会惩罚那些与真实结果频率不匹配的预测。

这种对校准的需求不仅仅是一个学术上的好奇心;它可能事关生死。在医学领域,可能会开发一个模型,根据患者的电子健康记录来预测其发展成如败血症等严重疾病的风险。例如,一个k-近邻(k-NN)模型可能会通过查看相似患者(“邻居”)中发展成败血症的比例来估计此风险。这个比例是一个分数,但它是一个可靠的概率吗?如果模型报告30%的风险,医生能相信在100个这样的患者中,大约有30个会真的生病吗?保序回归就是这样一个工具,它让我们能够将这些原始、直观的分数转化为能够自信地指导临床决策的可靠概率。

同样的原理也延伸到了基础科学的前沿。在高能物理学中,科学家们筛选来自巨型粒子加速器的数据,以寻找新粒子或新现象的证据。这通常涉及一个区分“信号”(有趣的事件)和“背景”(普通的事件)的分类器。分类器的输出分数是关键证据,但要进行统计上严谨的分析,这个分数必须转换成真实的概率。同样,保序回归被用来创建这个校准图,确保最终的科学结论建立在坚实的统计基础之上。

如果我们不进行校准会怎样?其后果可能会波及我们的整个科学过程。在主动学习中——这是一种机器学习范式,算法可以选择它想从哪些数据中学习——一个常见的策略是查询模型最不确定的点。模型的不确定性通常在其预测概率接近 0.50.50.5 时最高。如果一个模型校准得很差——比如说,它将接近 0.50.50.5 的分数分配给一类它不理解的异常值,而真实概率实际上接近 000 或 111——它就会浪费时间和预算在这些信息量不足的点上请求标签。用保序回归校准模型的输出,可以提供一个更忠实的不确定性度量,从而带来更智能、更高效的学习策略。这个原理在许多复杂、数据驱动的领域都在发挥作用,例如在系统生物学中,用于从基于网络的原始分数中优先筛选候选生物标志物。

自然秩序的强制执行者

除了校准之外,保序回归还有一个更根本的用途:它可以将一个自然的、预期的秩序强加于杂乱的数据或一组逻辑上应保持一致的估计值之上。

自然界常常是单调的。我们期望年老的动物比年幼的动物有更高的死亡概率(在婴儿期之后)。我们期望土壤表层比深层更湿润。但是当我们去测量这些东西时,我们的数据不可避免地是含噪声的。3岁驯鹿的经验死亡率可能略高于4岁驯鹿,这仅仅是因为我们样本中的随机偶然性。保序回归扮演了一个平滑器的角色,找到了与我们含噪声的观测最接近的非递减(或非递增)序列。这不仅仅是为了美观;施加这种理论上的单调性可以让我们对重要的衍生量(如驯鹿种群的预期寿命)有更稳健的估计。

强制执行秩序的想法可以以非常抽象的方式应用。考虑分位数回归问题,我们试图估计一个分布的各种分位数——比如,在给定教育水平下收入的第10、第50(中位数)和第90百分位数。逻辑上,第10百分位数的收入必须小于或等于第90百分位数的收入。然而,当我们在有限数据上拟合这些模型时,得到的回归线有时会交叉,导致荒谬的预测,即对于某些输入,第10百分位数高于第90百分位数!保序回归提供了一个优美的解决方案。对于任何给定的输入 xxx,我们可以取预测分位数的三元组 (q^0.1(x),q^0.5(x),q^0.9(x))(\hat{q}_{0.1}(x), \hat{q}_{0.5}(x), \hat{q}_{0.9}(x))(q^​0.1​(x),q^​0.5​(x),q^​0.9​(x)),并使用保序回归找到最接近的非递减三元组。这里,我们不是对特征 xxx 施加单调性,而是对分位数水平 τ\tauτ 施加单调性。这以一种有原则的方式修复了我们模型的逻辑不一致性。

模型与算法的构建模块

在其最强大的化身中,保序回归不仅仅是一个数据处理工具;它是构建更复杂模型和算法的基本构建模块。从数学上讲,它可以被看作是一种“投影”——一种将任何点(一个数字向量)找到其在受限空间(所有单调向量的集合)内最近点的方法。

这个视角对于解决复杂的科学逆问题至关重要。例如,在环境科学中,人们可能使用探地雷达(GPR)来推断不同深度土壤的湿度含量。这涉及到反演雷达信号以重建湿度剖面。这类逆问题是出了名的困难和不适定的。然而,我们可以引入物理知识来提供帮助。我们有一个强烈的先验期望,即土壤湿度应该是深度的非递增函数。我们可以将这个物理约束直接构建到我们的优化算法中。一种称为投影梯度下降的强大方法正是这样做的:它在标准的优化步骤和将结果“投影”回物理上合理的解集之间交替进行。那个投影步骤——强制估计的湿度剖面为非递增——正是保序回归所做的工作。

这种“构建模块”的特性也以其他形式出现。人们可以通过平均许多极其简单的两级保序模型的预测,来构建一个灵活的、非线性的单调回归模型——一种“保序随机森林”。它也作为高级统计流程中的关键组成部分出现,例如在生存分析中,它可以用来校准绝对风险估计,而这些估计本身又是通过结合其他非参数方法(如 Kaplan-Meier 估计量和刀切法)得出的。

诊断专家的工具

最后,在一个令人愉快的转折中,我们可以使用保序回归不是为了修复模型,而是为了诊断它。假设你有一个深度神经网络,它已经学习了某些数据的表示。你想知道这个学习到的表示是否捕捉到了标签中某些潜在的序数结构(例如,“小”、“中”、“大”)。

你可以通过以下方式来探测这一点:取学习到的表示向量,将它们投影到一条线上,并检查得到的标量值是否与有序标签呈单调关系。标签本身可能与投影分数并非完全单调。那么,它们的非单调程度如何?我们可以通过使用保序回归来找到与标签最佳的单调拟合来回答这个问题。原始标签与这个理想单调拟合之间的平均差异,给了我们一个单一的数字,量化了学习表示中的“非单调性程度”。它成了一个诊断工具,用来衡量模型对世界内部理解的质量。

从一个整理数字序列的简单工具开始,我们看到保序回归发展成为一个强大的原则,用于校准模型、强制执行理论一致性、构建复杂的算法以及诊断复杂系统的内部运作。它在如此多不同领域的效用,证明了简单、优雅的数学思想所具有的统一力量。