try ai
科普
编辑
分享
反馈
  • Ward 方法

Ward 方法

SciencePedia玻尔百科
核心要点
  • Ward 方法是一种层次聚类算法,它通过顺序合并簇来最小化总簇内平方和(WCSS)的增量。
  • 该算法对特征缩放高度敏感,并且需要数据标准化,因为其合并成本的计算基于欧几里得距离。
  • 它具有产生紧凑、球形且大小相对均等的簇的自然趋势,因此适合识别分离良好、呈球状的群体。
  • 该方法在统计学上是有依据的,可作为拟合高斯混合模型的一种近似方法,这为确定最佳簇数提供了一种原则性的方式。
  • 应用 Ward 方法需要意识到现代挑战,包括计算规模以及确保公平性和避免有偏见结果的伦理责任。

引言

分类是人类认知的基础;我们不断地将物体、思想和数据点分组,以理解复杂的世界。在数据科学中,这一过程通过聚类分析得以形式化,聚类分析是一套用于发现数据中自然分组的技术。但是,我们如何以数学上严谨的方式定义一个“自然”的群组呢?虽然存在许多算法,但 Ward 方法因其优雅而直观的原则而脱颖而出:通过总是选择对现有群组干扰最小的合并来构建簇的层次结构。

本文探讨了通过深入研究 Ward 方法的机制和内涵来指导聚类过程的形式化规则的需求。它超越了简单的程序性描述,旨在提供对该算法特性的深刻理解。您将不仅学习到该方法如何工作,还将了解到它为何如此工作、其固有的偏见是什么,以及在何处能最有效地发挥其优势。

旅程始于“原理与机制”一章,我们将在此剖析算法的数学核心——方差最小化,并探讨其对欧几里得几何和数据缩放的关键依赖。随后,“应用与跨学科联系”一章将展示 Ward 方法的实际应用,揭示它如何在从基因组学到市场营销等领域中发现有意义的结构,同时也将直面大数据和算法公平性等现代挑战。

原理与机制

想象一下,你刚把一大盒各式各样的珠子倒在地板上。你的任务是把它们分成几个合理的小组。你会如何开始?你很可能会先捡起两颗看起来非常相似的珠子——也许它们的颜色和大小相同——然后把它们放在一起。你会继续这个过程,合并单个的珠子和小群组,总是选择看起来最自然的合并,即那种能使你新形成的较大群组内部尽可能保持一致的合并。本质上,你正在脑海中运行一个聚类算法。

Ward 方法正是对这种直觉的精确数学表述。它为每一步中何为“最佳”合并提供了明确的规则:选择导致所有簇内“方差”或“离散度”增量最小的合并。它寻求以最小的阻力路径,实现对数据的整洁、层次化的分组。

问题的核心:最小化离散度

为了精确地定义“离散度”这个概念,我们需要一种衡量它的方法。假设我们有一个数据点簇。我们首先可以找到它的中心,我们称之为​​质心​​,它就是簇中所有点的平均位置。然后,对于每个点,我们可以测量它到这个质心的平方距离。​​簇内平方和 (WCSS)​​,也称为​​误差平方和 (SSE)​​,就是所有这些平方距离的总和。

WCSS(C)=∑x∈C∥x−μC∥22\mathrm{WCSS}(\mathcal{C}) = \sum_{x \in \mathcal{C}} \lVert x - \mu_{\mathcal{C}} \rVert_2^2WCSS(C)=x∈C∑​∥x−μC​∥22​

可以把 WCSS 看作是衡量一个簇“不满意”或“混乱”程度的指标。小的 WCSS 意味着所有点都紧密地聚集在它们的中心周围——一个紧凑、令人满意的簇。大的 WCSS 则意味着点分布得非常广泛,代表一个松散、一致性较差的群组。一个簇集合的总 WCSS 就是每个独立簇的 WCSS 之和。

Ward 方法的目标是执行一系列的合并,从单个数据点开始,使得在每一步中,这个总 WCSS 的增量尽可能小。它本质上是一种方差最小化算法。

深入探究:合并成本公式

那么,当我们合并两个簇,比如 A\mathcal{A}A 和 B\mathcal{B}B 时,我们如何计算这个“WCSS 的增量”呢?有人可能会认为这需要从头开始重新计算所有东西。但这里就体现了数学上的第一个优雅之处。WCSS 的增量,我们称之为合并成本 Δ(A,B)\Delta(\mathcal{A}, \mathcal{B})Δ(A,B),有一个非常简洁且富有洞察力的公式:

Δ(A,B)=nAnBnA+nB∥μA−μB∥22\Delta(\mathcal{A}, \mathcal{B}) = \frac{n_{\mathcal{A}} n_{\mathcal{B}}}{n_{\mathcal{A}} + n_{\mathcal{B}}} \lVert \mu_{\mathcal{A}} - \mu_{\mathcal{B}} \rVert_2^2Δ(A,B)=nA​+nB​nA​nB​​∥μA​−μB​∥22​

让我们来解析这个优美的表达式。它是两项的乘积:

  1. ∥μA−μB∥22\lVert \mu_{\mathcal{A}} - \mu_{\mathcal{B}} \rVert_2^2∥μA​−μB​∥22​:这是你考虑合并的两个簇的质心之间的欧几里得距离的平方。这在直觉上完全说得通。合并两个已经很接近的簇应该只会产生很小的成本,而合并两个相距很远的簇在增加总体离散度方面应该成本非常高。

  2. nAnBnA+nB\frac{n_{\mathcal{A}} n_{\mathcal{B}}}{n_{\mathcal{A}} + n_{\mathcal{B}}}nA​+nB​nA​nB​​:这一项只取决于每个簇中的点数 nAn_{\mathcal{A}}nA​ 和 nBn_{\mathcal{B}}nB​。物理学家会立刻认出这与双体系统的“折合质量”成正比。它的影响是微妙而深刻的。对于固定的质心间距,当簇的大小相等时(nA=nBn_{\mathcal{A}} = n_{\mathcal{B}}nA​=nB​),该项最大;而当一个簇非常大,另一个非常小时,该项最小。这意味着 Ward 方法有一种内在的偏好,倾向于合并较小的簇或保持簇的大小相近。它会惩罚那些将一个小簇与一个大簇合并的操作,因为大簇可能会“吞噬”小簇而其质心位置却没有显著移动。这导致了 Ward 方法一个众所周知的特点:它倾向于产生大小相对均等的簇。

实例演示:一个简单的计算示例

让我们用一个简单的例子来具体说明。假设我们在一个二维空间中有四个样本:S1(−0.5,0)S_1(-0.5, 0)S1​(−0.5,0)、S2(0,0)S_2(0, 0)S2​(0,0)、S3(1,0)S_3(1, 0)S3​(1,0) 和 S4(1,1)S_4(1, 1)S4​(1,1)。我们从四个簇开始,每个簇包含一个点。任何单点簇的 WCSS 都是零,所以我们初始的总 WCSS 是 000。

现在,我们必须考虑所有 (42)=6\binom{4}{2}=6(24​)=6 种可能的首次合并。合并任意两个单点 SiS_iSi​ 和 SjS_jSj​ 的成本由我们的公式给出,其中 ni=1n_i=1ni​=1 和 nj=1n_j=1nj​=1:

Δ(Si,Sj)=1×11+1∥Si−Sj∥22=12∥Si−Sj∥22\Delta(S_i, S_j) = \frac{1 \times 1}{1 + 1} \lVert S_i - S_j \rVert_2^2 = \frac{1}{2} \lVert S_i - S_j \rVert_2^2Δ(Si​,Sj​)=1+11×1​∥Si​−Sj​∥22​=21​∥Si​−Sj​∥22​

成本就是两点之间平方距离的一半。让我们为几对点计算这个值:

  • ​​合并 (S1,S2)(S_1, S_2)(S1​,S2​)​​:Δ=12((−0.5−0)2+(0−0)2)=12(0.25)=0.125\Delta = \frac{1}{2} \left( (-0.5 - 0)^2 + (0 - 0)^2 \right) = \frac{1}{2}(0.25) = 0.125Δ=21​((−0.5−0)2+(0−0)2)=21​(0.25)=0.125。
  • ​​合并 (S2,S3)(S_2, S_3)(S2​,S3​)​​:Δ=12((0−1)2+(0−0)2)=12(1)=0.5\Delta = \frac{1}{2} \left( (0 - 1)^2 + (0 - 0)^2 \right) = \frac{1}{2}(1) = 0.5Δ=21​((0−1)2+(0−0)2)=21​(1)=0.5。
  • ​​合并 (S3,S4)(S_3, S_4)(S3​,S4​)​​:Δ=12((1−1)2+(0−1)2)=12(1)=0.5\Delta = \frac{1}{2} \left( (1 - 1)^2 + (0 - 1)^2 \right) = \frac{1}{2}(1) = 0.5Δ=21​((1−1)2+(0−1)2)=21​(1)=0.5。

在检查了所有六对之后,我们会发现 S1S_1S1​ 和 S2S_2S2​ 之间的合并成本最低。因此,Ward 方法执行这次合并。我们新的簇集合是 {(S1,S2),S3,S4}\{ (S_1, S_2), S_3, S_4 \}{(S1​,S2​),S3​,S4​}。这个新状态的总 WCSS 现在是 0.1250.1250.125,即我们刚刚执行的合并的成本。然后算法会从这个新状态继续进行,重新计算合并新簇 (S1,S2)(S_1, S_2)(S1​,S2​) 与 S3S_3S3​ 或 S4S_4S4​ 的成本,依此类推,直到所有点都归于一个单一的簇中。

警示:尺度的暴政

这种对欧几里得距离的依赖,虽然强大,但也是 Ward 方法的阿喀琉斯之踵。公式 ∥x−y∥22=∑i(xi−yi)2\lVert x - y \rVert_2^2 = \sum_i (x_i - y_i)^2∥x−y∥22​=∑i​(xi​−yi​)2 对所有维度(特征)一视同仁。但如果特征的尺度差异巨大呢?

想象一下,你正在根据两项测量指标对患者进行聚类:摄氏度的体温(范围大约在 36 到 41 度之间)和白细胞计数(范围在 4,000 到 11,000 之间)。体温相差 1 度在临床上是巨大的,但白细胞计数相差 1 则毫无意义。然而,在距离计算中,白细胞计数的巨大数值尺度将完全主导体温。聚类实际上会完全忽略体温。

这不仅仅是假设。考虑这组点:x1=(100,0)x_1=(100, 0)x1​=(100,0)、x2=(101,0.1)x_2=(101, 0.1)x2​=(101,0.1)、x3=(100,10)x_3=(100, 10)x3​=(100,10) 和 x4=(101,10.1)x_4=(101, 10.1)x4​=(101,10.1)。直观上看,这像是两对:(x1,x2)(x_1, x_2)(x1​,x2​) 很接近,(x3,x4)(x_3, x_4)(x3​,x4​) 也很接近。确实,Ward 方法会这样合并它们。但如果第二个特征是用不同的单位测量的,我们将其重新缩放一个 0.010.010.01 的因子呢?这些点就变成了 y1=(100,0)y_1=(100, 0)y1​=(100,0)、y2=(101,0.001)y_2=(101, 0.001)y2​=(101,0.001)、y3=(100,0.1)y_3=(100, 0.1)y3​=(100,0.1) 和 y4=(101,0.101)y_4=(101, 0.101)y4​=(101,0.101)。现在,突然之间,y1y_1y1​ 和 y3y_3y3​ 之间的距离比 y1y_1y1​ 和 y2y_2y2​ 之间的距离小得多。聚类算法会改变它的决定,转而合并 (y1,y3)(y_1, y_3)(y1​,y3​) 和 (y2,y4)(y_2, y_4)(y2​,y4​),揭示出一个完全不同的结构!。

这个教训至关重要:​​在使用 Ward 方法之前,必须对特征进行标准化。​​这通常意味着转换每个特征,使其均值为零,标准差为一(z-score 标准化)。这使得所有特征处于同一起跑线上,确保你发现的结构是数据真实模式的反映,而不是任意测量单位造成的假象。Ward 方法对数据的旋转是不变的,但对这种各向异性缩放高度敏感。

Ward 眼中的世界:欧几里得约束

对欧几里得距离的需求不仅仅是公式层面的问题。将“质心”作为质量中心和将“方差”作为平方偏差之和的概念本身就源于欧几里得几何。如果我们的数据不处于这样的空间中,会发生什么?

在许多领域,如基因组学或文本分析,我们开始时并没有空间中的点,而是有一个成对相似性矩阵,比如患者基因表达谱之间的​​皮尔逊相关性​​。+1 的相关性意味着完全相似,-1 意味着完全反相似,0 意味着没有线性关系。这不是一种距离。你不能直接从相关性矩阵计算出质心或 WCSS。将 Ward 方法应用于像 d=1−rd = 1 - rd=1−r 这样的相异性度量在数学上是无效的,并且可能导致荒谬的结果。这就像试图用一张地形图在城市里导航——你使用的工具与你所拥有的信息类型不匹配。

那么,Ward 方法在这些领域就无用武之地了吗?并非如此。我们只需要搭建一座桥梁。事实证明,如果你的数据点(例如,患者的基因谱)首先被标准化,然后归一化为长度为一(这样它们都位于一个巨大的超球面表面上),一个神奇的联系就会出现。任意两个这样的点之间的平方欧几里得距离与它们的相关性成正比:

∥x^i−x^j∥2=2(1−rij)\lVert \hat{x}_i - \hat{x}_j \rVert^2 = 2(1 - r_{ij})∥x^i​−x^j​∥2=2(1−rij​)

这是几何学和统计学之间一个深刻的联系!它告诉我们,我们可以取我们的相关性矩阵,将每个相似性 rijr_{ij}rij​ 转换为一个相异性 dij2=2(1−rij)d_{ij}^2 = 2(1-r_{ij})dij2​=2(1−rij​),得到的矩阵将是一组合法的平方欧几里得距离。我们可以将这个矩阵输入到 Ward 方法中,整个过程在数学上就变得合理了。树状图的高度将再次可以被解释为方差的增加。如果我们的距离矩阵由于噪声而不完全是欧几里得的,可以使用像多维缩放或加性校正这样的先进技术将数据投影到一个可以安全应用 Ward 方法的欧几里得空间中。

事物的形状:对球形的偏好

每种聚类算法都有其“个性”,即它“喜欢”发现的形状类型存在偏见。因为 Ward 方法致力于最小化方差,所以它有强烈的偏好去发现紧凑、大致呈球形的簇。这与流行的 k-means 算法所驱动的目标函数相同。它会回避寻找长的、线性的或不规则形状的簇,因为这些簇会有很大的 WCSS。这种行为被编码在算法的数学 DNA 中,可以通过一组称为 Lance-Williams 参数的特定更新规则来描述。

理解这一原则是关键。如果你预期你的数据包含球状的、分离良好的群组——比如不同的患者表型或客户细分——Ward 方法是一个绝佳的选择。如果你正在星系巡天数据中寻找丝状结构,你可能需要另寻他法。该方法的美妙之处不仅在于其优雅的数学基础,还在于理解其特性并将其应用于能真正发挥其优势的地方。

应用与跨学科联系

在我们之前的讨论中,我们剖析了 Ward 方法的内部工作原理,并将其视为一种巧妙的算法,它通过总是进行“最整洁”的合并——即引起方差增量最小的合并——来构建簇的层次结构。这是一个优雅的原则。但是,一个原则,无论多么优雅,其价值仅在于它能为我们揭示多少关于世界的理解。现在,我们踏上一段旅程,去看看这个原则将我们引向何方。我们会发现,这个最小化方差的简单想法是一个出人意料的强大透镜,它能使遗传学、市场营销、金融等不同领域的隐藏结构变得清晰,甚至揭示在一个数据驱动的世界中,公平性这一微妙而关键的挑战。

寻找内聚群体:从基因组到市场

Ward 方法的核心是寻找内聚性。它擅长于发现紧凑的、球状的点群,这在现实世界中通常对应于不同的亚型或类别。

想想复杂的癌症生物学世界。肿瘤并非一个单一的整体;同类型的肿瘤可能具有截然不同的遗传特征,导致不同的临床结果。当科学家分析数百个肿瘤样本的基因表达谱时,他们通常在寻找这些隐藏的亚型。每个样本都是高维“基因空间”中的一个点,目标是观察这些点是否形成不同的云团。这正是 Ward 方法大放异彩之处。其最小化方差的特性非常适合识别共享“协调的全基因组程序”的肿瘤群组——例如,一整套与细胞分裂相关的基因被协同激活。基因空间中的这些紧凑簇代表了真正的生物学亚型。这与其他方法(如平均链接法)形成鲜明对比,后者可能会描绘出连续的生物学“梯度”,例如肿瘤中不同水平的免疫细胞浸润。两种方法无所谓“优劣”;它们只是回答了不同的问题。Ward 方法问的是:“是否存在独特的、内聚的群体?”。

同样的逻辑可以完美地从实验室延伸到市场。想象一下,你是一位试图了解客户的市场营销人员。你手头有关于他们偏好、习惯和人口统计的调查数据。每个客户都是“偏好空间”中的一个点。你的目标是识别“用户画像”——具有相似品味和需求的客户群体。就像处理肿瘤一样,你正在寻找内聚的亚型。Ward 方法可以处理这些数据并构建客户群体的层次结构,识别出相似人群的密集区域。通过在不同层次切割生成的树状图,你可以定义宽泛的、高层次的细分市场,或者深入到更具体的、小众的用户画像,从而实现针对正确受众的定制化营销活动。

选择的几何学:更深入的观察

要真正掌握一个工具,我们必须了解它的特性——它的倾向、它的偏好、它的盲点。Ward 方法,尽管其数学上严谨,但确实有其独特的特性,当我们观察它做决策时,这一点就变得很清楚。

想象一个简单的场景,有几个紧凑的点簇和一个孤立点位于其中两个簇之间。Ward 方法会选择哪种合并方式?它几乎总是会选择将邻近的孤立点并入某个已建立的簇中,而不是试图连接两个大的、相距遥远的簇。为什么?因为合并两个大的、遥远的群组会产生一个巨大的、分散的簇,其方差会非常大——这是一个成本高昂的举动。吸收孤立点是一种更“廉价”的方式来减少簇的数量,同时保持新群组的合理紧凑性 [@problem--id:4572321]。这揭示了该算法的保守性:它偏爱小而整洁的步骤。

这种“几何”思维帮助我们将 Ward 方法与其他强大的技术进行对比,特别是那些在现代数据科学中流行的技术。在单细胞转录组学等领域,我们绘制生物体的细胞图谱,另一种方法已占据主导地位:基于图的聚类。该方法首先构建一个细胞的“社交网络”,将每个细胞仅与其少数几个最近的邻居连接起来(一个 k-NN 图)。然后它在这个网络中寻找“社区”——即那些内部连接比与外部世界连接更紧密的细胞群。

这两种方法的理念差异是深刻的。Ward 方法着眼于整个数据集的全局几何结构,计算质心并根据这些质心之间的距离做出决策。而基于图的方法则舍弃了所有长程距离信息,只关注局部网络拓扑。这可能导致截然不同的结果。在一个沿发育轨迹排列的细胞数据集上,Ward 方法可能会合并两个相距较远的细胞类型,如果它们的质心比其他选择更近的话。然而,基于图的方法会把连接这两种类型的稀疏细胞“桥梁”看作是一个瓶颈,并会自然地在此处分割数据,从而正确地识别出不同的细胞群落。这给我们上了一堂重要的课:你的数据的“结构”完全取决于你选择如何看待它。

此外,Ward 方法并非万能药。在微生物基因组学中,当追踪一次疫情爆发时,分析师面临的是密集的、相关的病原体簇、起“桥梁”作用的菌株以及背景噪声。在这里,目标是稳健地识别核心爆发群体,而不被桥梁菌株所迷惑,并明确地将不相关的病例标记为噪声。Ward 方法在这里表现不佳。它假设每个点都属于一个簇,其最小化方差的特性并非为处理复杂形状或噪声而设计。像 DBSCAN 这样的基于密度的算法,它将簇定义为密集区域并内置了噪声概念,通常是完成这项工作的更好工具。

统一的原则:统计学基础

在很长一段时间里,像 k-means 和 Ward 方法这样的聚类算法被看作是巧妙的启发式方法。它们有效,但它们真正在做什么呢?科学中最深刻的洞见往往来自统一,来自意识到两个看似不同的想法其实是同一枚硬币的两面。

Ward 方法就存在这样一种统一。事实证明,最小化方差增量的凝聚过程不仅仅是一条随意的规则。实际上,它是一个更深层次统计任务的近似:为高斯混合模型(GMM)寻找最佳拟合。想象一下你的数据是由一组“钟形”——即球形的高斯分布——生成的。如果你假设所有这些钟形的大小(方差)都相同,那么确定这些钟形中心的位置以及哪些点属于哪个钟形的问题,就可以通过 Ward 方法或 k-means 近似解决。

这种联系具有变革性意义。它将 Ward 方法从一个单纯的程序性配方提升为一种有原则的统计估计技术。它也为聚类分析中最棘手的问题之一——到底有多少个簇?——提供了一个成熟的框架。我们不再依赖于视觉上的“肘部”图,而是可以使用信息论中强大的工具,如贝叶斯信息准则(BIC)。BIC 对每种可能的簇数评估 GMM,奖励好的拟合度(高似然性),同时惩罚复杂性(过多的参数)。在原则意义上,使 BIC 最大化的簇数就是数据的“最佳”模型。

这种统计学观点也阐明了该方法的隐含假设。因为 Ward 方法等同于寻找最小化平方误差和的簇,所以它天然地与惩罚方差的风险目标相一致。在金融或能源系统建模中,当试图将大量可能的未来情景缩减为少数几个代表性情景时,如果你的目标是保持结果的均值和方差,Ward 方法是一个绝佳的选择。然而,如果你更关心罕见的极端事件(尾部风险),那么基于最小化绝对误差的方法(与 1-Wasserstein 距离相关)会比与 2-Wasserstein 距离一致的 Ward 方法更为合适。

现代挑战:规模与公平性

我们的旅程在最前沿结束,在这里,Ward 方法的经典原则遇到了现代数据的巨大挑战:其规模及其社会影响。

首先是规模的挑战。当你的数据集有数十亿个点,大到甚至无法存储完整的成对距离矩阵时,会发生什么?强行应用 Ward 方法变得不可能。计算机科学家们已经开发出巧妙的“描摹”(sketching) 技术来克服这个问题。其思想是创建一个小型、轻量级的数据摘要——一个“核集”(coreset) 或到一个低维空间的投影——它能忠实地保留其几何特性。然后可以在这个微小的摘要上运行 Ward 方法以获得一个近似结果,通常还能提供关于结果与精确结果差异程度的可证明保证。这确保了最小化方差的层次结构这一优美的思想在大数据时代依然具有现实意义。

最后,我们来到了所有联系中最关键的一个:公平性。算法是一种工具,和任何强大的工具一样,它可以用来建设,也可以用来破坏。在医学领域,聚类被用来为患者分组以制定量身定制的护理路径。想象一家医院使用 Ward 方法处理患者数据,这些数据除了临床测量值外,还包括保险类型或居住社区等社会经济因素。算法会尽职地找到数学上“最优”的簇。但如果特征表示给予了社会经济因素不应有的权重呢?算法可能会创建出更多反映个人财富而非健康状况的簇。

一项令人不安的假设性研究揭示了这种危险。对 1000 名患者进行聚类,得到了一个“良好”的总体轮廓系数(一种衡量聚类质量的指标),为 0.620.620.62。但当细分来看时,占多数群体的 900 名患者得分很高,为 0.700.700.70,而占少数子群体的 100 名患者得分却是 −0.10-0.10−0.10,这表明他们被系统性地错误聚类了。树状图也讲述了同样的故事:多数群体患者在低方差水平上干净利落地合并,而少数群体患者则被迫以非常高的“成本”并入遥远的簇中。总分掩盖了显著的伤害。

这是一个深刻而令人谦卑的教训。Ward 方法的数学纯粹性——它对最小方差的优雅追求——对背景、伦理和正义是盲目的。它会优化任何被告知要优化的东西。责任落在了我们这些科学家和实践者的肩上,要确保我们选择的特征、使用的度量标准以及进行的评估不仅在数学上是合理的,而且在伦理和社会层面也是负责任的。我们必须始终对结果进行细分分析,质疑我们的假设,并警惕我们对结构的探索不会无意中延续不公。

从一个简单的规则出发,我们穿越了生物学、商业、统计学和计算机科学,最终抵达一个深刻的社会问题。Ward 方法,归根结底,不仅仅是一个算法;它是一面镜子,反映了我们施加于世界的结构,迫使我们反思这个结构是否真实、有用,以及最重要的是,是否公平。