try ai
科普
编辑
分享
反馈
  • 分块平均法

分块平均法

SciencePedia玻尔百科
核心要点
  • 在序列测量不独立的相关数据中,标准误差计算会严重低估不确定性。
  • 分块平均法通过将相关数据分组为更大的块来纠正这一点,这些块在平均意义上彼此统计独立。
  • 通过绘制估计误差随块大小增加的变化图,一个特征性的平台区会揭示平均值的真实统计误差。
  • 该方法是确保在计算物理学、金融学和机器学习等多个领域获得可靠定量结果的重要工具。
  • 分块的概念与重整化群有着根本的联系,后者是现代物理学中用于理解系统在不同尺度下行为的强大理论框架。

引言

通过对多次测量取平均值来提高准确性这一简单行为是科学实践的基石。这个过程能有效减少随机误差,但它依赖于一个关键假设:每次测量都是统计上独立的。在许多现实世界和计算系统中——从股票市场的波动到模拟中的原子运动——这个假设都不成立。数据点常常拥有对先前状态的“记忆”,这一属性被称为相关性。当数据相关时,计算误差的标准方法会失效,导致对不确定性的严重低估和一种虚假的精确感。

本文介绍分块平均法,这是一种为解决这一问题而设计的强大而巧妙的方法。它提供了一种稳健的方式来从相关数据中确定真实的统计误差,从而恢复我们对结果的信心。首先,在“原理与机制”部分,我们将探讨该方法背后的基本思想,学习如何将数据分组为块,并理解如何解读由此产生的“分块图”以找到正确的误差估计。随后,“应用与跨学科联系”部分将展示该方法在从统计力学、计算化学到金融学和人工智能等广泛领域中不可或缺的作用,揭示其惊人的多功能性和深刻的理论联系。

原理与机制

平均的欺骗性简单

所有测量的核心都有一个让人安心且直观的想法:如果你想要一个更准确的答案,只需进行更多次测量并取其平均值。如果你只测量一次桌子的长度,可能会有一点偏差。如果你测量一百次并对结果取平均,你就会对你的答案更有信心。随机误差——比如手轻微的颤抖或视差——往往会相互抵消。我们学到,平均值的不确定性会与1/N1/\sqrt{N}1/N​成比例缩小,其中NNN是测量次数。

这个强大的原理非常有效,但它依赖于一个关键且通常不言而喻的假设:每次测量都是一个完全独立的事件。你第一次测量的误差绝不能对第二次的误差产生任何影响。但如果它有影响呢?如果你的数据有记忆呢?

想象一下,你正在运行一个复杂的计算机模拟,也许是模拟液体中的原子,或是股票市场的波动。模拟的每一个新状态都不是从头生成的,而是对前一个状态的微小修改。一组瞬间聚集在一起的原子,在下一刻很可能仍然有些聚集。一只刚刚上涨的股票,由于多种原因,再次上涨的可能性略高于下跌。这些数据点并非互不相干;它们像一个家庭,每一个都与上一个有几分相似。这个属性被称为​​相关性​​。

当相关性出现时,我们那套舒适的1/N1/\sqrt{N}1/N​误差法则就彻底失效了。如果每个数据点都与其邻近点相似,那么收集更多数据并不像我们想象的那么有效。这就像试图通过调查一个人,然后是他们的配偶,再然后是他们的隔壁邻居来衡量公众意见。你可能得到了一百个意见,但它们不是一百个独立的意见。对于具有正相关性(即一个高值倾向于后跟另一个高值)的数据,天真的误差计算将严重低估真实情况。你的确定性将远超你应有的程度。这对任何科学家来说都是一个微妙但危险的陷阱。我们如何摆脱它呢?

一个简单的想法:分组的力量

解决方案是一个既简单又强大的绝妙主意:​​分块平均法​​。如果单个数据点与其直接相邻的数据点过于“亲密”,那我们就把视角拉远。我们可以将序列数据分成一系列不重叠的数据块,即​​块​​。然后,我们为每个数据块计算平均值。这些新值被称为​​块平均值​​。

让我们通过一个具体例子来看看它是如何工作的。假设一个模拟给了我们以下16个相关的能量测量值: [−10.2,−10.5,−10.3,−10.1,−9.8,−9.5,−9.7,−9.9,−10.4,−10.7,−10.8,−10.6,−10.0,−9.8,−9.6,−9.4][-10.2, -10.5, -10.3, -10.1, -9.8, -9.5, -9.7, -9.9, -10.4, -10.7, -10.8, -10.6, -10.0, -9.8, -9.6, -9.4][−10.2,−10.5,−10.3,−10.1,−9.8,−9.5,−9.7,−9.9,−10.4,−10.7,−10.8,−10.6,−10.0,−9.8,−9.6,−9.4] 我们将它们分组为大小为 Lb=4L_b = 4Lb​=4 的数据块。

  • 块 1: [−10.2,−10.5,−10.3,−10.1][-10.2, -10.5, -10.3, -10.1][−10.2,−10.5,−10.3,−10.1]. 平均值 = −10.275-10.275−10.275.
  • 块 2: [−9.8,−9.5,−9.7,−9.9][-9.8, -9.5, -9.7, -9.9][−9.8,−9.5,−9.7,−9.9]. 平均值 = −9.725-9.725−9.725.
  • 块 3: [−10.4,−10.7,−10.8,−10.6][-10.4, -10.7, -10.8, -10.6][−10.4,−10.7,−10.8,−10.6]. 平均值 = −10.625-10.625−10.625.
  • 块 4: [−10.0,−9.8,−9.6,−9.4][-10.0, -9.8, -9.6, -9.4][−10.0,−9.8,−9.6,−9.4]. 平均值 = −9.7-9.7−9.7.

我们已将原始的16个点的相关序列转换成了一个新的、更短的4个块平均值序列:[−10.275,−9.725,−10.625,−9.7][-10.275, -9.725, -10.625, -9.7][−10.275,−9.725,−10.625,−9.7]。

现在是见证奇迹的时刻。分块平均法的核心假设是:如果数据块足够长,块平均值之间的相关性就应该可以忽略不计。第一个块内的随机波动将被平均掉,到下一个块开始时,过程的“记忆”已经被遗忘。我们现在可以把新的块平均值序列当作统计上独立的测量值来处理。而对于独立测量,我们确切地知道如何计算平均值的标准误差!我们只需对新的这4个块平均值应用标准公式即可。我们已经将一个难题(相关数据)转化为了一个简单问题(不相关数据)。这个方法的一个巧妙之处在于,总平均值保持不变;块平均值的平均值始终与原始数据的平均值相同。我们没有改变答案,只改变了对其不确定性的估计。

寻找平台区

这立刻引出了一个关键问题:数据块应该多大?如果太小,块平均值仍然会相关,让我们回到低估误差的老问题上。如果太大,我们可能没有足够的数据块来获得一个可靠的误差估计。

为了找到合适的大小,我们不只选择一个。我们尝试一系列的块大小,看看会发生什么。我们计算块大小为1时的标准误差(这正是那种天真、不正确的误差),然后是块大小为2、4、8等等。然后我们绘制估计误差随块大小变化的函数图。这被称为​​分块图​​,它所揭示的信息是整个方法的关键。

对于来自具有正相关性模拟的典型数据,该图具有一个特征形状:

  1. 当块大小 b=1b=1b=1 时,估计值很低。这是我们最初忽略了相关性的天真误差。

  2. 随着块大小 bbb 的增加,估计误差也随之增加。这是因为数据块开始变得足够长,能够“包含”短程相关性。每个块内部的方差在增长,我们的误差估计也变得更加真实。

  3. 最后,当块大小超过系统的特征​​相关时间​​——即系统记忆消退的时间尺度——奇妙的事情发生了。块平均值之间变得真正相互独立。估计误差停止增长并趋于平稳,形成一个稳定的​​平台区​​。

这个平台区的高度就是我们对真实统计误差的最佳估计。分块图向我们揭示了这一点。这个平台区的值不仅仅是一个数字;它与系统潜在的物理学深刻相连。它包含了关于系统动力学的基础信息,这些信息被封装在一个称为​​积分自相关时间​​的量中。找到平台区就是找到真相。

分块的艺术与科学

当然,自然界从不那么简单。找到这个平台区既是一门科学,也是一门艺术。主要的挑战在于一个根本性的权衡。当我们增加块大小 bbb 以确保数据块独立时,我们同时减少了数据块的数量 Nb=N/bN_b = N/bNb​=N/b。如果我们把数据块做得太大,以至于我们只有三四个数据块,我们就无法得到它们方差的可靠估计。仅从三个点计算出的方差本身就是一个噪声很大的数字!这种统计噪声会在我们的分块图上表现为在非常大的块大小处的无规律跳动和下降,从而掩盖我们寻求的美丽平台区。

因此,实用的策略是增加块大小,直到出现一个清晰的平台区,同时确保你仍有足够数量的数据块(可能至少几十个)以使统计结果可信。

思考块大小的极端情况能给我们带来深刻的洞见。

  • ​​块大小 b=1b=1b=1​​:这简化为天真的标准误差计算,将每个数据点都视为独立的。对于正相关数据,这必然会低估真实误差。
  • ​​块大小 b=Nb=Nb=N​​:此时,我们只有一个包含所有数据的数据块。单个点的方差是多少?这个问题毫无意义。块平均值方差的公式涉及除以 (Nb−1)(N_b-1)(Nb​−1),在这种情况下是 1−1=01-1=01−1=0。该方法完全失效,得出一个未定义的结果。这个数学上的失败是一个至关重要的警示信号:你无法从单个对象中测量变异。

或许,关于相关性作用的最优雅的演示来自一个简单的思想实验。如果我们把相关的时间序列简单地打乱,将数据点完全随机排列会怎样?这种打乱破坏了时间上的相关性——时间 ttt 的值与时间 t−1t-1t−1 的值不再有任何联系——但它保留了完全相同的一组数值。如果我们现在对这些打乱后的数据应用分块方法,分块图将是完全平坦的!对于每个块大小,估计的误差都是相同的,因为数据从一开始就是独立的。这证明了分块平均并非某种数学戏法;它是一个专门为诊断和校正时间顺序效应而设计的工具。

平台区之外:一种诊断工具

分块图能告诉我们的甚至更多。如果我们的数据是​​负相关​​的,或称​​反持续性​​的,即一个高值很可能后跟一个低值,那会怎样?在这种情况下,数据点会主动地试图相互抵消,使得平均值的收敛速度快于独立数据。天真的误差估计(b=1b=1b=1)实际上高估了真实误差。分块图会呈现下降趋势,然后才在正确的、较低的误差值处稳定成一个平台区。

如果该图根本不形成平台区呢?如果随着我们增加块大小,估计的误差只是缓慢地、无情地持续攀升呢?这不是方法的失败,而是一个深刻的发现。它告诉我们,我们的系统表现出​​长程依赖性​​,其中相关性衰减得如此之慢(如幂律),以至于它们实际上具有无限的记忆。无论我们将数据块做得多大,它们都永远不会变得真正独立。在这种情况下,分块平均法充当了一个强大的诊断工具,揭示了我们数据中更深层、更复杂的结构,需要更高级的分析方法。

分块平均法是现代计算科学的基石,这不无道理。它很稳健,通常比更直接的方法(如尝试对充满数值噪声的自相关函数进行积分)表现得更好。但更重要的是,它很优美。它体现了物理学家解决问题的方式:面对一个复杂的、相互作用的系统,找到一种新的观察方式——一组新的变量——使问题再次变得简单。它不改变数据背后的现实;它只是提供了一个正确的透镜,通过它来测量其真实的不确定性。

应用与跨学科联系

我们花了一些时间来理解分块平均法的机制——一个巧妙的统计工具,用于处理“粘滞”的秒表,其中每次计时都不完全独立于上一次。我们看到,对于相关数据,平均值误差的天真公式(像1/N1/\sqrt{N}1/N​一样缩小)是一个危险的谎言。它承诺了一种我们根本不具备的精度。分块平均法提供了补救措施:通过将数据分组为比相关时间更大的块,我们创建了一组新的、几乎独立的“超级观测值”,使我们能够恢复对真实不确定性的可靠估计。

现在,我们已经打磨好了新工具,真正的乐趣开始了。我们可以在哪里使用它?理解一个方法是一回事,但完全欣赏它的力量和普适性则是另一回事。你可能认为这只是少数专家的一个小众技巧。事实上,它是一把钥匙,能在从物理学核心到金融和人工智能前沿等一系列令人惊讶的领域中,解锁可靠的答案。让我们踏上旅程,看看它的实际应用。

物理学家的日常工具:驯服模拟

分块平均法最自然的应用领域是计算物理学和化学。想象一下我们正在运行一个大规模的计算机模拟,一个盒子里的宇宙。我们可能正在模拟液氩的行为,观察数万亿次的相互作用以理解其性质。我们仔细追踪诸如动能或压力等可观测量在每个时刻的值。这就给了我们一个很长的时间序列数据。

问题在于,我们模拟的宇宙在一个瞬间的状态与前一个瞬间的状态紧密相连。分子不会随机传送;它们连续移动,推拉着它们的邻居。这就产生了一个时间序列,其中每个数据点都带有之前状态的“记忆”——换句话说,数据是相关的。如果我们天真地计算平均压力及其标准误差,我们就是在欺骗自己。我们画出的误差棒会小得离谱,让我们对结果产生虚假的信心。分块平均法是纠正这一问题的标准、必要程序。它使我们能够有理由地自信地宣称,我们模拟的液体的压力是,比如说,(100±2)(100 \pm 2)(100±2)个大气压,而不是天真计算可能得出的误导性结果(100.0±0.1)(100.0 \pm 0.1)(100.0±0.1)。没有它,统计力学中的许多定量工作都将建立在统计的沙堡之上。

诊断的艺术:我们的机器在说谎吗?

分块平均法的用途不止于计算最终的误差棒。它可以转变为一个强大的诊断工具,用来问一个更基本的问题:我们的模拟是否已经开始产生有意义的数据了?

当我们开始一个模拟时——也许是蛋白质折叠或星系形成——它通常处于一个远离平衡的人为状态。它需要时间来“弛豫”并稳定到一种典型的、稳定的行为,我们称之为平稳态。对数据的初始非平稳部分进行统计是毫无意义的;这就像试图测量一个仍在成长中的孩子的平均身高。

那么我们如何知道系统已经达到平衡了呢?我们可以使用分块平均程序本身!我们不仅计算一个块大小的平均值估计方差,而是计算一系列递增块大小的方差,并绘制结果图。对于一个行为良好、平稳的时间序列,这条“分块曲线”具有一个特征形状:它最初上升,然后变平,形成一个稳定的平台区。这个平台区表明我们的数据块已经变得比系统的相关时间更长,我们的方差估计已经收敛到其真实值。

但如果系统仍在漂移或平衡过程中,块间方差会随着块变大而持续增长,曲线将永远不会变平。看到一条持续上升的分块曲线是一个警示信号,是我们自己的分析发出的警告,表明系统尚未平稳。此外,从这个平台区的方差值,我们可以反向估算一个关键的物理参数:​​积分自相关时间​​,τint\tau_{\text{int}}τint​。这个数字实质上告诉我们系统的“记忆”有多长——即它“忘记”其先前状态所需的时间。这不仅仅是一个统计学上的人为产物;它是我们正在模拟的系统的一个物理属性。

跨越学科鸿沟:从分子到市场与机器

相关数据的问题绝不仅限于物理学。任何随时间展开并带有某种形式记忆的过程都会产生它。因此,我们的工具在许多其他领域中找到了令人惊讶且强大的应用。

华尔街之旅

考虑一下高频金融交易这个狂热的世界。每秒采样的股票价格并非随机游走。存在着众所周知的相关模式。例如,“买卖价差反弹”会产生负相关,即价格上涨后略微更可能下跌,反之亦然,因为交易在买入价和卖出价之间来回跳动。相反,动量效应可以产生正相关。一个想要估计一只股票在一分钟内平均回报真实不确定性的量化分析师不能忽视这些效应。应用分块平均法,例如将逐秒的回报分组为一分钟的块,可以提供标准误差的稳健估计,防止交易员基于虚假的精度做出决策。

教会机器学习

在人工智能和机器学习的世界里,相关数据是一个持续的挑战。以训练一个机器学习模型为例,该模型基于分子动力学模拟的数据来预测分子属性。测试此类模型的一个常用方法是kkk折交叉验证,即将数据分成kkk个子集,或称“折”。模型在k−1k-1k−1个折上进行训练,并在剩下的一个折上进行测试,这个过程重复kkk次。这只有在测试数据与训练数据相互独立时才有效。但如果你只是将按时间排序的模拟帧随机散布到各个折中,你将不可避免地把高度相关的相邻帧放入不同的集合中。这种“数据泄露”使得模型看起来比实际更准确,因为它正在用与训练数据几乎相同的数据进行测试。

解决方案?分块交叉验证。通过首先将时间序列分组为大的、去相关的块(块大小大于自相关时间),然后将整个块分配到不同的折中,我们可以确保我们的训练集和验证集近似独立。这为模型的真实性能提供了一个更诚实可靠的估计。

类似的问题也出现在强化学习(RL)中,AI代理通过试错来学习。代理收到的奖励流通常是相关的——一个好的决策可能导致一连串的成功。为了可靠地比较两个不同版本的RL代理,我们需要它们平均性能的准确误差棒。再一次,分块平均法提供了获得这些误差棒的方法,让研究人员能够知道他们的新代理是真正更聪明了,还是仅仅是运气好。

工程师的“看门狗”

让我们转向工程背景:工厂中一个关键性能指标(KPI)的实时异常检测器,比如一个化学反应器的温度。温度会波动,但这些波动有记忆性。我们如何判断一个波动是正常的,还是预示着真正的问题?一个固定的警报阈值太死板了。更好的主意是使用一个基于系统近期行为的动态控制限。我们可以计算温度的移动平均值,但在它偏离多远时我们应该感到担忧呢?分块平均法给了我们答案。通过对近期数据的移动窗口连续应用分块方法,我们可以得到标准误差的实时、稳健估计。这个标准误差定义了移动平均值周围一个自然的“正常范围带”。如果当前平均值超出了这个动态调整的范围带,系统就会发出警报。这就创建了一个智能的、自适应的看门狗,它能理解所监控系统的自然节律 [@problem_-id:3102642]。

深层联系:从平均分块到现实的构造

到目前为止,我们已经将分块平均法看作是数据分析的实用工具。我们将在最后一站结束我们的旅程,揭示一个更深、更深刻的联系。将数据分块平均这一简单的行为,原来是引出现代物理学最强大的理论框架之一——​​重整化群​​——的关键洞见。

在1960年代,物理学家 Leo Kadanoff 正在思考磁体接近其临界点——即它们自发磁化的温度——时的行为。他想象将晶格上的微观原子自旋分组为块,然后为每个块定义一个新的“块自旋”,也许是通过取其内部自旋的平均值。然后他提出了一个绝妙的问题:由块自旋构成的系统看起来是怎样的?它的性质,比如它的相关性和对磁场的响应,与原始系统有何关系?

这正是我们一直在讨论的过程,但被看作是一种物理变换而非统计变换。让我们考虑其中一个块变量的方差。正如我们在最初的讨论中看到的,块平均值的方差 ⟨Sk2⟩\langle S_k^2 \rangle⟨Sk2​⟩,并不仅仅是原始方差 σ2\sigma^2σ2 除以块大小 bbb。由于原始自旋之间的相关性,公式更为复杂。

这是重整化群的第一步:观察当我们“缩小”并改变我们的观察尺度(块大小)时,对一个系统的描述如何变化。通过重复应用这个分块过程,物理学家们发现,许多不同的微观系统在这种粗粒化变换下,会趋向于少数几个简单的、普适的描述之一。这解释了普适性之谜——为什么像水沸腾和磁铁失去磁性这样截然不同的系统,在它们的临界点附近会表现出完全相同的行为。

因此,我们发现了一种优美而令人满意的统一。一个从计算机模拟中获得真实误差棒的实用方法,竟然是通往理解支配所有尺度下物质结构的深层标度律的道路上的第一步。谦逊的分块平均法不仅仅是一种统计修正;它是一扇窥探物理世界基本运作方式的窗户。