科普
编辑
分享
反馈
  • 最大似然估计 (MLE)
  • 引言
  • 原理与机制
  • 问题的核心:提出正确的问题
  • 一种通用的估计方法
  • 方法的“不合理”有效性
  • 群体的智慧:更多数据意味着什么?
  • 更广阔的图景:关联与局限
  • 应用与跨学科联系
  • 生命的密码:从基因到演化
  • 公共卫生与医学:量化风险与传播
  • 数字前沿:从时间序列到机器学习
  • 通往贝叶斯世界的桥梁

最大似然估计 (MLE)

SciencePedia玻尔百科
定义

最大似然估计 (MLE) 是通过寻找使观测数据概率最大化的值来估计模型参数的一种统计方法。该方法在遗传学、经济学和机器学习等多个科学领域得到广泛应用,并以其一致性和渐近有效性等优良特性著称。最大似然估计在数学上与高斯噪声下的最小二乘法等价,且可以被视为均匀先验分布下贝叶斯最大后验估计的一种特例。

核心要点
  • 最大似然估计(MLE)提供了一种原则性的方法来估计模型参数,即寻找能使观测数据出现概率最大的参数值。
  • 该方法因其出色的长期特性而备受推崇,它具有一致性(收敛于真实参数值)和渐近有效性(对于大数据集而言,是最精确的估计量)。
  • MLE 提供了一套通用的估计“秘诀”,被广泛应用于遗传学、流行病学、经济学和机器学习等不同科学领域,以解决现实世界的问题。
  • 该方法与其他统计学范式紧密相连;在高斯噪声下,它等价于最小二乘法,并且可以看作是均匀先验条件下贝叶斯最大后验(MAP)估计的一个特例。

引言

我们如何将原始数据转化为科学洞见?这个问题的核心在于一个根本性挑战:估计我们用以描述世界的模型中的未知参数。从神经元的放电率到病毒的传播概率,这些参数是赋予我们理论量化力量的数字。虽然直觉通常能提供一个合理的猜测,但科学需要一种更严谨、更普适的方法。这就是最大似然估计(MLE)所扮演的角色,它是现代统计学中最强大、最普遍的原则之一。

本文探讨了 MLE 的理论、机制和广泛应用。它解决了我们如何系统地为模型参数找到“最佳”估计的核心问题,从临时性的解决方案转向一个统一、有原则的框架。您将深入理解 MLE 不仅是如何工作的,还将明白它为何如此有效,以及它在更广阔的统计推断领域中所处的位置。

我们将在“原理与机制”一章中开始,通过颠覆我们熟悉的概率问题来解构似然的核心思想。我们将遵循一个逐步的“秘诀”来寻找最大似然估计,并揭示使该方法如此强大的非凡特性,如有效性和不变性。然后,在“应用与跨学科联系”一章中,我们将穿越不同的科学领域——从遗传学和公共卫生到机器学习和地球物理学——看看 MLE 如何被用来回答关键问题和推动发现,揭示它是一条连接众多学科的共同主线。

原理与机制

问题的核心:提出正确的问题

想象一下,你找到一枚奇怪的硬币。它是公平的吗?你抛了十次,得到七次正面和三次反面。对于这枚硬币出现正面的真实概率(我们称之为参数 ppp),你最好的猜测是什么?你可能会凭直觉说 0.70.70.7,即 7/107/107/10。但为什么呢?是何种深层原理导出了这个看似显而易见的答案?

理解最大似然估计的旅程始于一个微妙但深刻的视角转变。在一个典型的概率问题中,我们假设我们知道模型——比如说,一枚公平的硬币,p=0.5p=0.5p=0.5——然后我们问:“观测到这组特定数据(例如七次正面)的几率是多少?”这是在问给定模型下,数据的概率。

似然(Likelihood)​则将这个问题颠倒过来。我们从数据出发,因为数据是我们唯一确定的东西——我们观测到了它!然后,我们回过头来看所有可能产生这些数据的模型,然后问:“对于哪一个模型,我们观测到的数据最合理?”我们考虑的不再是 P(data∣model)P(\text{data} | \text{model})P(data∣model),而是​似然函数 L(model∣data)L(\text{model} | \text{data})L(model∣data)。它在数学上是相同的表达式,但我们的焦点已经改变。数据现在是一个固定的常量,而模型的参数(比如我们硬币的概率 ppp)成了我们希望探索的变量。

最大似然估计(MLE)原则既简单又强大:模型参数的最佳估计值,就是那个使观测数据变得最可能的参数值。我们寻找使似然函数最大化的参数值。对于我们的硬币,那个凭直觉猜出的 p=0.7p=0.7p=0.7,实际上就是最大似然估计。对于这个 ppp 值,在十次抛掷中得到七次正面的概率,比任何其他 ppp 值所对应的概率都要高。这个原则为我们的直觉提供了严谨而普适的基础。

一种通用的估计方法

那么,我们如何找到这个最大值呢?原则上,我们可以为每个可能的参数值绘制似然函数,然后找到峰值。但有一种更优雅、更通用的方法,一个适用于各种问题的“万能秘诀”。其中的秘诀就是自然对数。

最大化一个正函数等同于最大化它的对数。这个变换是一个数学上的神来之笔,因为独立事件的似然函数涉及乘积,而对数能将棘手的乘积转化为易于处理的求和。这个新函数被称为对数似然函数​,记为 ℓ(θ)=ln⁡(L(θ))\ell(\theta) = \ln(L(\theta))ℓ(θ)=ln(L(θ))。

这个秘诀如下:

  1. 写出似然函数,即观测到你的数据的联合概率,表示为未知参数 θ\thetaθ 的函数。
  2. 取自然对数得到对数似然函数 ℓ(θ)\ell(\theta)ℓ(θ)。
  3. 使用微积分求最大值:计算 ℓ(θ)\ell(\theta)ℓ(θ) 关于 θ\thetaθ 的导数,并令其为零。
  4. 解出关于 θ\thetaθ 的方程。解就是最大似然估计量 θ^MLE\hat{\theta}_{MLE}θ^MLE​。

让我们在一个真实的科学情境中看看这个秘诀如何运作。想象你是一位神经科学家,正在监听一个神经元的活动。你将其活动建模为一个简单的泊松过程,即它以一个恒定的平均速率 λ\lambdaλ 发放脉冲。在 TTT 秒的时间内,你观测到 nnn 个脉冲。你对该神经元内在发放速率 λ\lambdaλ 的最佳估计是什么?观测到 nnn 个脉冲的似然由泊松概率公式给出:L(λ)=(λT)nexp⁡(−λT)n!L(\lambda) = \frac{(\lambda T)^n \exp(-\lambda T)}{n!}L(λ)=n!(λT)nexp(−λT)​。对数似然为 ℓ(λ)=nln⁡(λ)+nln⁡(T)−λT−ln⁡(n!)\ell(\lambda) = n\ln(\lambda) + n\ln(T) - \lambda T - \ln(n!)ℓ(λ)=nln(λ)+nln(T)−λT−ln(n!)。对 λ\lambdaλ 求导并令其为零,我们得到 nλ−T=0\frac{n}{\lambda} - T = 0λn​−T=0。解出 λ\lambdaλ 得到一个优美简洁且直观的结果:λ^MLE=nT\hat{\lambda}_{MLE} = \frac{n}{T}λ^MLE​=Tn​。速率的最佳估计就是你看到的脉冲数除以你的观察时长。MLE 的机制精确地得出了我们常识所 suggered 的答案,但现在它建立在一个坚实、可量化的原则之上。

同样的方法可以应用于无数其他问题,从根据一系列观测到的寿命来估计放射性粒子的衰变率,到确定一种新型激光二极管的可靠性,或模拟复杂系统中极端事件的分布。其底层逻辑保持不变,展示了似然原则的统一力量。

方法的“不合理”有效性

MLE 之所以如此特别,不仅在于它能给我们答案,更在于这些答案非凡的质量​。这个原则似乎有一种“隐藏的智能”,常常能导出不仅正确,而且极为优雅和富有洞察力的结果。

智能平均

想象一下,你正在尝试确定患者血液中某种生物标志物的真实浓度。你有几个不同的测量设备,每个设备都有自己的精确度。一个廉价、有噪声的设备可能读数为 105105105 单位,而一个高端、精密的仪器读数为 101101101 单位。你应该如何组合它们?简单的平均感觉不对;你应该更相信那个更好的仪器。但要多相信多少呢?

MLE 提供了明确的答案。如果我们把每次测量 xix_ixi​ 建模为来自一个具有真实均值 μ\muμ 但各自已知方差 viv_ivi​ 的高斯(正态)分布,那么 μ\muμ 的 MLE 结果是一个加权平均: μ^MLE=∑i=1nxivi∑i=1n1vi\hat{\mu}_{MLE} = \frac{\sum_{i=1}^{n} \frac{x_i}{v_i}}{\sum_{i=1}^{n} \frac{1}{v_i}}μ^​MLE​=∑i=1n​vi​1​∑i=1n​vi​xi​​​ 每次测量的权重是 1/vi1/v_i1/vi​,也就是它的精度​(precision)。估计量自动地为更精确的测量赋予更大的权重,并降低噪声大的测量权重。这不是我们强加给系统的规则;它是有机地从最大化似然原则中产生的。这个结果还揭示了与统计学另一个基石的深刻联系:对于高斯噪声,最大化似然在数学上等价于最小化平方(或在此例中,加权平方)误差之和。这把 MLE 和​最小二乘法​统一起来。

不变性捷径

MLE 的另一个近乎神奇的特性是函数不变性​。假设你按照我们的方法找到了参数 μ\muμ 的 MLE,比如说它是样本均值 μ^MLE=Xˉ\hat{\mu}_{MLE} = \bar{X}μ^​MLE​=Xˉ。现在,如果你真正关心的参数不是 μ\muμ,而是它的立方 θ=μ3\theta = \mu^3θ=μ3?或者它的对数 ϕ=ln⁡(μ)\phi = \ln(\mu)ϕ=ln(μ)?

你是否需要从头开始,重新参数化你的模型并重新进行所有微积分计算?答案是响亮的“不”。不变性性质指出,如果 μ^MLE\hat{\mu}_{MLE}μ^​MLE​ 是 μ\muμ 的 MLE,那么 μ\muμ 的任何函数(比如 g(μ)g(\mu)g(μ))的 MLE 就是 g(μ^MLE)g(\hat{\mu}_{MLE})g(μ^​MLE​)。变换可以直接穿透。所以,θ=μ3\theta = \mu^3θ=μ3 的 MLE 就是 θ^MLE=(Xˉ)3\hat{\theta}_{MLE} = (\bar{X})^3θ^MLE​=(Xˉ)3。这个特性非常实用,它允许我们以最方便的形式估计模型的参数,然后毫不费力地找到我们关心的任何派生量的估计。

群体的智慧:更多数据意味着什么?

任何估计方法的真正威力体现在长期运行中,即当我们收集越来越多的数据时。MLE 具有卓越的长期保证,被称为渐近性质。

确保正确:一致性

我们能要求的最基本性质是,随着我们收集更多数据,我们的估计会变得更好。MLE 通过一致性​(consistency)实现了这一点。一个一致的估计量,是指当样本量趋于无穷大时,它保证会收敛到参数的真实值。这意味着,如果底层模型是正确的,MLE 不仅仅是给出一个貌似合理的答案;它正走在通往正确答案的路上。在进化生物学等领域,这个性质至关重要。当从 DNA 序列推断进化树时,一致性意味着随着我们分析越来越长的序列,推断出正确树形拓扑的概率会趋近于1。更多的数据让我们更接近真相。

确保精确:有效性与费雪信息

当我们的估计 θ^MLE\hat{\theta}_{MLE}θ^MLE​ 逼近真实值 θ\thetaθ 时,由于数据的随机性,它仍然会围绕真实值有一定的随机波动。对于大样本量,这些波动的分布会变成一个以真实值为中心、完美的钟形高斯曲线。这个钟形曲线的宽度告诉我们估计的方差或不确定性。

在这里,我们遇到了另一个深奥的概念:费雪信息(Fisher Information)。费雪信息 I(θ)I(\theta)I(θ) 量化了单个观测能告诉我们多少关于参数 θ\thetaθ 的信息。从几何上看,它是对数似然函数在其峰值处的曲率度量。一个尖锐的似然函数峰意味着数据信息量很大,从而产生高的费雪信息和非常精确的估计。MLE 的渐近方差由一个优美简洁的公式给出:Var(θ^MLE)≈1n⋅I(θ)\text{Var}(\hat{\theta}_{MLE}) \approx \frac{1}{n \cdot I(\theta)}Var(θ^MLE​)≈n⋅I(θ)1​,其中 nnn 是样本量。

更值得注意的是,MLE 是​渐近有效的​(asymptotically efficient)。这是一个强有力的声明:它意味着在数据量大的极限下,没有其他行为良好的估计量能达到更小的方差。MLE 从数据中提取了最大可能的信息。你根本无法做得更好。 在某些情况下,应用一个变换(如对数)甚至可以使估计的方差与参数本身无关,这是一个称为方差稳定的有用性质。例如,在估计指数过程的速率 θ\thetaθ 时,ln⁡(θ^MLE)\ln(\hat{\theta}_{MLE})ln(θ^MLE​) 的方差就是 1/n1/n1/n,一个只依赖于样本量的量。

更广阔的图景:关联与局限

要完全欣赏 MLE,我们必须了解它在更广阔的统计推断领域中的位置,并承认它的局限性。

通往另一世界的桥梁:贝叶斯联系

统计推断有两大思想流派:频率学派和贝叶斯学派。MLE 是频率学派的旗舰方法,它将参数视为固定的、未知的常量。贝叶斯学派则持不同观点,将参数本身视为随机变量,我们对其可以有信念,这种信念被编码在一个​先验分布​中。然后使用贝叶斯定理,根据数据更新这个先验信念,得到一个后验分布​。

最常见的贝叶斯点估计是最大后验(MAP)​估计,即后验分布的峰值。后验分布正比于似然乘以先验。如果我们的先验信念是完全“无信息”的——例如,一个对所有参数值赋予相同信念的均匀或平坦先验——会发生什么?在这种情况下,后验分布就只与似然成正比。最大化后验就等同于最大化似然。因此,θ^MAP=θ^MLE\hat{\theta}_{MAP} = \hat{\theta}_{MLE}θ^MAP​=θ^MLE​。MLE 可以被看作是使用均匀先验的 MAP 估计的一个特例,这在统计学的两大范式之间架起了一座美丽的桥梁。

当完美成为问题:MLE的失效

尽管 MLE 功能强大,但它并非万能灵药。在某些情况下它会失效,而这些失效本身也极具启发性。其中最著名的一个是逻辑回归中的完全分离问题。想象一下你正在基于一个“威胁分数”构建一个恶意软件检测器。你收集数据后发现,每一个恶意程序的得分都高于 4.04.04.0,而每一个干净程序的得分都低于 4.04.04.0。数据被完美地分开了。

如果你尝试使用 MLE 来拟合一个逻辑回归模型,算法会试图找到一个能完美分类数据的决策边界。它可以使分离的“S形曲线”越来越陡峭,这对应于模型的系数趋向于无穷大。随着系数趋向无穷大,似然值会越来越接近其最大值,但对于任何有限的系数,它永远无法达到最大值。MLE 不存在!模型在训练数据上的完美成功导致了其数学上的崩溃。 同样的问题也出现在具有零计数的简单列联表中,这可能导致优势比的估计为无穷大。

这个看似矛盾的失败突显了一个深层问题:过拟合。模型过于完美地拟合了小数据集中的噪声和特质。现代的解决方案是用一小撮怀疑主义来缓和对似然的激进最大化。我们可以引入一个惩罚项来抑制极端的参数值。这种方法被称为惩罚似然或正则化​,它将估计值从无穷大轻轻拉回,从而得到一个有限且更合理的答案。这不仅解决了技术问题,还创建了一个更鲁棒、在新数据上可能表现更好的模型,将 MLE 的经典世界与现代机器学习的核心原则联系起来。

应用与跨学科联系

掌握了最大似然原则后,我们现在可以踏上一段旅程,去看看它的实际应用。你可能会惊讶地发现,这一个单一而优雅的思想,如同一条线索,贯穿于各种各样的科学学科。它是一个审视数据的通用工具,一个我们可以用来提问的标准:“在世界所有可能运作的方式中,哪一种方式使我们实际看到的情况最可能发生?”最大似然估计(MLE)的美妙之处在于,它为这个问题提供了一个统一且有原则的答案,无论我们是在探究活细胞的机制、追踪疾病的传播,还是构建经济模型。

生命的密码:从基因到演化

让我们从生物学世界开始,在这里,偶然与必然共舞,创造出生命的复杂性。遗传学和基因组学中的许多问题,其核心都是估计问题。想象一位遗传学家正在研究染色体异常。减数分裂过程中的一种特定错误,称为不分离(nondisjunction),可能导致配子(gametes)的染色体数目不正确。遗传学家想要估计这个错误发生的概率 ppp。通过收集大量配子并计算异常配子的数量(比如在总共 nnn 个中有 kkk 个),我们对 ppp 的最佳猜测是什么?直觉告诉我们,它必定是观测到的比例 p^=k/n\hat{p} = k/np^​=k/n。最大似然原则向我们保证,这个直觉是完全正确的。值 p=k/np = k/np=k/n 正是那个能使在大小为 nnn 的样本中观测到 kkk 个异常配子的似然最大化的值。看似简单的计算,实际上背后有深刻的统计学原理支撑。

现在,让情况更现实一些。我们的测量工具从不是完美的。考虑一位生物信息学家分析来自许多个体混合样本的测序数据,以确定某个等位基因(比如 'A')在群体中的频率。测序仪并非完美;它有一个小的、已知的错误率 ϵ\epsilonϵ,可能会将 'A' 错读为 'a',反之亦然。如果我们简单地计算观测到的 'A' 的读数,我们会得到一个有偏的估计。这时,MLE 显示出其真正的威力。我们可以建立一个更复杂的模型,明确地包含这个错误过程。现在的似然函数描述的是观测到的读数计数的概率,给定真实​(但未知)的等位基因频率 ppp 和已知的错误率 ϵ\epsilonϵ。通过最大化这个新的似然函数,我们可以推导出一个对 ppp 的估计,该估计“校正”了测量误差。这展示了 MLE 的一个关键特性:它提供了一个框架,用于构建能反映我们实验现实(包括噪声)的模型,并从中提取我们关心的参数。

这种思想的力量从单个遗传位点延伸到宏大的演化历程。群体遗传学家建立数学模型,如 Wright-Fisher 过程,来描述等位基因频率如何因自然选择和突变等力量而随世代变化。想象我们有时间序列数据,显示一个等位基因的计数在许多代中如何波动。我们可以写出这整个演化轨迹的概率,这个概率依赖于选择系数 sss 和突变率 μ\muμ、ν\nuν 等参数。似然函数就是这个观测历史的概率,被看作是那些未知演化参数的函数。MLE 原则为我们提供了一种具体的方法来估计自然选择的强度,即通过找到使观测到的演化“影片”成为最可能结果的 sss 值。

公共卫生与医学:量化风险与传播

照亮基因组的同样原则,也可用于保护公共健康。流行病学,作为研究健康和疾病状况的模式、原因及影响的学科,严重依赖统计估计。一个经典的工具是病例-对照研究(case-control study),研究人员将一组患有某种疾病的人(病例)与一组没有该病的人(对照)进行比较,以寻找风险因素。一个关键的关注量是优势比(odds ratio, θ\thetaθ),它告诉我们患病人群接触到某个潜在风险因素的可能性比非患病人群高多少。

假设我们收集数据并将其排列在一个简单的 2×22 \times 22×2 表格中,计数为 a,b,c,da, b, c, da,b,c,d。一个广泛使用的优势比公式是样本交叉乘积 θ^=(ad)/(bc)\hat{\theta} = (ad)/(bc)θ^=(ad)/(bc)。这仅仅是一个方便的公式吗?不——它远比这深刻得多。在病例-对照研究的标准统计模型下(对病例和对照进行独立的二项抽样),这个简单的公式恰恰是真实优势比 θ\thetaθ 的最大似然估计量。MLE 再次为一个每天用于做出关键公共卫生决策的实用且直观的工具提供了严谨的理论基础。

MLE 也是模拟传染病传播方式的核心。想象一项关于家庭传播的研究,其中一个指示病例感染了家庭中其他易感成员。如果我们将每个易感者被指示病例感染的概率建模为 ppp,我们就可以写出在许多不同家庭中观察到感染模式的似然。这个传播概率的最佳估计是什么?你现在可能已经猜到,MLE 结果是你能想到的最直观的量:在所有家庭中观察到的继发感染总数,除以暴露的易感者总数。最大似然原则证实,这个汇总的比例是 ppp 的最佳估计。

数字前沿:从时间序列到机器学习

在我们这个数据泛滥的现代世界,MLE 是驱动科学技术的算法基石。在经济学和金融学等领域,研究人员使用 ARMA(自回归移动平均)族等模型来分析时间序列数据——如股票价格或 GDP。虽然存在其他方法来估计这些模型的参数,但 MLE 通常是首选。原因在于其有效性。在适当的假设下,MLE 提供的估计量是​渐近有效的​,这意味着对于大型数据集,没有其他无偏方法能产生方差更小的估计。它从数据中榨取了每一滴信息,因为它使用了模型指定的完整概率分布,而不仅仅是几个汇总统计量(如几个相关系数)。在处理复杂模型时,这种有效性至关重要。

这种威力在计算生物学中得到了充分展示。例如,在差异基因表达分析中,科学家想知道哪些基因的活动水平会因治疗而改变。数据来自测序实验的读数计数,这些计数通常用负二项分布来建模。利用广义线性模型(GLMs)——线性回归的强大扩展——的框架,研究人员可以将基因的平均表达水平建模为协变量(如样本是接受治疗还是安慰剂)的函数。拟合这些模型并估计治疗对每个基因影响的整个引擎,就是最大似然估计。这涉及到复杂的数值优化算法,但其核心都只是试图找到能使观测到的基因计数的负二项似然最大化的参数值。

当我们进入机器学习领域时,我们必须做一个微妙但关键的区分。MLE 用于为给定的模型结构找到最佳参数 θ\thetaθ。例如,在逻辑回归分类器中,参数 θ\thetaθ 是每个特征的权重。MLE 找到能最好地解释训练数据的权重。但超参数 λ\lambdaλ(例如正则化项的强度或神经网络的结构)又如何呢?这些不是通过对训练数据进行 MLE 来估计的。相反,它们是通过一个不同的过程来“调优”的:我们对 λ\lambdaλ 的许多不同设置训练模型,以找到 MLE 参数 θ⋆(λ)\theta^{\star}(\lambda)θ⋆(λ),然后我们选择那个其对应模型在独立的验证数据集上表现最好的 λ\lambdaλ。这形成了一个嵌套的优化循环:一个用于参数的 MLE 内循环,和一个用于超参数的性能评估外循环 [@problem_synthesis:5212697]。理解这种区别是理解现代机器学习如何运作的关键。

通往贝叶斯世界的桥梁

最后,MLE 为另一种广阔而强大的推断思维方式——贝叶斯框架——架起了一座美丽的桥梁。MLE 寻求使似然 p(Data∣θ)p(\text{Data} | \theta)p(Data∣θ) 最大化的参数值 θ\thetaθ。它让数据自己说话。但如果我们甚至在看到数据之前就对 θ\thetaθ 有一些先验知识或信念呢?例如,我们可能认为该参数很可能接近于零。

贝叶斯推断将这种以概率分布 π(θ)\pi(\theta)π(θ) 表达的先验信念与来自数据的似然相结合。通过贝叶斯法则,结果是后验分布:

p(θ∣Data)∝p(Data∣θ)×π(θ)p(\theta | \text{Data}) \propto p(\text{Data} | \theta) \times \pi(\theta)p(θ∣Data)∝p(Data∣θ)×π(θ)

这个后验分布代表了我们在看到数据后对 θ\thetaθ 的更新信念。虽然完整的贝叶斯推断处理的是这整个分布,但一个更简单的方法是找到在看到数据后最可能的那个 θ\thetaθ 值——也就是后验分布的峰值。这被称为最大后验(MAP)​估计。

这揭示了一种深刻的联系。许多看起来截然不同的技术,实际上是近亲。许多领域中最小化的“成本函数”通常只是后验概率的负对数。例如,机器学习中一种称为 L2L_2L2​ 正则化的常用技术,它惩罚大的参数值,在数学上等价于使用以零为中心的高斯先验进行 MAP 估计。类似地,在地球物理数据同化中,目标是结合物理模型的预测(“背景”或先验)与新的观测(似然),以获得大气或海洋状态的最佳估计。用于此的变分法是 MAP 估计的一种形式。

从这个角度看,最大似然估计仅仅是使用“平坦”或“无信息”先验的 MAP 估计的特例。这是我们让数据独自引导我们走向答案的情况。这一洞见统一了广阔的统计方法领域,表明它们是从纯粹的似然到完全整合先验信念这一单一、连续的推断谱上的不同点。