try ai
科普
编辑
分享
反馈
  • 定量偏倚分析

定量偏倚分析

SciencePedia玻尔百科
核心要点
  • 定量偏倚分析(QBA)是一个框架,用于明确估计系统误差(偏倚)的大小和方向,以得出更准确的结论。
  • E值是一个关键的敏感性分析指标,它量化了未测量的混杂因素需要多强才能完全解释观察到的关联。
  • 由测量缺陷导致的信息偏倚,可以通过使用关于测量工具灵敏度和特异度的验证数据进行定量校正。
  • 概率偏倚分析使用计算机模拟来纳入偏倚参数的不确定性,从而得出一个能同时反映随机误差和系统误差的校正结果。

引言

在科学研究中,p值和置信区间等标准统计工具对于量化由随机误差产生的不确定性至关重要。然而,对于一个更隐蔽的问题——系统误差(即偏倚),它们却无能为力。系统误差会持续地将结果拉离真相,导致错误的结论。这是一个关键的知识缺口,尤其是在流行病学和预防医学等领域,因为这些领域的研究发现指导着影响公共健康的高风险决策。忽视潜在的偏倚不仅是不严谨的科学行为,还可能带来严重的现实后果。

本文介绍定量偏倚分析(Quantitative Bias Analysis, QBA),一个旨在明确且定量地应对这些系统误差的框架。它提供的工具使我们能够超越仅仅承认“可能存在偏倚”的层面,进而严谨地估计其潜在影响。在接下来的章节中,您将学习QBA的核心原理并看到它们的实际应用。第一章“原理与机制”将解析基本概念,从偏倚的基本方程到用于评估混杂的强大工具E值,以及校正信息偏倚的方法。随后的章节“应用与跨学科联系”将展示这些技术如何在现实场景中应用,从公共卫生调查到法律论证,从而提供一个更诚实、更稳健的证据评估。我们首先从探索那些让我们能够看透偏倚迷雾的基础思想开始。

原理与机制

在我们探索世界的过程中,无论是天文学家凝视遥远的星系,还是流行病学家研究疾病的模式,我们总是在利用不完美的信息。我们的仪器可能不精确,我们的样本可能无法完美代表整体,而一些微妙的、隐藏的因素可能会影响我们的观察结果。传统统计学为我们提供了强大的工具,如置信区间和p值,来处理一种不完美性:抽样中因运气而产生的随机误差。但对于非随机的误差呢?对于系统性地将我们的结果拉向某个方向的系统误差,即​​偏倚​​,我们该怎么办?它们是我们数据中的幽灵,忽视它们可能导致我们自信地得出错误的结论。

这就是​​定量偏倚分析(QBA)​​登场的时刻。它不仅仅是一套技术,更是一种科学诚信的哲学。它是一种明确的、定量的努力,旨在直面我们数据中的幽灵,估计它们的大小和方向,并理解它们可能如何改变我们的结论。在像预防医学这样的领域,一个实施全国性项目的决定可能取决于单项研究,此时若不考虑潜在偏倚而天真地相信观察到的结果,不仅是不严谨的科学行为,甚至可能构成伦理失误。QBA提供了一个框架,用以做出稳健、透明,并基于对我们不确定性的谦逊认识的决策。

偏倚的基本方程

许多定量偏倚分析的核心是一个极其简单的思想。对于多种类型的偏倚和常见的效应度量(如风险比,RRRRRR),偏倚造成的扭曲是乘性的。这意味着观察到的关联仅仅是真实的因果关联乘以一个​​偏倚因子​​:

RRobs=RRtrue×BRR_{\text{obs}} = RR_{\text{true}} \times BRRobs​=RRtrue​×B

在这里,RRobsRR_{\text{obs}}RRobs​ 是我们在研究中测得的结果,RRtrueRR_{\text{true}}RRtrue​ 是我们希望了解的真实因果效应,而 BBB 是概括了一种或多种系统误差净效应的偏倚因子。因此,QBA的全部工作就是弄清楚 BBB 的值。如果我们能估计出这个偏倚因子,我们就能校正观察到的结果,从而更好地窥见真相:

RRtrue=RRobsBRR_{\text{true}} = \frac{RR_{\text{obs}}}{B}RRtrue​=BRRobs​​

这个简单的方程是我们透视偏倚迷雾的透镜。让我们看看它是如何工作的。

揭开幽灵的面纱:混杂

困扰观察性研究最常见的幽灵是​​混杂​​。想象一项研究发现,口袋里揣着打火机的人患肺癌的风险更高。观察到的风险比很高。是打火机导致癌症吗?当然不是。显而易见的混杂因素是吸烟。吸烟者更可能携带打火机(混杂因素与暴露之间的关联),并且吸烟导致肺癌(混杂因素与结局之间的关联)。这个未被测量的混杂因素在打火机和癌症之间制造了一种虚假的关联。

QBA要求我们量化这个幽灵的强度。对于单个未测量的混杂因素(比如 UUU),我们需要指定两个参数:

  1. 混杂因素与暴露之间关联的强度,通常表示为风险比 RRUARR_{UA}RRUA​。
  2. 混杂因素与结局之间关联的强度,RRUYRR_{UY}RRUY​。

人们可能天真地认为,这两个参数所能产生的最大偏倚就是它们的乘积 RRUA×RRUYRR_{UA} \times RR_{UY}RRUA​×RRUY​。但数学揭示了一个更微妙、更优美的结果。单个二元混杂因素所能导致的最大偏倚因子,无论其患病率如何,都由一个特定的公式给出:

Bmax⁡=RRUA×RRUYRRUA+RRUY−1B_{\max} = \frac{RR_{UA} \times RR_{UY}}{RR_{UA} + RR_{UY} - 1}Bmax​=RRUA​+RRUY​−1RRUA​×RRUY​​

例如,如果我们怀疑一个混杂因素与暴露的关联强度为 RRUA=3.0RR_{UA} = 3.0RRUA​=3.0,与结局的关联强度为 RRUY=2.5RR_{UY} = 2.5RRUY​=2.5,那么它可能产生的最大偏倚不是 7.57.57.5,而是 3.0×2.53.0+2.5−1=7.54.5≈1.67\frac{3.0 \times 2.5}{3.0 + 2.5 - 1} = \frac{7.5}{4.5} \approx 1.673.0+2.5−13.0×2.5​=4.57.5​≈1.67。如果我们观察到的风险比是 1.81.81.8,这个混杂因素最多只能将其降低到 1.8/1.67≈1.081.8 / 1.67 \approx 1.081.8/1.67≈1.08。关联会被削弱,但不会被消除。这个公式为我们的不确定性提供了一个至关重要的边界。

E值:一把稳健性的标尺

如果我们对混杂因素的强度有所了解,最大偏倚公式就非常有用。但如果我们一无所知呢?我们可以反过来提问。我们不再问“一个特定的混杂因素会造成多大的偏倚?”,而是问:“​​一个混杂因素需要多强才能完全解释掉我观察到的结果?​​” 这就是​​E值​​(E-value)所回答的问题。

为了找到它,我们想象一个“最坏情况”的混杂因素,它与暴露和结局的关联强度相等,即 RRUA=RRUY=ERR_{UA} = RR_{UY} = ERRUA​=RRUY​=E。然后我们问:EEE 的值需要多大才能使最大偏倚因子 Bmax⁡B_{\max}Bmax​ 等于我们观察到的风险比 RRobsRR_{\text{obs}}RRobs​?如果偏倚因子等于观察到的效应,那么真实效应必定是无效的(RRtrue=1RR_{\text{true}} = 1RRtrue​=1)。求解方程 RRobs=E×EE+E−1RR_{\text{obs}} = \frac{E \times E}{E + E - 1}RRobs​=E+E−1E×E​ 得到 EEE 的值,即为当 RR>1RR > 1RR>1 时E值的公式:

E-value=RRobs+RRobs(RRobs−1)\text{E-value} = RR_{\text{obs}} + \sqrt{RR_{\text{obs}}(RR_{\text{obs}} - 1)}E-value=RRobs​+RRobs​(RRobs​−1)​

如果一项研究报告的观察风险比为 RRobs=1.8RR_{\text{obs}} = 1.8RRobs​=1.8,那么E值为 1.8+1.8(1.8−1)=1.8+1.44=1.8+1.2=3.01.8 + \sqrt{1.8(1.8 - 1)} = 1.8 + \sqrt{1.44} = 1.8 + 1.2 = 3.01.8+1.8(1.8−1)​=1.8+1.44​=1.8+1.2=3.0。这个结果有一个非常清晰的解释:要解释掉观察到的1.8的风险比,一个未测量的混杂因素需要与暴露和结局都存在至少3.0的风险比关联。然后我们可以退一步问一个定性的问题:“存在如此强大且我们尚未测量和调整的混杂因素是合理的吗?”

E值是一个多功能的工具。如果我们有一个保护性关联,比如说 RRobs=0.70RR_{\text{obs}} = 0.70RRobs​=0.70,我们可以通过先取其倒数,将效应转换到大于1的尺度上(RR∗=1/0.70≈1.43RR^* = 1/0.70 \approx 1.43RR∗=1/0.70≈1.43),然后为这个新值计算E值来评估其稳健性。E值为我们提供了一个标准化的、依赖假设较少的摘要,说明了我们的研究结果对未测量混杂的稳健程度。

超越混杂:身份识别错误的情况

偏倚分析不仅限于混杂。另一个常见问题是​​信息偏倚​​,或称错误分类。如果我们识别疾病的方法有缺陷怎么办?假设我们使用一个不完美的疾病登记系统。其准确性由两个数字描述:

  • ​​灵敏度(SeSeSe)​​:一个真正患病的人被正确识别为病例的概率。
  • ​​特异度(SpSpSp)​​:一个真正健康的人被正确识别为非病例的概率。

如果一个登记系统的灵敏度为 Se=0.80Se=0.80Se=0.80,它会漏掉 20%20\%20% 的真实病例。如果其特异度为 Sp=0.95Sp=0.95Sp=0.95,它会把 5%5\%5% 的健康人错误地标记为病人(假阳性)。因此,我们在数据中看到的病例数 yobsy_{\text{obs}}yobs​ 是真阳性和假阳性的混合。让我们从第一性原理出发写下这一点。如果一个组中有 NNN 个人,其中 dtrued_{\text{true}}dtrue​ 人是真正患病的:

yobs=(真阳性)+(假阳性)y_{\text{obs}} = (\text{真阳性}) + (\text{假阳性})yobs​=(真阳性)+(假阳性) yobs=(dtrue×Se)+((N−dtrue)×(1−Sp))y_{\text{obs}} = (d_{\text{true}} \times Se) + ((N - d_{\text{true}}) \times (1 - Sp))yobs​=(dtrue​×Se)+((N−dtrue​)×(1−Sp))

这是一个简单的线性方程!我们可以用基础代数来解出我们真正想要的量 dtrued_{\text{true}}dtrue​:

dtrue=yobs−N(1−Sp)Se+Sp−1d_{\text{true}} = \frac{y_{\text{obs}} - N(1 - Sp)}{Se + Sp - 1}dtrue​=Se+Sp−1yobs​−N(1−Sp)​

这个公式让我们能够“解开”观察数据,估计出真实的病例数。通过对暴露组和非暴露组都应用这个校正,我们可以计算出一个考虑了测量缺陷的、经偏倚调整的风险比。这有力地证明了QBA如何利用简单的逻辑原则来看透不完美数据的迷雾。

从“如果……会怎样”到充满可能性的世界:概率偏倚分析

到目前为止,我们进行的是​​确定性偏倚分析​​:我们为偏倚参数(如 Se=0.80Se=0.80Se=0.80)输入单个、固定的数值,并得到一个单一的校正结果。但如果我们对这些偏倚参数也不确定呢?我们的验证研究可能告诉我们灵敏度大约是0.80,可能在0.75到0.85之间。

​​概率偏倚分析​​旨在拥抱这第二层不确定性。我们不再为偏倚参数使用单一值,而是为其赋予一个反映我们知识的概率分布。然后,使用一种称为蒙特卡洛的计算机模拟方法,我们可以探索所有可能的情景:

  1. ​​抽取一个情景​​:在数千次迭代中的每一次,计算机从每个偏倚参数的指定分布中随机抽取一个值(例如,在一次迭代中可能抽取 Se=0.78Se=0.78Se=0.78 和 Sp=0.96Sp=0.96Sp=0.96,在下一次迭代中可能抽取 Se=0.82Se=0.82Se=0.82 和 Sp=0.94Sp=0.94Sp=0.94)。
  2. ​​计算校正值​​:在每次迭代中,它使用这组随机抽取的偏倚参数来计算一个校正后的风险比。
  3. ​​总结结果​​:经过数千次迭代后,我们得到的不是一个,而是一整个可能的“真实”风险比的分布。

其结果是一个新的、经偏倚调整的点估计(例如,模拟结果的中位数)和一个​​模拟区间​​(例如,第2.5和第97.5百分位数)。这个区间意义深远:它代表了我们的总不确定性,既包含了来自原始研究的随机误差,也包含了来自我们关于偏倚的假设的系统误差。

高级魔法:用阴性对照校准偏倚

QBA中最优雅的概念之一是使用​​阴性对照​​来经验性地估计偏倚参数。想象一下,你正在研究一种新疗法(XXX)对生存(YYY)的影响,但你担心患者虚弱程度(UUU)造成的混杂。

现在,假设你还测量了一个​​阴性对照结局​​(YncY^{\text{nc}}Ync),这是你确信不可能由该疗法引起的事件。例如,如果疗法是一种药丸,阴性对照结局可以是“因意外伤害住院”。这种药丸不可能导致意外事故。因此,任何观察到的服用药丸(XXX)与发生意外(YncY^{\text{nc}}Ync)之间的关联都不可能是因果关系。它必定完全是由混杂路径造成的:虚弱的人(UUU)更不可能接受新疗法(XXX),同时也更有可能发生意外(YncY^{\text{nc}}Ync)。

因此,观察到的非因果关联 ORXYnc\text{OR}_{XY^{\text{nc}}}ORXYnc​ 成为了对混杂偏倚因子 BBB 的直接估计。然后我们可以使用这个经验校准的偏倚因子来校正我们的主要发现:

ORtrue≈ORobsB≈ORobsORXYnc\text{OR}_{\text{true}} \approx \frac{\text{OR}_{\text{obs}}}{B} \approx \frac{\text{OR}_{\text{obs}}}{\text{OR}_{XY^{\text{nc}}}}ORtrue​≈BORobs​​≈ORXYnc​ORobs​​

这是一种极其聪明的方法,利用一个辅助信息将我们的偏倚分析根植于数据,而不仅仅是假设。我们甚至可以通过假设多个混杂因素的偏倚因子是相乘的来处理它们,只要它们彼此之间相当独立。

最终,定量偏倚分析提供了一个智识诚信的框架。它迫使我们明确我们的假设,并直面数据中的不完美。无论我们是使用像E值这样快速、依赖假设少的工具来衡量一项发现的稳健性,还是进行全面的概率分析来为高风险的临床决策提供信息,QBA都让我们能够描绘出一幅更完整、更真实的现实图景。它是谦逊的科学——正式承认我们的知识是不完整的,并严谨地努力勾画出我们自身无知的边界。

应用与跨学科联系

在了解了偏倚如何系统地扭曲我们的观察结果的原理之后,我们现在来到了最激动人心的部分:见证这些思想在实践中的应用。定量偏倚分析(QBA)不仅仅是一种抽象的统计练习;它是一个至关重要的实用工具包,科学家、医生甚至律师都用它来驾驭这个鲜少提供干净、明确数据的复杂世界。它是我们穿透随机误差、测量错误和隐藏因素的迷雾,以获得更清晰、更诚实的现实一瞥的方式。让我们来探讨一下如何实现这一点。

流行病学的侦探工作:揭露隐藏的参与者

想象你是一名流行病学家,一位公共健康的侦探。一份报告放在你的桌上:暴露于一种新溶剂的工厂工人似乎有更高的肺癌风险。观察到的风险比为 1.61.61.6。这个案子似乎很直接。但一位好侦探总会问:还有什么其他情况?如果这些工人,由于他们的生活方式或工作文化,也更可能是吸烟者呢?我们知道,吸烟是导致肺癌的一个强有力原因。这个“隐藏的参与者”——一个未测量的混杂因素——可能是真正的罪魁祸首,或者至少是一个主要帮凶。

这就是QBA成为我们放大镜的地方。我们不是束手无策地说这项研究“存在混杂”,而是可以进行定量的敏感性分析。通过将观察数据与其他研究中关于不同群体吸烟率以及吸烟与肺癌关联强度等合理估计相结合,我们可以计算出溶剂的真实效应范围。在这样的情景中,我们可能会发现,在考虑了吸烟的可能影响之后,溶剂的校正风险比合理范围可能在,比如说,0.850.850.85 到 1.341.341.34 之间。这个结果意义深远且令人谦卑。它告诉我们,观察到的关联可能完全由吸烟解释,真实效应可能是无效的,甚至是轻微的保护性效应。最初的“强有力”证据化为模糊不清,引导我们更加谨慎,并要求更好的数据。

这引出了一个更通用且极其优雅的工具:E值。我们不必指定混杂因素的所有细节,而是可以问一个更简单、更强大的问题:“一个未测量的混杂因素需要多强才能完全解释掉我观察到的结果?”E值用一个单一的数字给出了答案。对于一个观察到的风险比 RRobsRR_{\text{obs}}RRobs​,E值的计算公式为 RRobs+RRobs(RRobs−1)RR_{\text{obs}} + \sqrt{RR_{\text{obs}}(RR_{\text{obs}} - 1)}RRobs​+RRobs​(RRobs​−1)​。这个值代表了未测量的混杂因素需要与暴露和结局同时具有的最低风险比,才能将观察到的关联降低到零效应。

假设一项观察性研究报告称,一种新的镇痛药与胃肠道出血风险增加相关,风险比为 1.81.81.8。E值将是 1.8+1.8×0.8=1.8+1.2=3.01.8 + \sqrt{1.8 \times 0.8} = 1.8 + 1.2 = 3.01.8+1.8×0.8​=1.8+1.2=3.0。这是一个非常清晰的陈述。它意味着要解释掉这一发现,一个隐藏因素(如患者的虚弱程度)需要使服用该镇痛药的风险增加至少3倍,并且使出血风险增加至少3倍。这为怀疑设定了一个具体的“代价”。如果我们认为存在如此强的混杂因素是不太可能的,我们对结果因果性质的信心就会增加。E值已成为解释从环境毒素到药物研究等观察性研究的重要工具。

不完美的镜头:校正扭曲的视图

我们用来观察世界的工具,无论是实验室检测、调查问卷还是电子健康记录,都很少是完美的。它们是不完美的镜头,可能会使图像模糊或扭曲。这属于信息偏倚的范畴,而QBA提供了重新聚焦镜头的方法。

思考一下营养流行病学这个 notoriously 困难的领域。试图用食物频率问卷(FFQ)评估某人的饮食充满了测量误差。人们会记错,他们难以估计份量,而且他们的报告可能存在偏见。这种“误差”不仅仅是会相互抵消的随机噪音。对于像每日全谷物摄入量这样的连续暴露,这种误差会系统地将估计的效应偏向无效值,这种现象称为回归稀释。这就像试图从远处读取一个标志;字母变得模糊,信息似乎比实际要弱。

QBA让我们能够校正这一点。通过进行一个小型验证研究,将更准确的“金标准”测量(如详细的食物日记或生物标志物)与FFQ进行比较,我们可以估计误差的大小。这些信息使我们能够计算一个“衰减因子”λ\lambdaλ,它量化了真实效应被稀释的程度。然后我们可以用这个因子来消除图像的模糊,估计出校正后的真实效应。例如,如果一项使用FFQ的研究发现,全谷物摄入的观察到的保护性相对风险为 0.900.900.90,QBA可能会揭示,在校正测量误差后,真实的相对风险更接近 0.840.840.84,这是一个显著更强的保护效应。

同样的原则也适用于二元(是/否)分类。想象一项调查询问身体不活动和抑郁症状。很可能,真正抑郁的人更倾向于报告自己身体不活动,反之亦然,这导致了差异性错误分类。利用关于我们问题灵敏度和特异度的验证数据,我们可以数学上重建暴露和结局的“真实”2x2列联表。这种分析可能显示,观察到的不活动与抑郁症状之间的患病率为 1.441.441.44,在考虑了自我报告的扭曲后,校正为更强的关联 1.581.581.58。

空椅子问题:考虑那些不在场的人

在纵向研究——即随时间追踪人群的研究——中最隐蔽的偏倚之一是因失访导致的选择偏倚。退出研究的人通常与留下来的人不同,如果这种差异与暴露和结局都有关,我们的结果可能会被严重扭曲。这就像只听那些留到辩论最后的人的发言来试图理解一场辩论;你错过了那些离开的人的观点,他们离开的原因可能是因为他们最强烈地不同意或同意。

考虑一个假设的队列研究,其中暴露的真实效应完全为零——它对疾病没有影响。然而,假设在暴露组中,那些开始生病的人最有可能退出研究(也许他们病得太重,无法参加随访)。在未暴露组中,生病的人更有可能留在研究中。当我们在最后分析数据时,我们面对的是一个经过筛选的样本。暴露组看起来人为地健康,因为他们中最病弱的人已经消失了。这可能制造一个完全的海市蜃楼:一个实际上无效的暴露产生了虚假的、统计上显著的“保护性”效应。

QBA提供了解决这个“空椅子”问题的工具。通过理解选择的机制,我们可以建立一个模型来估计每个参与者被保留在研究中的概率。然后可以使用逆概率加权等方法,给予那些能代表已失访人群的人更多的权重,从而有效地“填补”空椅子。一个完整的偏倚分析可以更进一步,使用公式根据估计的选择概率来调整观察到的比值比,并可以证明一个虚假的保护性效应(例如 RR=0.55RR = 0.55RR=0.55)如何消失,揭示出真实的无效效应 RR=1.00RR = 1.00RR=1.00。

综合的交响曲:QBA在现代研究及其他领域的应用

当这些不同的线索被编织在一起以评估一个主张的总证据时,QBA的真正力量就得以实现。现实世界的研究往往同时受到多种偏倚来源的影响,一个全面的分析必须是一场综合的交响曲。

在现代药物流行病学中,研究药物在大量人群中的效果,其风险极高。一个核心挑战是“适应证混杂”:被开具新药的患者通常比那些被开具老药或没有药物的患者病情更重。想象一项研究发现,质子泵抑制剂(PPI)与肺炎的风险比为 1.61.61.6 相关。是药物本身的问题,还是因为需要PPI的患者有潜在的疾病(“适应证”),而这些疾病也使他们易患肺炎?此外,肺炎的早期症状(如咳嗽)本身可能会促使患者就医并导致医生开具PPI处方,这是一种称为前驱偏倚的反向因果关系。一个最先进的分析将结合巧妙的研究设计(如“新使用者、活性药物对照”设计,将PPI与类似药物进行比较)和多层次的QBA,对适应证混杂和前驱偏倚进行数学调整,可能显示整个观察到的效应可能都是这些偏倚造成的人为结果。

确实,现在主流研究包含一个预先指定的、全面的敏感性分析计划已是常态。这可能涉及概率偏倚分析(PBA),研究人员不是为偏倚参数(如灵敏度或混杂因素强度)使用单点估计,而是为它们分配整个概率分布。然后他们运行数千次蒙特卡洛模拟,每次都抽取一组新的合理偏倚参数并计算校正后的效应估计值。最终结果不是一个单一的校正数字,而是真实效应的一个完整分布,这个分布不仅包含了随机误差,也包含了我们对所有系统偏倚的不确定性。这样的分析可能会显示,在校正了选择偏倚和暴露错误分类后,一个观察到的比值比 2.252.252.25(强风险)转变为比值比 0.710.710.71(保护性效应),完全逆转了研究的结论。这种整体方法,通常整合了因果图(DAGs)和阴性对照实验,代表了严谨、透明科学的顶峰。

这种思维方式甚至超越了流行病学,延伸到法律等领域。在医疗过失案件中,法律上的因果关系概念通常依赖于“若无”检验:若无被告的行为(例如,延迟治疗),损害(例如,中风)是否会发生?假设原告证明,延迟用药与中风风险增加 12%12\%12% 相关。被告方可能会辩称,患者潜在的临床严重程度,一个未测量的混杂因素,才是真正的原因。QBA为评估这一主张提供了一个正式的框架。我们可以计算出将那 12%12\%12% 的风险差异降低到法律相关阈值以下所需的精确“混杂强度”——即它与治疗延迟的关联和与中风的关联的乘积。这为原本可能是纯粹定性论证的内容带来了定量的严谨性,弥合了科学证据和法律证明标准之间的鸿沟。

从工厂车间到法庭,定量偏倚分析不仅仅是一套校正公式。它是一种智识诚信的哲学。它迫使我们直面数据的局限性,并明确我们的假设。它让我们超越简单地宣告我们发现了什么,走向对我们知道什么、如何知道、以及我们确定性边界的更细致、更稳健的理解。这样做,它体现了科学事业的核心:在一个复杂而混乱的世界里,严谨而谦逊地追求真理。