
随着人工智能日益融入我们的日常生活和关键决策过程,一个根本性问题浮出水面:我们能在多大程度上信任它的输出?人工智能系统看似自信的回答可能掩盖了其知识的严重匮乏,在感知的确定性与实际的可靠性之间造成了鸿沟。本文旨在解决这一关键问题,深入探讨人工智能中的不确定性概念,为理解和量化AI“知道什么”和“不知道什么”提供一个框架。
首先,在“原理与机制”部分,我们将探讨其理论基础,剖析两种基本的不确定性类型——偶然不确定性(aleatoric)和认知不确定性(epistemic)——以及用于衡量它们的实用方法。然后,在“应用与跨学科联系”部分,我们将看到这种理解如何将人工智能从一个黑箱转变为科学、工程和伦理领域中值得信赖的合作伙伴。读完本文,您将认识到,人工智能表达疑虑的能力并非缺陷,而是其实现负责任创新的最关键特征。
要真正把握现代人工智能的力量与风险,我们必须超越其看似神奇能力的表象,提出一个更深刻的问题:当人工智能给出答案时,我们应该在多大程度上信任它?关键在于理解不确定性。但事实证明,“不知道”有两种截然不同的类型。这种区分不仅是哲学上的好奇心,更是构建可靠、可信赖人工智能的根基。
让我们从一个类比开始。想象一位物理学家试图预测从电子枪发射的单个电子的路径。即使拥有最完美的理论——量子力学——和最精密的仪器,她也无法确定地预测电子会落在哪里。宇宙在这个尺度上存在一种固有的、不可简化的模糊性。这就是偶然不确定性(aleatoric uncertainty)。其名称源自拉丁语 alea,意为“骰子”——这好比是宇宙在掷骰子。它代表了系统中内在的随机性或噪声,无论增加多少数据或改进模型都无法消除。在人工智能领域,这可能是来自摄像头传感器的噪声、金融市场的随机性,或是模糊医学扫描中两种情况看起来确实相似的固有模糊性。这是关于数据本身的不确定性。
现在,想象一个不同的场景。我们请一位初出茅庐的物理系学生预测一颗靠近木星的彗星的轨迹,而这位学生只学过简单的行星轨道。该学生的模型是不完整的,没有考虑到木星巨大的引力。她的预测会是错误的,而她预测中的不确定性源于其模型的不足——源于她的知识欠缺。这就是认知不确定性(epistemic uncertainty)。其名称源自希腊语 episteme,意为“知识”。这是关于模型的不确定性。认知不确定性的奇妙之处在于它是可以减少的。通过给学生更多的数据——向她展示三体相互作用的例子,教她更高等的物理学——我们可以减少她的不确定性并改进她的模型。在人工智能领域,当模型被要求对一个与其训练数据截然不同的输入进行预测时,就会出现这种不确定性,例如,一个机器学习势能模型试图预测一个处于其从未见过的极端扭曲状态下的分子的能量。
为了建立更深的直观理解,让我们将人工智能拟人化。想象我们的人工智能不是一个单一的庞大脑,而是一个由许多专家模型组成的“委员会”,所有模型都在相同的数据上训练,但起点略有不同。现在,我们可以向这个委员会提问,不仅观察它们的集体答案,还观察它们达成共识的性质。
思考一个思想实验中的两种情景:
已知的未知(纯粹的偶然不确定性): 我们要求委员会预测一次公平硬币投掷的结果。委员会中的每一位专家都会举手,并充满信心地说:“正面朝上的概率恰好是 。”注意这里发生了什么。委员会达成了完美的共识;它们内部的分歧,即认知不确定性,为零。对于这个问题,它们都知道正确的现实模型。然而,最终的预测 却是最大不确定的。这就是纯粹的偶然不确定性。人工智能精确地知道这个过程有多随机。
未知的未知(纯粹的认知不确定性): 现在,我们向委员会展示一张奇异、失焦的图片,它可能是一只猫,也可能是一只羊驼。我们要求它们给出结论。混乱爆发了。一半的专家,因为注意到一个像耳朵的尖锐形状,大喊:“是猫,我 确定!”另一半,则因为盯着一块看似羊毛的区域,宣称:“是羊驼,我 确定!”每个独立的专家都完全自信。它们各自的预测中偶然不确定性为零。但委员会却陷入了彻底的混乱。集体预测再次是 的分裂,但这种分裂源于深刻的分歧。这就是纯粹的认知不确定性。对于这个奇怪的新数据,人工智能没有一个单一、连贯的模型。
这个“委员会”类比不仅是一个教学工具;它直接反映了一种强大的技术,称为集成(ensembles),我们在实践中用它来衡量认知不确定性。
通过观察当我们以不同方式“戳”人工智能的输入时其不确定性如何变化,我们可以学到很多。这就像机械师敲击引擎来诊断问题。
假设我们的人工智能被训练来识别图像中的物体。如果我们在鸟的图片上添加一些随机的、类似静电的噪声,使其看起来像一张略带颗粒感的照片,会发生什么?。人工智能可能会变得不那么自信。“鸟”的概率可能会从 降到 。我们专家委员会的成员可能会一致同意这种置信度的下降。人工智能实际上是在说:“这张图片有噪声,所以我不太确定,但我仍然认为它是一只鸟。”不确定性增加了,但主要增加的是偶然不确定性部分——模型正在考虑它预期在现实世界中会看到的噪声。
现在来点更狡猾的。一个了解人工智能内部运作的对手,对图像进行了一个微小、精心设计的改动——这个改动小到人眼无法察觉。然而,对人工智能来说,这是一个巨大的冲击。这只鸟的图像可能突然被分类为“鸵鸟”、“烤面包机”或“汽车”,我们专家委员会的不同成员给出了截然不同的答案。总不确定性急剧飙升,但这一次,飙升的几乎完全是认知不确定性部分。这种对抗性攻击将输入推入了人工智能知识的“裂痕”中,即一个它从未被训练过的、其对世界的理解崩溃的广阔输入空间区域。模型不仅对有噪声的数据不确定,它对自己也深感不确定。
这种直观的图景植根于优美而精确的数学。一个预测的总方差可以被优雅地分解为我们之前讨论的两种不确定性。全方差定律(Law of Total Variance)提供了这个框架,告诉我们对于任何预测:
在我们的人工智能委员会(模型集成)的背景下,这一点得到了完美的体现:
这种分解使我们能够构建可以量化两种不确定性的AI。除了用于捕捉模型分歧(认知不确定性)的集成方法外,我们还可以设计一个复杂的单一模型,它不仅学习预测答案,还学习预测该答案中固有的噪声。例如,这样一个异方差模型(heteroscedastic model)可以预测一个属性的均值和方差,从而让我们能直接处理任何给定输入的偶然不确定性。
掌握了这些原理,我们就可以开始揭开现代人工智能一些最令人费解行为的神秘面纱。当一个大型语言模型“产生幻觉”——自信地胡说八道时——它并非被创造力的恶魔附身。它只是在一个认知不确定性极高的区域做出预测,并且未能向你报告这种不确定性。这就像那个自信地算错彗星路径的学生。解决方案不是告诉AI停止产生幻觉,而是更科学地设计我们与它的互动方式。一个精心设计的提示不仅仅要求一个答案,它要求一个答案和一个严格的不确定性声明,遵循任何科学或工程学科中使用的相同标准。
当然,现实世界是复杂的。我们衡量不确定性的方法可能会受到我们训练选择的影响。例如,一种称为标签平滑(label smoothing)的常用正则化技术可以使模型产生校准得更好的概率,但其副作用是,它也可能减少测得的认知不确定性,从而可能掩盖模型无知的信号。这提醒我们,不确定性量化是一个充满活力的、持续进行的研究领域。
归根结底,理解和量化不确定性将人工智能从一个聪明的玩物提升为一个可靠的工具。这是人工智能用来告诉我们它知道什么、不知道什么以及什么是根本不可知的语言。对于科学家、工程师和医生来说,这至关重要。这是黑箱与值得信赖的发现伙伴之间的区别。
在我们探索了不确定性的原理与机制之后,一个合理的问题仍然存在:它的实际价值是什么?拥有一种描述疑虑的数学语言是一回事,但让这种语言告诉我们一些关于世界的有用信息则完全是另一回事。这正是该框架力量真正显现的地方。事实证明,诚实地说明无知是我们拥有的最强大的工具之一。一个能告诉你它不知道什么的AI,并非有缺陷的AI;它是一个智能、可信赖的发现与设计伙伴。这种对未知的认知不是一个缺陷,而或许是最关键的特性,它将科学、工程乃至伦理学贯穿起来。
想象一个科学家团队正在设计一种噬菌体——一种能吞噬细菌的病毒——来对抗一种危险的病原体。他们使用一个AI模型,该模型能根据噬菌体的基因预测它是否会攻击某种细菌。团队设计了一个新的候选噬菌体Phage-X7,并询问模型它是否会伤害我们肠道中的一种有益微生物。模型返回一个预测:裂解(杀伤)活性为0.05,非常低。但它同时报告了一个惊人的不确定性,在同一尺度上为0.92。
团队应该怎么做?一个天真的用户可能会看到低预测值就宣布该噬菌体是安全的。但巨大的不确定性才是真正的信息。这是AI在呐喊:“我对这个预测几乎没有信心!真实值可能要高得多得多!”在安全攸关的情况下,高度不确定性不是一个统计上的奇特现象,而是一个警示信号。它精确地告诉研究人员,在继续进行之前,他们必须将下一个实验聚焦在哪里以获得明确的答案。
这个原则从实验室延伸到法庭。考虑一个用于评估被告再犯风险的AI,它输出一个 分(满分 分)的分数。一项政策规定,任何高于 分的分数都将标记被告为“高风险”,可能导致更严厉的判决。但如果模型的内在不确定性在一个标准差内是 分呢?这个分数不是一个单一、不变的数字,而是一个概率分布的中心。仔细的统计分析显示,我们只有大约66%的把握确定被告的“真实”分数高于阈值——远低于我们在如此重大的决定中所要求的95%的置信度。忽略不确定性区间,仅凭数字 行事,不仅在统计上不健全,而且是一种潜在的不公,是一个没有掌握AI(如果我们倾听的话)试图给予我们的全部信息而做出的决定。
在科学领域,我们是绘制广阔未知领域的探险家。不确定性远非障碍,而是指引我们探索的罗盘。AI模型正成为这项事业中不可或缺的伙伴,不是通过给我们所有答案,而是通过告诉我们去哪里寻找答案。
回想一下我们的科学家们,现在他们正试图找到能杀死病原体的抗生素的精确浓度。测试每一种可能的浓度将是缓慢而浪费的。相反,他们可以使用一个AI来模拟浓度与效果之间的关系。经过几次初步实验后,AI对这种关系有了粗略的了解,但它也有一张关于自身不确定性的地图。它知道自己的预测在哪些地方是模糊的。“主动学习”策略正是利用这种不确定性来智能地选择下一次实验。AI可能会要求测试一个不确定性最高的浓度(探索),或者一个预测结果最接近期望目标但仍不确定的浓度(利用)。这使得AI能够比人类更有效地锁定答案,用它的疑虑作为解剖问题的解剖刀。
有时,不确定性本身就是发现。随着像AlphaFold这样的模型问世,它能从蛋白质的氨基酸序列预测其三维结构,生物学家有了一个强大的新工具。该模型还为其预测结构的每个部分提供了一个置信度分数。人们可能倾向于将低置信度区域视为模型的失败。但更深入的洞察揭示,这些区域往往是最有趣的部分!高结构不确定性的区域通常对应于蛋白质中内在柔性或无序的部分。这些动态区域往往是蛋白质功能的关键所在,如活性位点、铰链和开关。通过分析两种相关蛋白质(旁系同源蛋白,paralog)之间不确定性模式的差异,我们可以就它们的功能如何在进化过程中分化提出明确的假说 [@problem-id:2393280]。
这在计算与现实世界之间创造了一个美妙的反馈循环。一个AI预测了一个蛋白质的两种可能形状,一种紧凑,一种伸展,并告诉我们它不确定哪一种是正确的。这种不确定性直接召唤实验科学家采取行动。利用像福斯特共振能量转移(FRET)或双电子-电子共振(DEER)这样的精密技术(它们就像微观的尺子),生物物理学家可以在试管中测量蛋白质各部分之间的实际距离。这些物理测量结果可以用来证实一个模型并否定另一个,从而解决AI的不确定性,推进我们的基础知识 [@problem-id:2141112]。
如果说科学是关于发现是什么,那么工程就是关于创造可能是什么。在这个领域,我们从来没有完美信息的奢侈。我们的模型是近似的,材料具有可变的属性,操作条件也会波动。承认并驾驭不确定性是优秀工程的灵魂所在。
想象一下你正在为电动汽车设计下一代电池。你面临一个经典的工程权衡。你想要最大化能量密度(以获得更长续航)、循环寿命(以保证耐用性)和安全性——但改善其中一项往往会牺牲另一项。此外,你对这些属性的预测模型本身也是不确定的。你如何做出一个有原则的设计选择?
答案在于稳健优化。你不是为预测的性能进行优化,而是为你的不确定性范围内的最坏情况性能进行优化。对于每个潜在的设计,你都问:“假设在我的不确定性允许的最坏可能结果下,这个设计有多好?”通过对所有三个目标——能量、寿命和安全——都这样做,你可以识别出那些“稳健的帕累托非支配”设计。这是一组设计,没有任何其他选项在所有最坏情况场景下都更优。它为工程师提供了一份有弹性、可靠的选择菜单,而不仅仅是纸面上乐观的完美方案。
这种稳健性原则可以更进一步,甚至可以提供稳定性的数学保证。考虑一个电网、一群无人机或任何由相互作用的组件构成的网络。连接的强度可能会变化或不确定。对于控制理论家来说,一个关键问题是:系统会保持稳定,还是这种不确定性会导致其失控?小增益定理提供了一个深刻的答案。通过将系统视为一个标称的、行为良好的部分和一个不确定性模块,该定理提供了一个严格的条件:如果标称系统的“增益”(一种放大的度量)乘以不确定性的大小小于一,那么整个系统保证是稳定的。这使得工程师能够计算出系统在变得不稳定之前可以容忍的最大不确定性量,将一个模糊的担忧转化为一个确切、可计算的界限。
也许不确定性最紧迫、最深刻的应用在于人工智能的伦理维度。当我们部署算法来做出影响人类生活的决定时,我们必须努力解决偏见和公平问题。在这里,对不确定性的正式理解再次为我们提供了一条前进的道路。
我们已经看到,不考虑再犯风险分数的不确定性区间而采取行动可能导致不公正的结果。问题在于,一个单一的数字——一个“点估计”——隐藏了模型的疑虑。但是,如果我们能从一开始就构建一个根本上公平的系统呢?
分布式稳健优化(Distributionally Robust Optimization, DRO)为此提供了一个强大的框架。想象一下,我们正在为贷款申请或医疗诊断设定一个单一的阈值,但我们知道我们针对不同人口群体的数据是有限的,因此真实的风险率是不确定的。我们可以使用DRO来解决一个不同的问题,而不是寻找一个能最小化所有群体平均误差的阈值:找到那个能为处境最差的群体最小化误差的阈值,同时考虑到我们不确定性范围内的所有可能现实。
在一种这样的公式中,我们寻求一个单一的分类分数 ,它能够最小化所有人口群体中可能的最大风险(例如,平方误差),其中每个群体的风险是在其自身的最坏情况概率分布下评估的。通过解决这个极小化极大问题,我们常常能找到一个解决方案,它不仅最小化了最坏情况下的损害,而且还在所有群体之间均衡了这种最坏情况下的风险。这是一个美妙的想法:系统被设计成不仅在平均水平上公平,而且能稳健地对抗我们对世界知识的不确定性,从而实现公平。
这段旅程向我们展示,不确定性不是失败的标志,而是力量的源泉。它是科学探究的引擎,是稳健工程的基石,也是算法正义的语言。要构建真正智能的AI,我们必须首先教会它们“知其所不知”的智慧。而在这样做的过程中,我们自己或许也能学到几分智慧。