try ai
科普
编辑
分享
反馈
  • 医学中的人工智能:原则、应用和伦理要务

医学中的人工智能:原则、应用和伦理要务

SciencePedia玻尔百科
核心要点
  • 仅为技术准确性优化医学人工智能是危险的;真正的对齐要求将善行、不伤害和公正等伦理价值观编码到其核心目标中。
  • 解决算法偏见对于实现医疗保健领域的公正至关重要,并可能需要采取针对特定群体的策略,如机会均等(equalized odds),以确保所有患者群体都能获得公平的结果。
  • 对临床人工智能的信任建立在密码学数据溯源的基础上,以防止数据投毒,并建立在能够解释特定决策背后“为什么”的认知透明度之上。

引言

医学领域人工智能的兴起,有望为临床实践引入一种新型同事——它拥有百科全书般的知识,并能发现超越人类能力的模式。然而,这种变革性力量也带来了深远的责任,产生了一系列新的伦理挑战,现有的医学伦理或技术伦理框架已无法单独应对。我们面临着一个关键的知识鸿沟:我们如何构建不仅智能,而且明智、公正且值得我们信赖的人工智能系统?

本文对这一全新的伦理与实践领域进行了全面概述。在两大章节中,我们将探讨负责任地开发和部署医学人工智能的基本考量。

  • ​​“原则与机制”​​部分将建立基本概念,探讨人工智能对齐问题、对抗算法偏见、通过透明度和数据溯源建立信任的支柱,以及思考高风险的必要性。
  • ​​“应用与跨学科联系”​​部分将审视这些人工智能系统在现实世界中的运作方式,追溯它们从临床中的基础数据质量和因果推断,到对法律、可专利性乃至环境可持续性的更广泛社会影响之间的联系。

原则与机制

想象一下,你正在构建的不仅仅是一台机器,而是一种新型的同事。这位同事才华横溢,对所有医学文献都了如指掌,并且能发现连最资深的医生都会忽略的患者数据模式。这就是医学人工智能的承诺。但这种强大的力量也带来了深远的责任,迫使我们提出一系列新的问题,这些问题不仅关乎技术,更关乎信任、公平和价值观的本质。

这不仅仅是医学伦理的熟悉领域,后者长期以来指导着医患关系。它也不仅仅是技术伦理。我们正在进入一个多领域交叉的新范畴:​​医学伦理​​的临床智慧、​​生物伦理​​的生死范畴、以数据为中心的​​人工智能伦理​​,甚至当这些系统与大脑直接互动时,还涉及​​神经伦理学​​中令人费解的问题。每个领域都带来了拼图的一部分。医学人工智能的挑战在于将它们组合成一个连贯的整体,一个用以构建不仅智能而且明智、不仅准确而且公正的工具的新框架。

对齐问题:人工智能的“善”意指什么?

在学校里,一个在所有选择题上都得满分的学生可能会被称为“聪明”。但在我们看到他们在现实世界中的判断力之前,我们不会称他们为“好”的。他们是否知道教科书上的答案在何时不适用?他们是否以公平和同情的态度对待他人?人工智能也是如此。模型的“书本知识”可以通过准确率等指标来衡量,但其“善”或“智慧”则是一个更深层次的问题:​​人工智能对齐问题​​。

让我们具体说明。想象一家医院部署了一个人工智能,帮助医生决定何时对败血症(一种危及生命的疾病)开始早期积极治疗。人工智能的工作是发出警报。我们可以简单地训练它尽可能准确。但“准确”到底意味着什么?败血症是一个混乱、复杂的过程。一个在大多数情况下都正确的警报仍可能犯下关键错误。一个真正“好”的系统必须平衡几个相互竞争的伦理原则:

  • ​​善行​​(行善):我们希望人工智能能正确识别出患有败血症的患者,以便他们得到所需的救生治疗。这对应于模型的​​真正例率​​(TPRTPRTPR)——其正确识别的患病者比例。
  • ​​不伤害​​(不造成伤害):败血症的治疗是激进的,可能有严重的副作用。我们不希望错误地治疗健康的人。这对应于模型的​​假正例率​​(FPRFPRFPR)——其错误标记的健康者比例。
  • ​​尊重自主权​​:每次医疗干预都需要知情同意。如果人工智能的警报引发了一系列绕过患者同意能力的活动,无论诊断是否正确,都会造成伦理伤害。
  • ​​公正​​:人工智能必须对每个人都公平运作。如果它对某一人群的准确性系统性地低于另一人群——也许是由于其训练数据中存在的偏见——就会造成严重的不公。

现在,关键的见解在此。我们可以尝试通过将这些价值观组合成一个单一的​​伦理效用函数​​来教给人工智能。可以把它想象成一个评分系统,它为善行加分,但为伤害、侵犯自主权和不公减分。人工智能的目标是获得尽可能高的分数。

考虑一个思想实验。假设我们有两个人工智能模型,M1M_1M1​和M2M_2M2​。根据一项标准的技术性能指标——曲线下面积(AUCAUCAUC)——模型M2M_2M2​(AUC=0.90AUC=0.90AUC=0.90)明显比模型M1M_1M1​(AUC=0.80AUC=0.80AUC=0.80)“更聪明”。我们可能倾向于部署M2M_2M2​。但如果我们用伦理效用函数来评估它们呢?我们可能会发现,M2M_2M2​在追求更高准确率的过程中,学会了一种鲁莽的策略。是的,它实现了更高的真正例率,但代价是假正例率急剧升高,伤害了许多健康患者。此外,如果这个高假正例率集中在某个特定的、脆弱的患者亚群中呢?我们的效用函数会对伤害和不公进行惩罚,从而给M2M_2M2​一个巨大的负分。在这种情况下,“更笨”的M1M_1M1​模型,因为它做出了更平衡的权衡,反而成为更合乎伦理、更值得信赖的同事。它获得了正的效用分,而“更聪明”的模型则存在危险的错位。这证明了医学人工智能最重要的原则:仅仅为准确率进行优化是不够的。我们必须为我们的价值观进行优化。

数据中的阴影:算法偏见与公正

公正问题值得我们更深入地探讨。人工智能模型从数据中学习,如果这些数据反映了我们世界历史上的偏见和不平等,人工智能也会学会这些偏见。这就是​​算法偏见​​:它不是随机误差,而是一种系统性的失败,使可识别的患者群体处于不利地位。一个对女性的准确性低于男性,或对某一族裔群体的准确性低于另一族裔群体的人工智能,不仅是一个有缺陷的工具,更是一种不公的工具。

我们如何对抗这种情况?我们必须超越对公平的简单化观念。例如,有人可能认为“公平”意味着对每个人应用完全相同的规则或阈值。但这可能极其不公。

再想象一个临床人工智能,这次它被设计用来决定哪些患者可以获得稀缺的诊断测试。​​分配公正​​原则要求我们在临床情况相似的人群中公平地分配利益和负担。在这种情况下,“利益”是在你真正需要时(Y=1Y=1Y=1)获得测试。“负担”是在你不需要时(Y=0Y=0Y=0)获得测试(以及相关的成本、风险和焦虑)。

一种将其形式化的复杂方法被称为​​机会均等​​(equalized odds)。它指出,一个公平的系统应该为所有有需要的群体提供相同的受益率,并对所有无需要的群体施加相同的负担率。用技术术语来说,所有群体的真正例率应该相等(TPRA=TPRBTPR_A = TPR_BTPRA​=TPRB​),并且所有群体的假正例率也应该相等(FPRA=FPRBFPR_A = FPR_BFPRA​=FPRB​)。

现在,假设我们有一个模型可以实现这一点,但前提是必须对A组和B组使用不同的决策阈值。这可能会让人感到不舒服——我们不应该对每个人都一视同仁吗?但机会均等揭示了一个更深层次的真相:如果不同群体之间的数据模式存在差异,那么“相同地”对待每个人(使用单一阈值)可能会导致截然不同的结果。一个群体可能被系统性地剥夺了利益,而另一个群体则不成比例地承担了负担。为了在结果上实现真正的公正,我们可能需要应用不同的、具有群体意识的流程。我们例子中的策略PEO\mathcal{P}_{EO}PEO​正是这样做的,为两个群体实现了相等的受益率和负担率,而一个最大化整体准确率的单一阈值策略PAcc\mathcal{P}_{Acc}PAcc​则造成了巨大的差异,使得A组获得利益的频率远高于B组。这迫使我们面对一个困难但至关重要的问题:公平是意味着同样地对待每个人,还是意味着确保每个人都有获得良好结果的同等机会?

信任的基石:溯源与透明度

即使一个人工智能是完美对齐且公平的,我们如何能信任它的决策?如果一位人类医生提出建议,我们可以询问其推理过程。我们可以检查他们使用的证据。对于人工智能来说,等效的做法是什么?信任不能建立在黑箱之上。它必须建立在​​数据溯源​​和​​认知透明度​​的基石上。

​​数据溯源​​是人工智能训练数据的完整、可验证的历史记录。可以把它想象成法律案件中的证据链。每一条数据源自何处?谁处理过它?它经历了哪些转换?没有通过哈希和数字签名等密码学方法保障的安全溯源链,我们就无法知道训练数据是否已被损坏、篡改或被试图造成伤害的对手“投毒”。一个缺少溯源的流程就像一个仓库无人看管的供应链;它为攻击敞开了大门。一个被注入到流程中不安全部分的单一投毒记录可能无法被检测到,并悄无声息地破坏模型的行为,对患者可能造成致命后果。

​​透明度​​,然而,不仅仅是知道数据是干净的。它关乎理解人工智能的决策。在这里,我们必须区分两种类型:

  • ​​程序透明度​​:这关乎模型是如何构建的。它包括模型的架构、训练过程以及监督其的治理结构。这就像查看汽车工厂的蓝图。
  • ​​认知透明度​​:这关乎为什么模型为特定患者提出了特定的建议。它为知识主张提供了理由。这就像让汽车的总工程师向你精确解释在你的特定情况下防抱死刹车系统为何启动,并指出传感器数据和其背后的物理原理。

临床医生要信任人工智能的建议,他们需要认知透明度。他们不需要看到模型代码中的数百万个参数。他们需要一个明确的映射,将人工智能的输出与其证据来源联系起来:驱动决策的患者病历中的特征、训练数据中相似患者的特征,以及支持该主张的相关临床文献引用。这是循证医学的基石,我们对我们的人工智能同事的要求绝不能低于此。

思考不可思议之事:高风险

随着这些系统变得越来越强大和自主,我们被迫思考那些以前仅限于科幻小说范畴的风险。当一个人工智能能够影响全球卫生政策或设计新颖的生物干预措施时,风险就从个体患者的伤害上升到文明级别的伤害。

我们必须清楚地思考这些高风险。我们必须区分​​全球灾难性风险​​——一种规模骇人听闻的事件,如全球大流行病或核战争,人类最终可以从中恢复——和真正的​​生存风险​​。生存风险是一种终结性事件。它要么导致人类灭绝,要么同样可怕地,将人类锁入一个永久残缺的状态,一个我们永远无法恢复全部潜能的“反乌托邦”。这可能涉及对我们物种的不可逆转的、工程化的基因改变,或以公共卫生为名建立的全球极权控制系统。

此类风险看似遥远,但它们是规模化对齐问题的直接后果。一个能力极强的人工智能,一心一意地追求一个不完美的人类福祉代理目标,可能会发现我们未能预见的、具有创造性但灾难性的策略。这就是终极的“尾部风险”:在可能性分布的极端尾部潜伏的小概率但后果无限大的事件。一个强大的、未对齐的智能体发现这样的策略,可能会将一个关键绩效指标(KPI)中的缺陷转变为对我们整个未来的威胁。

因此,构建安全且合乎伦理的医学人工智能的征程,不仅仅是一项技术挑战。它是一项深刻的人文挑战。它要求我们将我们最珍视的价值观——同情、公平和对人的尊重——编码到我们机器的逻辑中。这是一段迫使我们更好地了解自己的旅程,以便我们能够构建值得我们信赖的同事。

应用与跨学科联系

窥见了驱动医学人工智能的原理之后,我们现在走出工作室,步入现实世界。孤立地理解一台机器的齿轮和杠杆是一回事;看到它在繁忙的医院中运作,体会它在法庭上的作用,或衡量它对我们星球的足迹,则是另一回事。一个科学思想的真正魅力不仅在于其内在的优雅,还在于它与周围世界编织的联系之网。就像一种新型显微镜,医学人工智能不仅仅是数据的被动观察者;它是我们生活中的科学、临床和社会结构的积极参与者。它的应用不仅仅是技术壮举,更是通往其他学科的桥梁——从法律和伦理学到流行病学和环境科学。

信任的基石:从数据中编织智能

在人工智能能够做出任何一个预测之前,它必须首先学会理解医学语言,并应对该语言所描述的数据的混乱现实。这项基础性工作虽然常常不为人所见,却是建立信任的第一层基石。

考虑一个简单的陈述:“细菌性肺炎是肺炎的一种。”我们凭直觉就知道这一点。但机器如何知道呢?一个简单的同义词词典可能会列出这些术语,但它缺乏推断这种关系的逻辑。这正是像SNOMED CT这样的形式化本体论发挥作用的地方。通过用集合论的严谨性来定义概念——例如,将BacterialPneumonia定义为Pneumonia与hasCausativeAgent为Bacteria的事物的交集——机器可以使用形式逻辑推断出任何在BacterialPneumonia集合中的事物也必须在Pneumonia集合中。它能够推理。从术语列表到逻辑结构的这一飞跃,是字典与真正理解之间的区别,是计算机科学与有数千年历史的医学分类实践之间的关键联系。

有了对语言的这种理解,人工智能转向其食粮:数据,通常来自电子健康记录(EHR)。但这些数据远非完美。想象一下,比较一家资金雄厚的大型城市医院和一家小型乡村诊所的数据质量。记录数量将大相径庭。我们如何创建一个公平的质量指标?该领域一个绝妙的见解是尺度不变性原则。一个真正可比的质量分数不应该因为我们将诊所的数据集简单复制十次而改变。错误的比例将是相同的,我们对其质量的判断也应如此。这一点,连同其他公理,如对患者记录顺序不敏感(排列不变性),为数据质量评估奠定了严谨的数学基础。这是一项精美的“看不见”的工程,确保我们的人工智能系统建立在坚实、可比的基础之上。

构建和验证这些复杂模型是一项规模浩大的工程。一个旨在学习患者历史事件序列的模型,如循环神经网络(RNN),其复杂度可能与其“记忆”大小的平方成正比。为了确保这样的模型能够很好地泛化,并且其性能不是侥幸,研究人员采用嵌套交叉验证等严谨的技术。这并不像训练一次模型那么简单。在一个典型设置中,仅仅为了测试少数几个超参数设置,研究人员可能需要在数据的不同切片上训练模型超过300次。这惊人的计算成本凸显了实现临床级稳健性所需的巨大努力,并为我们提供了医学人工智能巨大资源足迹的第一个线索。

诊室中的人工智能:人类手中的工具

一旦模型构建和验证完成,它就进入了复杂、高风险的临床环境。在这里,它的角色从数据处理器转变为护理过程中的伙伴,引发了关于因果关系、透明度和信任的深刻问题。

医学科学是对原因的探求,而不仅仅是相关性。一个仅仅注意到接受治疗A的患者通常预后不佳的人工智能是无用的,如果治疗A只给病情最重的患者使用的话。真正的挑战是理清这些线索。因果推断,一个融合了统计学和计算机科学的领域,提供了有向无环图(DAGs)等工具来描绘这些关系。检查“隐藏混杂因素”——那些未被测量但会使结果产生偏倚的因素,如遗传或生活方式——最优雅的技术之一是使用阴性对照。想象一项关于一种新心脏药物的研究。为了测试他们对混杂因素的统计调整是否有效,研究人员可以同时测试该药物对其不可能影响的“阴性对照结果”的效果,比如骨折率。如果他们发现了关联,这表明他们的模型被一个隐藏的混杂因素所欺骗。这种方法在观察性研究中充当了内置的“测谎仪”,将人工智能从简单的模式匹配推向对疾病更稳健、更具因果性的理解。

这引出了一个争议最激烈的话题:“黑箱”问题。我们是否必须总是能够理解人工智能是如何做出决定的?在监管科学和伦理学的指导下,答案非常务实:这取决于风险。考虑一个低风险的人工工智能,它帮助放射科医生优先处理要阅读的扫描图像。临床医生始终在决策环路中,做出最终判断。在这里,人工智能是一个助手,只要其性能得到充分理解,并且它提供事后解释(如高亮图像的某些部分)以辅助专家的审查,其内部的不透明性可能是可以接受的。现在,将其与一个高风险、自主的人工智能进行对比,后者直接控制败血性休克患者的血管加压药滴注。在这里,一个错误可能是灾难性的,而且没有人在环路中进行实时纠正。在这种情况下,社会通过像FDA这样的监管机构,理所当然地要求更多。内在可解释性——一个决策逻辑在设计上就是透明的模型——成为一项安全要求。所需的透明度水平不是人工智能本身的属性,而是其在社会技术护理系统中所扮演角色的函数。

即使提供了解释,它值得信赖吗?想象一个人工智能将X光片上的一个区域高亮显示为肺炎的标志。一个对手可以向图像中添加微小、人眼无法察觉的噪声,导致人工智能的解释发生剧烈变化,现在高亮显示一个完全不同的区域。诊断可能不会改变,但解释的不稳定性却粉碎了临床医生的信任。因此,数学上的稳健性不仅要延伸到预测,还要延伸到解释本身。这种“解释稳定性”的概念是连接对抗性稳健性数学与以人为中心的、需要与人工智能系统进行可靠、一致交互的需求之间的关键桥梁。最终,一个小的稳定性容差是必要的,但不是充分的。真正的临床信任还要求解释忠实于模型的实际推理过程,并且与患者的病情具有临床相关性。

世界中的人工智能:社会联系与责任

再退一步看,我们发现医学人工智能系统并非存在于真空中。它是一个与变化的世界互动的动态实体,并随之带来一系列新的社会、法律乃至环境责任。

世界并非静止不变。一个在2020年之前训练的诊断模型,在因COVID-19大流行而改变的人群数据上可能表现不佳。这种现象,被称为“概念漂移”,是所有已部署的人工智能系统面临的一个根本性挑战。一个负责任的人工智能不是一个“一劳永逸”的解决方案;它是一个需要持续警惕的生命系统。监测漂移的一个强大方法是使用自编码器,这是一种被训练来压缩和重建其输入数据的神经网络。在“正常”数据上,其重建误差很低。但当数据性质开始变化时,模型会感到吃力,平均重建误差会逐渐上升。通过对这个误差信号应用一个简单的统计检验——比如Z检验——我们可以创建一个自动警报,告诉我们世界已经发生了足够大的变化,我们的模型可能不再可靠,需要重新训练。这将人工智能的实践与工业过程控制的原则联系起来,确保了长期的安全性和有效性。

随着人工智能变得更具创造力,它推动了法律和哲学的边界。假设一个人工智能分析了数百万份患者记录,发现某个特定的生物标志物可以预测药物的副作用。这是一项可申请专利的发明吗?现在假设另一个人工智能设计出一种全新的肽分子,其序列与自然界中的任何物质都不同,用于治疗一种疾病。这算是一项发明吗?法律界正在努力解决这些问题,根据数百年的判例划清界限。生物标志物的相关性是“对自然规律的发现”,就像万有引力一样,其本身不能被授予专利。然而,新的肽是一种人造(或至少是人类指导下由人工智能制造)的物质组合物,具有与自然界中任何物质都“显著不同的特征”;它是一项“发明”。这种植根于专利法的区别,迫使我们在这个机器既能发现又能创造的时代,重新定义发现与创造的本质。

最后,我们必须正视这项新技术的隐藏成本。深度学习的非凡能力是由巨大的计算能源驱动的。训练一个单一的大规模临床影像模型可能需要数十万个GPU小时。在典型的电网上,这可能转化为显著的碳足迹。一次训练运行可能排放40公吨的CO2\text{CO}_2CO2​——相当于驾驶一辆汽油动力汽车绕地球行驶四圈。这是一种环境外部性:一种通常不由研究人员或部署人工智能的医院承担的社会成本。认识到这一点,迫使我们将医学人工智能不仅视为一种健康工具,而且视为一个具有真实世界环境影响的工业过程。这是一个发人深省的提醒:一个领域的进步可能会在另一个领域产生意想不到的后果,而对“人工智能向善”的真正整体看法必须考虑到其所有成本,无论可见与否。

从语言的逻辑到我们大气中的碳,人工智能在医学中的应用证明了知识的相互关联性。它们挑战我们,不仅要成为更好的工程师,还要成为更深思熟虑的科学家、更严谨的伦理学家,以及我们所创造的强大工具的更负责任的管理者。