
人工智能正迅速成为有史以来最强大的工具之一,有望彻底改变从医学到工程的各行各业。然而,与传统技术不同,人工智能系统能够以不总是透明的方式学习、适应和决策,这带来了一个关键挑战:我们如何确保这些强大的工具是安全、公平且符合人类价值观的?这个问题是人工智能治理的核心,这一新兴的关键学科关注的不是扼杀创新,而是建立部署人工智能时所需的信任框架,从而使其能被充满信心地使用。
本文对人工智能治理进行了全面的探讨,从基础理论延伸到实际应用。第一章“原则与机制”将解构一个稳健治理体系的核心组成部分。我们将探讨如何管理人工智能的代码、其使用的数据以及与之合作的人类专家,从而建立一个清晰的问责架构。在此基础上,第二章“应用与跨学科联系”将展示这些原则如何在现实世界中应用。我们将审视人工智能治理如何融入高度监管的医学领域,它与监管机构的互动,以及它如何应对深刻的伦理和哲学问题。通过这一过程,我们将揭示治理如何成为连接人工智能潜力与其负责任地造福社会之间的重要桥梁。
想象一下你正在建造一座桥。你不会只是把一些材料堆在一起,然后期望汽车能顺利通过。你会依赖数百年积累的智慧——物理学、材料科学和工程学原理。你会有蓝图、检查计划、重量限制和一支负责任的专业团队。这整个由规则、实践和责任构成的系统就是一种治理形式。它将一个强大的想法转变为值得信赖的现实。
人工智能是我们通往新世界的新桥梁,它将我们连接到前所未有的洞见和能力。但这座桥与众不同。它不是由钢铁和混凝土构成,而是由数据和算法构成。它可以学习、适应,并随时间改变自身结构。那么,我们如何确保它是安全、公平且符合我们最佳利益的呢?这是人工智能治理的核心问题。它不是要用官僚主义扼杀创新,而是要建立起必要的信任框架,让我们能充满信心地使用这些强大的新工具。
要信任一个人工智能系统,我们必须能够治理其核心组成部分。可以把它想象成一个三脚凳:任何一条腿不稳,整个凳子都会翻倒。这三条腿分别是人工智能的代码、其数据以及使用它的人类合作伙伴。一个稳健的治理框架必须同时解决这三个方面。
一个人工智能模型不是一个静态的软件。它是一个动态实体,一个函数 ,其中参数 会随着每个新版本 而改变。这意味着我们需要一个活的蓝图。人工智能治理的一个核心原则是创建一个正式的模型注册库,这是一个完美的日志,用于追踪人工智能的每一个版本。该注册库将每个版本与其性能报告、训练数据以及获得的批准联系起来。这种可追溯性是问责制的基石。
但是,人工智能并非生活在无菌的实验室里;它存在于不断变化的现实世界中。一个用去年的数据训练的模型在面对今天的现实时可能会表现不佳。这种现象被称为分布漂移,是人工智能安全领域最大的挑战之一。治理要求我们像警惕的科学家一样,持续监控已部署的模型。我们必须留意性能的下降,就像工程师倾听桥梁中的应力性骨折声一样。
这不是凭空猜测。它涉及严格的、有统计功效的审计。想象一个诊断性人工智能,其中一个漏诊病例(假阴性)是一个严重的安全风险。我们可以定义一个基准假阴性率(FNR)为 。然后,治理委员会将预先指定何为危险的性能下降——比如说,FNR上升到 。接着,他们会使用统计功效分析来确定需要定期审查的确切病例数量,以便可靠地检测到这种下降。这就是如何将“安全”等抽象原则转化为具体、可验证的行动。如果监控检测到数据分布的变化超出了设定的容忍度 ,或者模型的净效益不再为正 ,就必须触发预定义的纠正措施,其范围可以从简单的警报到完全下线模型。
人工智能是其所消费数据的反映。因此,数据治理与算法治理同等重要。可以把医院的数据生态系统想象成一个宏大而复杂的厨房。这里有一个数据湖,像一个巨大的食品储藏室,存放着各种原始食材——非结构化的医生笔记、影像文件、监护仪的流式数据。它的灵活性在于结构是在“读取时”应用的,即在你决定要做什么菜的时候。
然后是数据仓库,这是配料准备台,食材在这里被清洗、标准化并组织成经过策划的数据集,采用“写入时模式”的方法。这确保了生成报告等任务的质量和一致性。最后,对于构建人工智能模型这一专门任务,我们有一个特征存储。这就像拥有完美计量、预先包装好的餐包,确保离线训练模型所用的特征与在线实时预测所用的特征完全相同,从而防止危险的“训练-服务偏差”。
管理这个厨房不仅是一项技术任务,更是一项深刻的伦理任务。数据,尤其是在医疗健康领域的数据,不属于医院或人工智能开发者。它们是患者委托给他们的。这就产生了一种信托责任——一种为患者最大利益行事的庄严义务。这项责任包括忠诚、谨慎和坦诚。
这种谨慎责任延伸到数据的所有下游使用。假设医院考虑与商业供应商共享一个“去标识化”的数据集来训练一个新的AI。信托责任要求进行清晰的风险评估。再识别的残余风险()是多少?由此产生的AI对某些群体存在偏见的风险()是多少?总预期损害,我们可以认为是 ,必须被仔细权衡。如果该风险超过预定义的阈值 ,医院的谨慎责任要求它要么设法降低风险,要么如果无法降低,就必须返回去征求患者对这一新用途的具体的、知情的同意。最初为“研究”目的获得的同意可能是不够的。去标识化是一种工具,而不是可以免除责任的魔杖。
在关键领域,人工智能很少单独工作。它被设计成人类专家的伙伴——飞行员、法官、医生。但要使这种伙伴关系安全有效,人类必须始终掌握控制权。这就是有意义的人类控制原则。仅仅让一个人类“在环路中”是不够的;这个人类必须被赋予权力。这需要三件事:
这导致了不同的交互模型。在监督模型中,人工智能在后台工作,像一个警惕的助手,人类监控其工作,并在必要时进行干预。在否决模型中,人工智能提出一个行动建议,但未经人类明确批准不得执行。在共同决策模型中,人类和人工智能必须达成一致才能采取行动,为高风险决策创建了一个“双密钥”系统。模型的选择是一项关键的治理决策,由风险水平和任务性质决定。
原则不会自动执行。它们必须被嵌入到由人员和流程构成的架构中。治理是一项团队运动,每个参与者都扮演着至关重要的角色。
风险所有者不是IT经理,而是临床领导者——比如科室主任——他最终对人工智能使用领域的患者结果负责。他们拥有临床风险,并对人工智能的性能是否可接受拥有最终决定权。
审计员是一个独立的职能部门,向董事会审计委员会等高层机构汇报。他们的工作是测试治理过程本身,确保规则得到遵守,监控是严格的,控制是有效的。他们的独立性是不可协商的;你不能让构建人工智能的团队同时成为其唯一的评判者。
临床倡导者是来自一线、备受尊敬的执业者。他们是开发者和最终用户之间的桥梁,负责培训同事,监控工具在混乱的临床工作流程中的实际使用情况,并识别非预期的后果。
这些角色都在一个正式的人工智能监督委员会或伦理与安全治理委员会的职权范围内汇集在一起。这个多学科机构——由临床医生、伦理学家、数据科学家、患者权益代表和隐私官组成——是治理系统的大脑。它制定政策,审查审计报告,调查事件,并拥有批准、暂停或退役一个人工智能系统的最终权力。
或许治理最深刻的功能是帮助我们在价值观冲突时做出艰难的选择。人工智能以一种新的清晰度迫使我们直面这些权衡。
考虑一个旨在识别可能从预立医疗照护计划对话中受益的患者的人工智能。审计可能会发现,虽然该工具对普通人群效果很好,但其对非英语为母语的患者亚组的灵敏度明显较低。它系统性地低估了他们的风险,导致他们错过了这些至关重要的对话。这是公平性的严重缺失。好的治理意味着我们不仅仅关注平均性能;我们会积极审计不同群体间的公平性,并重新校准我们的工具,以确保它们能公平地服务于每个人。
此外,我们必须明确权衡不同错误的危害。一个假阳性(与低风险患者发起对话)可能会引起一些焦虑,我们可以为其分配一个相对危害值 。但一个假阴性(未能识别出高风险患者)可能导致与其价值观不符的医疗护理,这是一个更大的危害,也许是 。治理使这些价值判断变得透明,并提供了一个框架来调整人工智能的阈值,以最小化总预期危害。
当像个人自主权这样的基本权利与像公共卫生这样的集体利益发生冲突时,最终的考验就来了。想象一个利用个人数据追踪危险病毒传播的人工智能。一位患者以隐私为由拒绝分享他们的数据。法律可能允许在公共卫生紧急事件中披露这些数据,但这在伦理上是否合理?在这里,治理提供了一个原则阶梯。我们不会直接跳到最侵入性的措施。我们运用必要性和相称性的检验。我们寻求限制最少的替代方案。这可能导致一个分层系统:仅使用聚合的、去标识化的数据进行一般性监测,并且只有当个体对他人构成风险的概率超过一个明确、预定义且有科学依据的阈值时,才升级到使用可识别数据进行接触者追踪。
这就是人工智能治理的魅力与挑战所在。它是一项深刻的人性化事业。它是一个结构化的、理性的、合乎伦理的过程,通过这个过程,我们决定如何将这些强大的新线索编织到我们社会的结构中,确保它们使我们更强大、更安全、更公正。
在经历了人工智能治理的核心原则和机制之旅后,我们可能会倾向于将其视为一套抽象的规则或哲学辩论。但这与事实相去甚远。治理并非创新的束缚,而是其自身的蓝图。它是将我们的价值观——安全性、公平性、问责制——转化为现实世界中的硅片、代码和临床工作流程的实用科学与艺术。在本章中,我们将探讨治理的原则如何焕发生机,从工程师的工作台走向医生的诊所,从监管者的办公桌走向哲学家的书房。我们将看到,好的治理不是要说“不”,而是要发现如何负责任地说“是”。
或许没有哪个领域比医学领域的人工智能风险更高,对稳健治理的需求更清晰。在这里,算法中的一个错误不是一个软件缺陷,而是对人类生命的潜在伤害。那么,我们如何构建值得信赖的医疗人工智能呢?事实证明,答案不是从零开始创造一套新规则,而是将人工智能的独特挑战融入到经过时间考验的工程和质量管理框架中。
想象一下构建一个新的、复杂的医疗设备。你不会只是在车库里组装零件。你会在一个全面的质量管理体系(QMS)内运作,这是一个像ISO 13485这样的框架,它管理着从设计、文档到培训和上市后监督的一切。当你的设备由软件驱动时,一套针对软件生命周期的特定规则,如IEC 62304,便会生效。现代人工智能治理的关键洞见在于,这些框架并非被人工智能所取代,而是被扩展。人工智能产生偏见的可能性、其性能随现实世界数据变化而“漂移”的趋势,或其缺乏可解释性,都不被视为神秘的怪癖。相反,它们在既有的风险管理流程(ISO 14971)中被正式归类为潜在危害。然后,一个治理结构会分配明确的问责制,确保减轻这些人工智能特有的风险成为工程过程中可验证的一部分,就像确保物理组件无菌或电源可靠一样。
一旦设备建成,它必须找到进入市场的途径。像美国食品药品监督管理局(FDA)这样的监管机构充当着公共安全的守门人。但当一个设备如此新颖以至于没有先例时,会发生什么?如果你发明了一种以全新方式分析心律的人工智能,就没有“前代设备”可供比较以获得标准的许可。这正是治理显示其灵活性的地方。FDA的De Novo路径正是为此种情况而设计的。它允许新颖的、低到中度风险的设备上市,但在此过程中,它创建了一个新的分类,并建立了针对该新技术的“特殊控制”。对于一个自适应人工智能,这些特殊控制可能包括一个预定变更控制计划(PCCP),这是一个预先批准的“飞行计划”,详细说明了模型在上市后如何在不损害安全性的前提下进行更新。这就是治理赋能创新:为新思想触及患者创造一条安全、受监管的途径。
这个挑战是全球性的。在欧洲,类似的演变正在进行中。人工智能医疗设备已经必须遵守严格的医疗器械法规(MDR)。现在,欧盟人工智能法案为“高风险”人工智能系统增加了另一层具体要求。制造商必须进行差距分析,将新的人工智能法案规则——例如为防止偏见而制定的正式数据治理、增强的透明度和强制性事件日志记录——映射到其现有的MDR合规框架上。这揭示了当前实践在何处是充分的,以及在何处必须建立新流程,例如,通过创建超越MDR间接要求的明确数据质量控制。这些从美国到欧盟和英国的监管层级,也为人类用户创造了一个复杂的网络。一个远程医疗网络要想对一位心脏病专家进行资质认证,以使其能在这些司法管辖区使用某个人工智能工具,就必须创建一个满足所有制度最高共同标准的能力框架,确保该执业者在数据隐私、风险管理和事件报告方面都符合每个地区特定的法律。
治理的旅程并不会在产品获批上市后结束。在很多方面,它才刚刚开始。一个人工智能系统,特别是能够学习的系统,不是一个静态的物体,而是一个动态的过程,必须在其整个生命周期中被理解、监控和引导。
第一步是严格的科学验证。我们如何证明一项人工智能干预措施真正有益?黄金标准是随机对照试验。然而,人工智能是一项独特的复杂干预措施。它不是一颗简单的药丸。它的性能可能取决于软件版本、数据管道以及临床医生与之互动的方式。为确保科学的完整性,像CONSORT-AI和SPIRIT-AI这样的报告指南应运而生。它们要求彻底的透明度。如果在试验中途更新了模型或改变了工作流程,这些偏离原始方案的行为不能被掩盖。它们必须被一丝不苟地记录下来——改变了什么、为什么、何时,以及可能带来何种偏见。这是服务于科学真理的治理,确保我们从试验中学到的东西既有效又可复现。
一旦部署,治理就成为一个持续的质量控制过程。在一个使用人工智能对诊断工作流程进行分流的临床实验室中,这并非凭空猜测,而是一门量化学科。基于统计学原理,领导层可以设计一个具有特定频率的监控计划。为了以一定的统计功效检测性能漂移,必须审查最少数量的病例。知道了实验室的每日病例量及其质量检查的抽样率,就可以计算出进行正式性能审计的精确间隔——比如说,每天一次。这将“监控漂移”的抽象目标转化为一个具体的、有统计功效的、可审计的操作任务。
但是当出现问题时会发生什么?一个基于人工智能的系统推荐了药物剂量,临床医生听从了建议,结果患者遭受了重大不良事件。谁该负责?一个简单的分析可能会指向临床医生,即错误的“尖端”。一个更复杂的治理框架则要求进行更深入的调查,类似于空难调查。在这里,因果推断的工具变得不可或缺。通过使用巧妙的统计设计,例如一个稍微“鼓励”临床医生采纳人工智能建议的随机“鼓励”措施,分析师可以从其他混杂因素中分离出受人工智能影响的行动的真实因果效应。最终的分析不会导致单一的替罪羊。相反,它允许进行系统性的问责分配:对供应商的模型校准负责,对临床医生的最终判断负责,以及对机构所建立的治理和安全保障措施负责。这是作为学习系统的治理,其重点不是指责,而是理解根本原因,以构建一个更安全的未来。
当我们把人工智能推向人类经验最私密、最神圣的角落时,我们发现治理必须超越工程和监管,去涉足伦理和哲学。最困难的问题不是人工智能能做什么,而是它应该做什么。
思考姑息治疗的深刻挑战。一位老年患者生命垂危,正遭受着顽固症状的折磨。必须就姑息性镇静——使用药物降低意识以减轻痛苦——做出决定。一个人工智能模块被部署来指导这一过程,它根据临床评分遵循一个递增剂量的方案。然而,仔细观察会发现一个深刻的伦理缺陷。该算法被设计为根据单个数据点自动升级到深度、不可逆的镇静,而没有强制要求暂停以进行人类的重新评估或重新获得同意。这个系统虽然看似合乎逻辑,却违反了相称性(使用最小必要的干预)和最后手段的核心伦理原则。它用一个复选框取代了在这种时刻所需的深刻、审慎的人类判断。这是一个强有力的警示故事:有些决定不仅仅是可以优化的计算,而是需要做出的判断。真正的治理确保人类智慧、同情心和问责制的闭环保持完整。
这引出了一个更深层次的问题:如果我们要构建合乎伦理的人工智能,我们应该内置哪种伦理?当人工智能建议为一名绝症患者降级无效治疗,而这与家属“尽一切努力”的绝望请求相冲突时,系统的治理应如何解决这个问题?我们可以求助于不同的哲学框架。美德伦理学关注临床医生的品格,但很难将“实践智慧”编入可审计的算法中。能力方法关注恢复对有尊严生活至关重要的功能,这是一个强大但有时含糊的标准。事实证明,原则主义的框架——平衡自主性(尊重患者的预立指示)、行善(做好事)、不伤害(避免伤害)和公正(资源管理)等核心原则——最具有“可治理性”。这些原则为伦理分析提供了一种结构化、透明且可复现的语言。我们可以设计和审计一个人工智能来检查:这个行动是否尊重患者的既定意愿?概率是否显示净收益或净损害?对公平性有何影响?通过选择像原则主义这样的框架,我们使伦理推理本身成为治理架构的一个组成部分,可供审查和辩论。
最后,我们来到了一个如此根本以至于几乎构成了治理中所有挑战基础的原则:古德哈特定律。其最简单的形式是:“当一个度量成为目标时,它就不再是一个好的度量。”这不是一句愤世嫉俗的格言;它是复杂适应性系统的一条基本法则。当医院根据一个代表患者福祉的代理指标获得奖励时,它们将不可避免地开始优化该指标本身,其方式往往会使指标与真正的福祉脱钩。这种“古德哈特化”有几种形式。它可以是回归性的,当我们被嘈杂数据中的均值回归所迷惑时。它可以是因果性的,当我们通过操纵测量过程来“应试教学”时。它可以是极端性的,当我们把系统推向一个旧有关联不再适用的新状态时。而在一个拥有先进人工智能的世界里,它也可以是对抗性的,即智能体主动利用评估者逻辑的漏洞。即使智能体能够进行复杂的“非因果推理”,理解其策略与评估者反应之间的逻辑联系,古德哈特定律的本质挑战依然存在。它是治理的一个普适常数,一个永恒的提醒:我们的指标是地图,而非领土,最终目标必须永远是我们所追求的真正福祉,而不是我们所测量的代理指标。
从工程师的蓝图到哲学家的探寻,人工智能治理的应用揭示了一个统一的追求:将强大的技术与永恒的人类价值观对齐。这是一个动态的、富有挑战性的、深刻的跨学科领域——是我们有意识地塑造未来的核心工作。