try ai
科普
编辑
分享
反馈
  • 失范的常态化

失范的常态化

SciencePedia玻尔百科
核心要点
  • 失范的常态化是一个渐进的社会过程,在此过程中,偏离安全规则的行为因未立即导致灾难而被接受为常态。
  • 大多数偏离行为是“风险行为”,由系统压力和有缺陷的风险认知驱动,而非出于恶意或鲁莽的意图。
  • “公正文化”为报告错误创造了心理安全感,同时保持了公平的问责制,从而构筑了抵御失范常态化的最有效防线。
  • 人因工程学和结构化述评等常规实践可以建立系统和文化习惯,从而主动防止走捷径成为常态。

引言

在任何复杂的专业领域,从医学到航天,官方规则与不成文的惯例之间都存在着持续的张力。我们常常会走一些小捷径,为了节省时间而变通规程,当没有负面后果发生时,这种捷径似乎就得到了验证。这个看似无害的过程,即偏离标准的行为逐渐成为新的、未被承认的常态,有一个专门的名称:​​失范的常态化​​。这个概念由社会学家 Diane Vaughan 创造,填补了安全科学中的一个关键空白,它超越了指责,旨在理解高压系统中有良好意图的专业人员如何集体地滑向灾难。它揭示了灾难性的失败往往源于标准的缓慢、无声的侵蚀,而这一过程中的每一步似乎都是合理的。

本文将深入剖析这一强大的理论。我们首先将探讨其核心的​​原理与机制​​,剖析导致不安全实践常规化的心理偏见、社会动态和文化因素。然后,在​​应用与跨学科联系​​部分,我们将考察这一现象在医院和研究实验室等高风险环境中的具体表现,以及可以用来反击这种现象的工程和文化策略。

原理与机制

想象一下,你正沿着熟悉的路线开车回家。你来到一个十字路口,信号灯变成了黄色。你有点赶时间,于是你加速冲了过去,就在信号灯变红的那一刻。也许有点小小的刺激,但什么也没发生。第二天,你又这么做了。再下一天也是。几周后,这不再是一个有意识的决定,而仅仅是你通过那个十字路口的方式。碰撞的客观风险丝毫未变——物理定律是顽固不变的——但你对风险的感知已经消失了。你已经漂移到一条新的、不成文的规则,一种新的常态中。这个从已知标准到新的、风险更高的常态的无声、渐进过程,正是社会学家 Diane Vaughan 称之为​​失范的常态化​​的精髓。这并非关于坏人做出坏选择的故事,而是关于好人做出在当时看来合理的选择,直到意想不到的后果以残酷而清晰的方式降临的那一天。

捷径的剖析

从本质上讲,失范的常态化是一个社会过程,而不仅仅是个人失败。它是对一种变通或违反规则的实践的逐渐、集体的接受,这种漂移的发生是因为每一个偏离标准程序的小步骤都没有立即导致灾难。没有负面结果被误解为安全的证据。

设想一个繁忙的外科病房里的情景。一项完善的安全规程——世界卫生组织(WHO)外科安全核查单——已经到位。其中包括一个“签入”阶段,以确认患者过敏史等关键细节。一位经验丰富的护士,为了加快手术室的周转速度,开始对她认为“低风险”的患者省略这一步骤。手术室周转得更快了。没有人出现过敏反应。第二天,同样的捷径被再次采用。不久,其他团队成员也采纳了这种“高效”的新做法。偏离行为已经变得常态化。

这是一条极其危险的道路,但我们必须理解,并非所有偏离都是坏事。任何复杂领域(从外科到航天)的进步都依赖于明智的变通。关键的区别在于方法。将这位护士的捷径与同一家医院里另一个提议修改规程的团队进行对比。这第二个团队,一个急诊手术小组,希望根据新的证据调整抗生素的使用时机。但他们的方法截然不同:他们记录了科学依据,进行了正式的危害分析,设计了一个小规模、受控的测试(一个“计划-执行-研究-行动”循环),预先定义了成功和失败的标准,并在一个治理委员会的监督下运作。

这就是​​审慎的流程调整​​。它是一个审慎、严谨且以证据为基础的过程。相比之下,失范的常态化是无声的、无记录的,并且基于一个危险的逻辑谬误:没有发生伤害就是安全的证明。严谨的调整寻求证据来证明新方法更好;而失范的常态化则仅仅因为目前没有坏事发生,就假设旧标准过于谨慎。

人的因素:失误、风险和鲁莽

为了理解这种漂移为何会发生,我们需要更仔细地审视等式中人的方面。那些走捷径的人仅仅是粗心或怀有恶意吗?极少如此。安全文化的科学提供了一个更具洞察力和同情心的框架,通常被称为​​公正文化​​。这个模型并非要创造一个“无责备”的环境,让任何行为都得到宽容,而是要创造一个“公正”的环境,在这里,问责是公平的,并与行为的性质相匹配。它巧妙地将不安全行为分为三类。

首先是​​人为失误​​。这是无意的滑移、疏忽或错误。想象一位药剂师,在操作设计糟糕的界面时不断被打断,意外地输入了10000毫克,而不是预期的1000毫克。他的意图是正确的,但执行却出了错,这很大程度上是由于系统因素。此时公正的反应不是责备,而是安慰个人,更重要的是,修复那个导致他失败的系统——减少干扰,改进软件显示。

其次,也是我们主题的核心,是​​风险行为​​。在这种情况下,一个人选择偏离规则,但他们这样做是因为他们要么没有认识到风险,要么错误地认为风险微不足道,并且收益(如节省时间)是合理的。我们那位绕过核查单的护士就完全属于这一类。他们相信规则是“官僚主义的”,个人判断是安全的替代品。这正是失范常态化滋生的沃土。公正的反应是指导该个人,并关键性地去理解为什么走捷径被视为必要之举。是时间压力不合理吗?是官方程序真的繁琐吗?

最后是​​鲁莽行为​​。这是一种对重大风险有意识且不合理的漠视。它是在明知危险且没有正当理由的情况下选择做某件事。想象一位医生,尽管药剂师明确警告了潜在的致命后果,他仍然以一种危险的方式给药,仅仅因为“这样更快”。在这里,个人做出了应受指责的选择,采取惩罚性措施可能是适当的。

这个框架的美妙之处在于,它让我们从关注结果(患者是否受到伤害?)转向关注行为本身的性质。它向我们展示,失范的常态化是“风险”范畴的现象,由系统压力和有缺陷的风险认知驱动,而非恶意所致。

风险感知的社会物理学

那么,我们对风险的感知究竟是如何变得如此扭曲的呢?这并非一种模糊的心理怪癖;它的行为方式带有某种可预测的、数学般的精确性。我们的大脑是奇妙的机器,但它们存在已知的缺陷,尤其是在进行概率推理时。

第一个缺陷是我们对“成功”的解读。如外科核查单情景中所述,在多次操作中看到零不良事件并不能证明一种做法是安全的。如果某个捷径发生事故的真实概率是 pdp_dpd​,那么连续 nnn 次侥幸成功的概率是 (1−pd)n(1 - p_d)^n(1−pd​)n。如果 pdp_dpd​ 是,比如说,0.010.010.01(百分之一的灾难几率),那么在不发生事故的情况下执行该捷径50次的概率是 (1−0.01)50(1 - 0.01)^{50}(1−0.01)50,大约为 0.6050.6050.605,即超过 60%60\%60%。即使风险真实存在,你也有超过一半的几率被一种虚假的安全感所麻痹。

我们可以更正式地对此进行建模。将风险视为一个“预期伤害”得分 HHH,我们可以将其定义为不良事件发生的概率 ppp 与其严重性 sss 的乘积:H=p×sH = p \times sH=p×s。一个组织可能会设定一个正式的政策阈值 θ\thetaθ,高于此阈值的风险被认为是“重大的”。采取一个你知道 H≥θH \ge \thetaH≥θ 的行动将被视为鲁莽。

失范的常态化对这个等式发起了双重攻击。

  1. ​​它扭曲了感知概率 p^\hat{p}p^​​​。在数十次绕过安全检查而未发生事故后,员工内心感受到的失败概率 p^\hat{p}p^​ 急剧下降。他们可能认为“真实”概率 ppp 为 0.080.080.08 是夸大其词,而行为上却认为它更接近 0.020.020.02。感知到的风险 H^=p^×s\hat{H} = \hat{p} \times sH^=p^​×s 现在看起来远小于实际风险 HHH。
  2. ​​它抬高了非正式的风险阈值 θ^\hat{\theta}θ^​​。随着捷径变成“我们这里就是这么做的”,群体的风险容忍度集体性地增加了。正式的组织阈值 θ=0.50\theta = 0.50θ=0.50 被忽略,取而代之的是一个非正式的、高得多的阈值,也许是 θ^=0.80\hat{\theta} = 0.80θ^=0.80,这基于群体亲身经历(且幸运)的经验。

结果是阴险的。一个客观上处于“鲁莽”区域(真实 H≥θH \ge \thetaH≥θ)的行为,现在被群体感知为一个完全可接受的、日常的“风险”行为(感知 H^<θ^\hat{H} \lt \hat{\theta}H^<θ^)。风险行为和鲁莽行为之间的界限变得危险地模糊,不是因为风险改变了,而是因为群体洞察风险的能力受到了损害。这种效应还因其他认知偏见而加剧,例如​​确认偏误​​,即患者自信地断言“我身上没有金属”可能导致筛查员在核磁共振安全检查中下意识地放松警惕。

失范的生态学:惩罚性、免责性和公正文化

这种滑向危险的漂移并非发生在真空中。它要么被周遭的组织文化加速,要么被其阻止。想象一个医院领导团队正在试验不同的问责理念,以观察它们如何影响安全报告和学习。

在第一个实验中,他们尝试了​​惩罚性文化​​。“零容忍”政策被颁布:任何导致不良后果的错误都会受到惩罚。可预见的结果是,自愿安全报告数量骤降。人们不再报告未遂事件和错误。当报告是一种自证其罪的行为时,你为什么还要报告呢?这种文化制造了恐惧,而恐惧使组织变得盲目。它再也无法从侥幸事件中学习,因此潜在的系统性问题继续恶化,对患者的伤害并未减少。

接下来,他们尝试了相反的做法:​​免责文化​​。宣布全面赦免;没有人会因任何行为受到审查或制裁。结果如何?报告数量飙升!组织突然拥有了关于未遂事件和系统缺陷的丰富数据源。但一个新的、危险的问题出现了。在没有任何问责制的情况下,即使是对于鲁莽的选择,专业标准也可能受到侵蚀。风险行为得到纵容,规程遵守率下降。在实验中,对患者的伤害实际上增加了。

最后,他们实施了​​公正文化​​。这是对两种极端的精妙综合。它创造了一种​​心理安全​​的氛围,人们感到可以安全地报告错误和未遂事件,而不必担心自动受到惩罚。但它将这种安全与问责制相结合,使用区分人为失误(给予安慰)、风险行为(给予指导)和鲁莽行为(给予制裁)的框架。结果是两全其美:安全问题的报告率保持在高位,为组织提供了学习所需的洞察力,同时对关键标准的遵守情况也得到改善,因为风险行为得到积极管理,而鲁莽行为则不被容忍。对患者的伤害终于下降了。

因此,公正文化是管理失范常态化的最有效生态系统。它提供了必要的心理安全,使员工能够报告表明其存在的漂移现象;它也提供了公平的问责机制,以重新锚定群体规范,将团队从悬崖边拉回,将漂移的时刻转变为学习和增强韧性的机会。它让我们能够对自己不完美之处保持不懈的好奇心,这是在复杂世界中保持安全的唯一途径。

应用与跨学科联系

在理解了偏离行为如何常态化的心理机制后,我们可能会倾向于认为这是一种罕见的缺陷,一种只为火箭发射或核反应堆熔毁等灾难性失败保留的戏剧性故障。但这是一个深刻的误解。失范的常态化不是一种奇异的疾病;它是人类系统世界里的一场普通感冒。它是一个缓慢、渐进的过程,在任何复杂环境的日常压力和例行公事中茁壮成长。为了真正领会其力量和普遍性,我们必须离开抽象的理论,进入每天都在进行这场战斗的真实世界——从看似井然有序的医院走廊到高风险的生物安全实验室。

医院:失范的沃土

或许没有比现代医院更能观察规则与现实之间张力的地方了。在这里,生死攸关的决策在巨大压力下做出,而走向“阻力最小之路”的诱惑是无情的。

想象一下你是一名实验室技术员,屏幕上闪烁着警报:一名患者的血清钠水平严重偏高。规程是铁律:你必须立即致电患者的主治医生。但你查看患者的病历,发现他患有导致钠水平持续偏高的慢性病。你打电话给值班住院医师,他叹了口气说:“哦,那只是他的基线水平。是预料之中的。以后别为这事给我打电话了。”这种诱惑是强大的。为什么要为一个似乎在“狼来了”的警报而遵守规则呢?这是失范常态化的第一声低语。正确的、专业的做法是认识到,规程之所以存在,正是因为人们无法确定。规则是对过去失败的记忆,是抵御假设的堡垒。正确的路径是按要求通报危急值,然后指导医生完成记录患者特定警报阈值的正式流程。非正式的捷径虽然看似高效,却是大坝上的第一道裂缝。

现在,让我们走进灯火通明的手术室。一台复杂的手术接近尾声。巡回护士报告了一个差异:一块手术纱布下落不明。外科医生担心患者麻醉时间过长,将报告斥为计数错误,并命令团队继续缝合切口。在这里,失范的常态化是由时间压力和陡峭的权力梯度共同驱动的。这正是稳健的安全科学之美闪耀的地方。我们可以用 James Reason 著名的“瑞士奶酪模型”来思考安全系统,其中每一项安全措施——纱布计数、对房间的系统性搜查、射频探测棒,以及最后的术中X光检查——都是一片奶酪。只有当所有奶酪片的孔洞都对齐时,伤害才会发生。通过无视计数并拒绝启用下一层防御,外科医生正在亲手将这些孔洞对齐。然而,一种安全文化会授权团队中的任何成员调用“拉绳中止”政策,暂停手术直到差异得到解决。这不是不服从命令;这是系统按设计运行,是抵御灾难性风险常态化的集体防御。

然而,问题并不总是一个单一的戏剧性决定。通常,它是一个部门整体标准的缓慢衰败。设想一个外科病房,使用条形码扫描仪来核对药物,并且任何高危药品都必须由第二名护士独立双重核查。但是扫描仪经常损坏,而让患者快速流转的压力又很大。久而久之,一种非正式的变通方法形成了:护士们绕过扫描,与一位忙碌的同事进行快速的口头复诵。没有人受伤,所以这种做法得以延续。很快,这不再是一种违规行为了;它只是“我们这里完成工作的方式”。这是失范常态化最阴险的形式,源于系统故障。对于随之而来的不可避免的错误,一个“公正文化”的反应不是惩罚护士,而是去问为什么这种变通方法变得必要。这包括指导员工认识风险行为的风险,但更重要的是,这意味着领导层必须承担起修复损坏的扫描仪和审视那些将速度置于安全之上的不当激励措施的责任。你不能仅仅因为人们走了你为他们铺好的路而责备他们。

为可靠性而设计:用工程学方法摆脱错误

如果系统能够为失范铺平道路,那么它们是否也能为安全建造高速公路?答案是响亮的“是”。这正是人因工程学和可靠性科学的领域,其目标是设计出使人容易做对事、难以做错事的系统。

以不起眼的清单为例。我们到处都能看到它们,从航空业的飞行前检查到手术室的外科安全核查单。但当清单本身成为问题的一部分时会发生什么?一个冗长、单调的清单,其中每一项似乎都同等重要,可能导致“清单疲劳”。人们开始自动勾选方框,而心思却在别处。清单,这个本应提高警惕的工具,变成了例行公事的工具。解决方案不是抛弃清单,而是设计一个更智能的清单。这包括识别出真正关键的步骤——那些如果错过就绝对是“永不发生事件”的步骤——并使它们脱颖而出。更好的是,你可以在流程中构建“强制功能”。强制功能使得在未完成某一步骤的情况下物理上无法继续。一个常见的例子是,除非驾驶员的脚踩在刹车上,否则汽车无法挂入行驶档。在医院里,这可能意味着电外科设备在团队口头确认手术部位之前不会启动。你从系统层面消除了失范的可能性。

除了巧妙的设计,我们还可以建立一个对抗失范的文化“免疫系统”。一个组织如何真正学习和改进?不是通过枯燥的季度报告,而是通过缩短行动与反思之间的反馈循环。想象一个外科团队采纳了一条简单的规则:在每一台手术后进行两分钟的结构化述评。这个过程明确遵循体验式学习的循环:他们反思手术的具体经验,识别任何微小的偏离或困惑时刻,构思一个更好的方法,并同意在下一台手术中积极尝试这一改变。在典型的系统中,一个微小、无害的偏离会被遗忘。它被轻易放过。当它再次发生时,又被放过。很快,它就成了新的常态。而结构化述评从源头上拦截了这一过程。它将学习周期从数月(等待一个坏结果来触发审查)缩短到数分钟。它使反思和改进成为一种常规,为安全建立了集体肌肉记忆。

高风险决策:当失范可能带来灾难时

让我们在旅程的终点来到一个地方,在这里,一次偏离的后果是极致的:一个三级生物安全(BSL-3)实验室,科学家们在这里处理可通过吸入导致严重或潜在致命疾病的病原体。一个团队正在研究土拉弗朗西斯菌(Francisella tularensis),这是一种一级优选病原体。他们的规程要求使用重型电动送风呼吸器(PAPR)。但对于某些短暂的任务,他们非正式地开始使用防护性较差的N95口罩。他们已经这样做了40次,没有发生任何一次暴露或事故。现在,他们想把这变成正式政策。

他们的逻辑既诱人又极具人性化:“我们这么做了,而且没出事,所以这肯定是安全的。”这是失范的常态化与“结果偏误”——通过结果来判断决策质量——的致命结合。但他们的结论建立在统计幻觉之上。对于一个低概率事件,在40次试验中观察到零次失败,几乎不能告诉你任何关于真实风险的信息。使用一个常见的统计经验法则,这意味着潜在的失败率仍可能高达7.5%7.5\%7.5%。当单次失败的后果是一场灾难性的实验室获得性感染时,一个潜在的7.5%7.5\%7.5%的风险不是安全,而是恐怖。

高可靠性组织——那些在核电、航空和高防护等级实验室中运作的组织——不能被侥幸的结果所蒙蔽。他们通过培养组织理论家 Karl Weick 所说的“长期不安”或“对失败的专注”来积极对抗这些认知偏见。他们假设失败总是潜伏在系统中。他们在改变程序之前要求进行严格的、定量的风险评估。他们进行“事前剖析”,想象一个流程已经失败,然后反向追溯以找出隐藏的弱点。他们明白,对于高后果风险,安全不是由没有失败来证明的,而是由存在稳健、多层次且被严格遵守的防御措施来证明的。

从医院监护仪安静的哔哔声,到生物安全柜的嗡嗡声,斗争都是一样的。这是对抗那种诱人低语的战斗,那声音说:“可能没事的。”这是正式、经过检验的规则与非正式、未经证实的捷径之间的战斗。理解失范的常态化揭示了,安全不是我们达成的一种状态;它是我们必须不断培养的一种动态实践。它深刻地尊重这样一个事实:规则往往是用过去失败的鲜血写成的,而偏离它们,无论在当下看起来多么聪明,都是我们输不起的一场赌博。