分享

偏差正常化:把异常当正常反受其害,是怎样一种体验?

 精读君 2022-10-09 发布于福建


在《天真干预:“好心”怎么就办成“坏事”了?》中,精读君提到,没有系统思考,头痛医头、脚痛医脚,很容易好心办坏事。

这是天真干预,没有谋定而后动,急急忙忙实施症状解,最后产生负面非期然后果。还有一种反受其害是,见怪不怪、把异常当正常、不采取干预行动,最后酿成大灾难。

表面上看,一个是做了出错,一个是不做出错,截然相反,但存在一个共性是,认知深度不够。

什么是偏差正常化?怎样防微杜渐?关于这些问题,读友们可以参考精读君通识词典词条《1761:偏差正常化》。全文附后,期待你能读有所得。

精读君



《1761:偏差正常化》


前置思考

请回顾正常化偏误中关于庞贝古城的一段材料,并思考:这给你什么启发?

庞贝古城位于意大利南部那不勒斯附近,维苏威火山东南脚下10千米处,距罗马约240千米,始建于公元前4世纪,曾经非常繁荣,是意大利古罗马第二大城。

维苏威火山是一座活火山,但当时居民相信地理学家斯特拉波判断,以为是死火山,对于火山满不在乎。

即便到公元62年,维苏威火山开始喷发,造成许多建筑物损毁,但庞贝人并不恐慌,反而载歌载舞,以为这次喷发后,至少会有几百年火山会进入休眠期。

17年后,也就是公元79年8月20日,庞贝地区爆发地震,这是火山喷发前兆,但大多数庞贝人不以为意,只有极少数人撤离。

4天后,也就是公元79年8月24日,维苏威火山爆发,厚约5.6米火山灰毫不留情地将庞贝从地球上抹掉,全城2万多人几乎全部死亡,只有极少数人成功逃生。

由于被火山灰完全掩埋,街道房屋等保持完整,从1748年考古发掘至今,庞贝古城为研究古罗马社会生活提供宝贵而重要资料。

考察庞贝遗址,人们死之前似乎还在做日常事儿,好像根本就没有反应时间。

但事实上,庞贝城距火山有10千米,从火山喷发到火山灰抵达,中间有好几个小时。在这几个小时内,庞贝城大部分人居然都待在室内,没有及时疏散撤离。

Q1:什么是偏差正常化

A:

1、偏差正常化(Normalization of deviance),由社会学家黛安·沃恩提出,指的是:

对于出问题偏差容忍度越来越高,甚至认为是正常现象

例如,一个人开始说彩色谎言,虽然受到一些质疑,但没出什么大问题,对于撒谎容忍度越来越高,没觉得大不了,慢慢觉得很正常,最后满嘴跑火车,习惯性撒谎,就是一种偏差正常化现象。

2、正常化未必正常

合理化中,精读君提到,吃不到葡萄说葡萄酸,得到是柠檬说柠檬甜,出现错漏坏说不怪我,这种合理化往往是寻找借口,并不合理。

灾难化中,精读君提到,面试时想一连串万一:“万一我答不出他们问题怎么办?”“万一他们不喜欢我怎么办?”“万一我不够格怎么办?”“万一我没得到这份工作怎么办?”......就算出现这些不良后果,也不是灾难,严重心理恐慌纯属无谓。

类似的,正常化未必正常。偏差正常化,将有问题偏差、异常看作正常,属于“掩耳盗铃”,本质是自欺,并不正常。

在工作和生活中,偏差正常化现象很普遍,在特定情境中,可能引发严重后果,值得我们警惕和预防。

今天的词条,精读君简介偏差正常化,供读友们参考,提高防微杜渐能力。

Q2:怎样理解偏差正常化?
A:

1、模拟决策

为加强对偏差正常化理解,我们先来看一个美国商学院经典案例。商学院一个特色是,通过给出假设场景,让学习者模拟决策,从而提高认知深度和实操水平。

这个案例情境说的是,假设你是一支赛车队负责人。你们车队今晚有一场重要比赛,只要正常发挥进前五,就能获得一个大广告合同。

不过存在一个问题,你们车队汽车发动机汽缸盖有一个密封垫片,这个垫片在过去24场比赛中,出过9次故障。

车队有一位老工程师认为,密封垫出问题是因为温度太低变硬;不过,其他工程师并不同意他的看法。

如上图解所示,是9次故障发生时温度情况。其中,横坐标是华氏温度,与摄氏温度公式化换算关系是:摄氏度 = (华氏度 - 32 ) ÷ 1.8;纵坐标是密封垫出故障次数。

从图上可以看出,低温华氏55度(摄氏13度)时,密封垫出过3次故障;高温华氏75度(摄氏24度)时,密封垫出过2次故障;在华氏55度到75度区间,不同温度下密封垫各出过1次故障,合计有6次。

根据这些数据,你是和那位老工程师判断一致,认为是低温导致密封垫变硬出故障,还是和其他工程师判断,认为密封垫故障和温度没什么关系?

今晚温度很低,只有华氏40度(摄氏4.4度)。如果放弃这场比赛,不但新广告合同会失去,而且还得交违约金。

那么,问题来了:你作为车队负责人,会让车队参赛吗?

在商学院中,学生们有1天时间分组讨论上述情境如何决策。教授说,希望大家能充分科学决策,调用各种知识,如果需要其它材料可以找他要。

你的决策是什么?商学院中有一次模拟决策,最后讨论结果是,90%小组决定参加比赛。这时,教授揭开谜底说,你们刚刚决定发射“挑战者号”航天飞机。

1986年1月28日“挑战者号”航天飞机发射不久就在空中解体,机上7名宇航员全部遇难。

上述模拟情境中数据并不是虚构,而是真实数据。密封垫其实是火箭上O形橡胶密封圈,“挑战者号”事故直接原因就是,这个O形圈因为低温变得僵硬,没有起到密封作用。

也就是说,90%小组成员,未来企业管理者们,做出和美国国家航空航天局NASA一样糟糕决策。你的决策做对了吗?

2、分析归因

通过模拟决策,90%做错决策商学院学生们,可以在不用付出真实代价下进行失败复盘。读友们,无论你是否做错决策,我们都可以来分析归因

第一层次原因:数据不全面

上述情境中,支持是否参加车赛决策依据并不够,至少缺少24场比赛中非故障数据。

其实,教授有提示,如果需要更多资料可以找他要,但那90%做错决策小组多数并没有意识到数据不足问题,没有主动找教授获取数据,补足所需决策信息

如下图解所示,已补全完整24次数据,除原有9次故障数据外,还增加15次未出故障数据。其中,红色是无故障比赛数据。

从图上不难看出,所有无故障比赛都发生在华氏65度以上。以华氏65度(摄氏18.3度)为分界点,在此温度之上,共有18次比赛,无故障15次,故障3次;在此温度之下,共有6次比赛,无故障0次,故障6次。

也就是说,虽然发生故障并非全部由温度引起,但如果温度低于华氏65度,故障率100%。由这些数据做回归分析,不难得出结论,在今晚华氏40度(摄氏4.4度)低温条件下,车队如果参赛,故障发生概率在99%以上。

第二层次原因:偏差正常化

商学院学生可能犯数据不全面决策错误,但美国国家航空航天局NASA决策错误并不在此,他们掌握的是全面数据。

但即便掌握全面数据,“挑战者号”发射决策者仍然决定要发射。一方面,类似假设情境中不参赛会丢掉广告合同那样,本次发射对于NASA意义重大,已经一拖再拖不好再拖;另一方面,以前那9次O形圈出问题发射,虽然有问题,但仍然都成功发射。

从物理学来看,一是,并不是说O形圈遇低温变硬,密封性能就完全失去;二是,有两个O形圈,有一些冗余度,一个不起作用,另一个还可以顶替;三是,固体燃料燃烧所产生氧化铝,在两个O形圈都失效时,也能起到一些密封作用。

但“挑战者号”这一次发射打破原有安全边际,主O形圈彻底失效,副O形圈错位,氧化铝顶住一阵后也没顶住。

事实上,早在出事半年前,就有人多次警告O形圈问题,但都没有得到重视。发射前一天晚上温度很低,又有工程师提出应该取消此次发射,但被管理层拒绝

也就是说,相对商学院学生而言,NASA决策错误在于,在明知O形圈会出问题时,还敢尝试低温发射,个中原因并不仅仅是侥幸心理。

社会学家黛安·沃恩提出“偏差正常化”概念,警醒我们注意这个决策问题。人性幽微之处在于,对于出问题偏差容忍度,可能会越来越高,甚至认为是正常现象。

读友们可以回顾过往,是否也存在类似心理:虽然明知是偏差可能出问题,但由于此前历次偏差都没产生大问题,就见怪不怪,不再重视,甚至以为偏差很正常。

类似于生理学中感觉适应现象、经济学中边际效用递减规律,偏差正常化心理也很普遍,其力量被很多人忽视。

3、对症应对

干预偏差正常化心理富有挑战,至少要从以下三个方面来应对。

一是,重视识别

先识别,才能管理;不识别,浑然不知。更重要的是,要深刻理解其应对挑战性所在。以美国NASA为例,“挑战者号”发射错误决策,并不是最后一次。

2003年2月1日“哥伦比亚号”航天飞机完成任务返回,在进入大气层时发生爆炸,7名宇航员遇难。事故直接原因是,在前面发射火箭升空过程中,航天飞机上有一块公文箱大小泡沫塑料脱落击中左翼,敲掉一块绝热挡板,打出一个20厘米见方的洞。

当时有工程师注意到这个情况,建议哪怕让宇航员来一次太空行走,把破损地方修补后再返回地球,但被NASA管理层拒绝,理由仍然是,同样事情以前发生过好几次,都没有出大问题。

这同样是偏差正常化心理在作怪。这次没有以前那种好运气。“哥伦比亚号”航天飞机返回地球时,破损导致与大气层摩擦所产生高温进入内部,最终导致航天飞机坠毁。

二是,评估偏差

事物总是存在偏差,应对偏差正常化,不是说追求不顾成本、不顾一切,每次都将偏差降到0,实际也不可能做到,而是要注意评估偏差底线,在多少范围内可以接受

例如,医学领域膝关节表面置换手术,严格标准是,力线限定在3°以内(髋关节中心与膝关节中心直线和膝关节中心与踝关节中心形成的夹角)。

在实际手术过程中,由于人工不像机器那么精准,通过案例分析发现,如果能够控制在5° 内问题不大。以5°以内为标准后,有人发现6°有些病人也可以接受,虽然整体成功率没有 3°高,但不是不可以接受。

这个标准放宽过程,也是偏差正常化过程。但如果一放再放,最后可能就不能接受。例如,如果放宽到7°,大部分病人都会出问题。也就是说,7°是底线,如果超过就属于医源性并发症,需要追究医生手术责任并杜绝。

如果无法判断什么偏差可接受、什么偏差是底线,灾难可能就无法避免。在海因里希法则中,精读君提到,机械事故中,死亡、重伤、轻伤和无伤害事故比例为1:29:300。当我们觉得轻伤和无伤害事故这种偏差很正常时,重伤和死亡事故迟早会发生。

类似的,前置思考中提到的庞贝古城居民,面对火山爆发,陷入正常化偏误,也是将灾难信号视为正常,最后无法逃脱。

三是,持续改良

如前所述,没有风险就是最大风险,以为一切正常其实未必正常。减小偏差永无止境,只是受限于成本、技术等因素,在特定时空下,存在上限,只能退而求其次,放宽标准。

但如果拉大时空维度,给予必要时间和空间,偏差有条件持续减少,控制有条件持续改良。也就是说,我们可以持续提高标准,而不是放宽标准。

例如,六西格玛管理追求六西格玛质量标准:每100万次操作,只有3.4个缺陷。从1个西格到6个西格玛,有巨大提升空间,就看我们是否坚持精益求精。

以事故为例,如果在发生轻伤和无伤害事故时,做好诊断分析并相应施策,将300起减少1个数量级到30起,可能重伤事故也会减少1个以上数量级,从29起减少到3起,死亡事故可能趋于0次。

类似的,NASA如果提高标准,在出现O形圈等小故障但不影响成功发射时,精益求精,追求将小故障减少至零,可能就不会出现机毁人亡事故。

事实上,历史上NASA曾经追求高标准,在1960年代、1970年代多次载人任务,包括登月,都没有出现人员死亡事故。

但后来NASA管理上降低标准,负责控制质量人员从1970年的1700人减少到1986年505人,并且没有大力去消除轻微故障,最终酿成灾难。

有人统计4600次火箭发射,发现成功率高达90%,但只有10%失败发射才被系统研究和学习,至于那些成功但有故障发射,却被当作成功而没有被充分研究。

这本质上是将那些不影响成功发射故障和偏差正常化,最终容易因为这种忽视酿成灾难。

以美国SpaceX为例,从2008年后发射火箭都很成功,直到2015年发射猎鹰9号火箭才遭遇一次爆炸。马斯克当时就说,是不是因为前面太多成功,使得我们粗心大意,才导致这次失败。

这是否类似NASA,前期成功但因为偏差正常化导致后期失败?读友们可以深入思考。

在词条的最后,精读君要提醒的是,注意偏差正常化普遍性。

目标管理为例,目标侵蚀其实就是将与预设目标偏差正常化,导致目标一降再降。类似的,开会迟到、任务拖延,各种坏习惯习以为常,也都是偏差正常化过程。


后置思考:
①你观察到哪些偏差正常化现象?
②你怎样判断多大偏差可以接受?
↓免费试读《精读君通识词典》前30个词条

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多