分享

面对复杂系统,直觉博弈不可靠,可靠的是结构化决策

 爱读书的二小姐 2019-11-03

复杂系统崩溃的原因,除了系统本身的复杂性和紧密耦合,还和以下3个因素有关。

1. 仅凭直觉去解决问题的习惯

复杂系统给人的感觉,有点类似于考试时的压轴大题。对压轴难题,大部分人看都没看就直接放弃了,因为他们打心眼里觉得一定很难,思考了也得不出结果。对复杂体统,大部分人也没有兴趣去研究清楚。

与此同时,复杂系统无法给我们提供任何有效的反馈,我们也就没有任何经验来判断所作出的决策是好是坏。

这就导致了系统越复杂,人们越习惯仅凭直觉去解决问题。结果可想而知,拍脑袋做出的决定就像在摇骰子,结果好坏全凭运气,充满了不确定性。

2. 计划持续偏见

做好计划后,即使情况有变,我们也不愿意改变计划。项目进行到一半,就算发现之前的小错误,我们也往往为了更快得到结果,而选择忽视它。这就是“计划持续偏见”。换句话说,也就是发现不对劲的苗头,仍然选择照做不误。

为什么会产生计划持续偏见呢?原因主要包括下面3点:

我们对自己的辛苦付出和准备抱有一定情感,不愿轻易放弃。

在事情进行的过程中,大部分人的反应都会越来越弱,无法保持相应的警惕心理。

随着完成情况的推进,我们越来越能感受到胜利的曙光,好像成功就在前方召唤我们。此时,我们非常容易信心爆棚,从而选择赌一把。

3. 异常正常化

因为该风险在之前未曾造成过糟糕的结果,就将其归为可以接受的情况,这样的做法,就称为“异常正常化”。

无论是1986年的挑战者号爆炸,还是2003年的哥伦比亚号事故,都是“异常正常化”造成的。一个是由于小小的密封圈破裂引起的,一个是由于燃料箱上泡沫绝缘层的脱落造成的,两件事的起因都很不起眼,也都被发现了,但是因为没有被重视,没有被当作警示信号,所以没有得到解决,最终酿成了重大灾难。


面对崩溃,我们如何防范于未然?这里有一个建议:面对艰难决策,不要靠直觉博弈,而是使用结构化的决策工具。

在复杂系统中,主观臆断很危险。因此,作者建议我们使用客观工具,比如:避免预测过分乐观的SPIES概率区间估计法,减少遗漏决策要素的事先标准,可以确定成功障碍的事前检验等。

SPIES概率区间估计法心理学家莫尔和哈兰发现,人们对复杂系统进行预测时,给出的置信区间通常还达不到一半的准确率。

为什么会这样呢?因为人们往往只注意到两种情况:可能的最佳结果,和可能的最坏结果。这样一来,其他可能的情况就会被划分到关注点的盲区。

但SPIES概率区间估计法不是这样。它从可能性为0的最小范围开始,再到可能性为0的最大范围结束,囊括了所有可能的范围,并将其平均分成几个区间,分别计算每个区间的可能性。

这么一来,考虑的整体范围得到了扩大,得出的结果也才更接近真实情况。

事先标准在医学界有个重要的“渥太华踝关节规则”,这个规则只有4项标准,却能让医生不漏过任何严重的骨折。在决策中,我们把这4项标准称为“事先规定好的标准”。网上流行的“维基序列测量”就是一个很好的例子。

事前规定好的标准包括关键要素,权重,相关评分等内容,最终,决策者将根据最后的总评分做出决定。通过将抽象的看法落实到具体的细节,并进行量化评估,我们就能透过模糊的感觉找到更精准的答案。

从某种程度上说,事先规定好的标准能使我们免受表面细节和个人情感的误导。有研究就曾发现,利用“维基序列测量”买房的人,事后往往会觉得自己做出了相当明智的决定,而那些拍脑袋决定的人,事后却常常吐槽自己当初是头脑一时发热。

事前检验事前检验被心理学家认定为是未来的后见之明,它指的是在假定某件事已经失败的基础上,分析失败的原因,并给出解决方案。

也就是说,事前检验能提前给我们打一针预防针,让我们在面对实际结果时不至于手忙脚乱。与此同时,事前检验也能让潜在的问题浮出水面,有利于我们消灭相关的隐患。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多