认知偏差和启发式
情感启发式
有时,我们基于强烈的情感而不是客观数据做出决策,我们称之为情感启发式(Affect Heuristic)。积极情感会使我们忽视令人不安的统计数据,这解释了香烟广告的成功;消极情感可能会更严重地扭曲我们的看法。例如,心理学家格尔德·吉仁泽(Gerd Gigerenzer)发现,在华盛顿和纽约遭遇“9·11”恐怖袭击过后的几个月内,美国人和以前相比,乘飞机的可能性降低了,外出时他们更可能选择开车。结果,美国的高速公路事故死亡人数大幅增加,因为即使考虑到恐怖主义的威胁,在车祸中死亡的概率也远远高于飞机失事的概率。事实上,吉仁泽的分析显示,那几个月中,“9·11”事件后人们拒乘飞机导致的死亡人数已经超过了在恐怖袭击中丧生的人数。商业决策同样也会受到强烈的情感的影响。想想在20世纪90年代后期企业家们对网络热潮非理性繁荣的疯狂,以及溢价收购科技企业的那些公司。最夸张的例子是2000年西班牙电信公司特拉网络(Terra Networks)收购互联网搜索引擎公司来科思(Lycos),支付了高达125亿美元的金额。当时来科思已经在走下坡路,收购完成后不久就被人们迅速遗忘,4年后以区区9 540万美元的价格又被卖给了韩国互联网公司多音(Daum)。(21)
红队洞察
红队通过客观依据而非情感来思考战略和计划,来对抗情感启发式。这样的红队还有助于辨别这种认知倾向对消费者和竞争者的行为能够产生怎样的影响。
锚固偏见
在讨论时,我们听到的第一个数据有时会变成整个讨论的基准。认知心理学家已经发现,在涉及金钱的谈判中,首次报价往往会为双方确定期望值的范围。更高的数字往往会产生更高的期望值;较低的数字则常常会降低期望值。这意味着,第一个数字在讨论双方的头脑中固定下了锚,即产生了锚固偏见(Anchoring Bias)。熟练的谈判者可以利用这一点,用锚固来影响一切,从工会谈判到与供应商谈合同。但锚固也会以隐秘的方式扭曲决策。例如,试验要求两组德国法官先投掷骰子,再去审判一桩假定的刑事案件。骰子做过手脚,一组法官总是掷出3点,而另一组总是9点。掷出9点的法官相比掷出3点的,对案件判处的平均刑期要长出50%。这些法官的决策受到了与这桩假定案件——也可以是和任何一桩刑事案件毫无关系的数字的影响。
红队洞察
红队通过对相关数字进行客观的审查来减轻锚固偏见的影响。审查人不是最初参与讨论的人士,因此不会受到其他锚固的无意识影响。
自动化偏差
组织尝试减少认知偏差和心理捷径的一种方法,是通过创建自动化系统或程式化流程来消除发生人为错误的可能性。虽然这些系统有助于减少错误并加快决策速度,但它们也可能让人忽略重要信息,从而给出错误建议。问题是,一旦开始依赖自动化系统,人们就不再怀疑它们,从而形成自动化偏差(Automation Bias)。对座舱模拟器中的专业飞行员进行研究发现:当自动化系统未能发出提醒时,超过一半的飞行员因此忽视了重要信息;更糟的是,当这些系统给出错误信息时,飞行员们也会犯危险的错误。自动化偏差已经在现实世界中酿成了惨剧,包括1972年东方航空401号航班和2009年法国航空447号航班的失事。自动化交易算法出现的问题则能让企业付出惨痛代价。2012年,由于新的交易程序出错,骑士资本(Knight Capital)在短短的45分钟内损失了4.4亿美元,差点破产。随着企业将更多的规划任务委托给人工智能和专家系统,自动化偏差将越来越成问题。
红队洞察
红队通过对自动化系统生成的建议进行独立、严格的审查来防止自动化偏差。
可用性启发式
我们更信任大脑已经意识到的信息——即便对潜意识中的信息也深信不疑。如果这些信息是戏剧化或情绪化的,尤其如此。我们称这种认知机制为可用性启发式(Availability Heuristic)。24小时新闻循环播放将这种效应放大到令人不安的程度,这解释了为什么谈论恐怖主义已成为那些意图煽动民意的团体的有效策略。重大新闻事件也可能不成比例地影响我们对财务事务的思考。富兰克林邓普顿基金集团(Franklin Templeton's)的2012年全球投资者情绪调查显示,66%的受访者相信标准普尔500指数(S&P 500 Index)在2009年出现了下滑或与上年持平,约有一半的受访者对2010年和2011年表示相同的看跌预期。事实上,标准普尔500指数在这3年中都在上涨。为什么人们的看法和真实情况会有这样的偏离?这是因为,投资者仍没有从2008年全球经济危机的震惊中走出来,危机的严重性致使经济开始复苏之后很长一段时间里,仍持续影响着人们对金融市场的看法。积极信息也会过度影响我们的决定。21世纪中期房地产业繁荣期间,看到有钱的朋友和邻居都在倒卖房产,大批美国人把毕生积蓄都拿来用于高风险的房地产投资。
红队洞察
红队通过客观地思考潜在风险和回报来克服可用性启发式,并确保考虑到所有可能性,而不仅仅是那些容易想到的。
从众效应
如果周围的人相信某事是真的,我们就更愿意相信它是真的。相反,如果组织中的其他人认为某事是假的,我们则更有可能相信它不是真的。这种现象叫作从众效应(Bandwagon Effect)。这是群体思维的典型例子,它有助于解释为什么一些意图良好但尚未考虑周全的举措会绑架整个企业,而且这种情形非常普遍。从众效应也能解释加速2008年美国房地产市场崩溃的次贷危机的发生。大多数银行开始时并不放心把钱借给那些信用度低或无法提供担保的人,但当看到越来越多的同行出售风险越来越高的贷款产品,他们的疑虑开始消失。从众效应使个人和组织做出违背自己判断的行动,它把理性的思考者变成笨蛋。
红队洞察
红队通过评估方案可取之处而不是其受欢迎程度来对抗从众效应。
基本比率谬误
我们有一种天然倾向会去忽略一般性信息,而将关注重点放在更具体但不重要的数据上,特别是当这些数据和我们的意图相一致时。一直以来,企业都是这种倾向的受害者。这种倾向导致我们会犯名为基本比率谬误(Base Rate Fallacy)的错误。例如,在2012年,克莱斯勒公司一位高管向我表示,他的公司已经克服长期存在的质量问题,取得了“巨大进步”。他的证据是一份内部审计报告,这份报告显示,该公司的一些关键车型故障率与上年同期相比下降了两位数,而故障率是汽车行业用于衡量质量的一个标准指标。这看起来确实成效显著,直到我去查看了市场整体质量排名,发现那些汽车在可靠性方面仍然排在同类车型的最后。克莱斯勒高估了自己所取得的进展,忽视了该行业的基本比率。这种谬误还会以其他方式伤害企业。有些企业把现有客户对新产品或服务的反应用作衡量市场整体反应的良好指标;有些企业基于个别客户的情况吹嘘成功,而忽视了企业市场份额的下降;或者,还有的企业因为喜欢就收购了一家很有潜力的初创公司,而对这个行业整体的高失败率视而不见并予以接受。
红队洞察
红队通过充分考虑所有背景数据来质疑基本比率谬误。
聚集性幻觉
人类天生喜欢寻找模式,喜欢到无中生有的地步。我们从自己的雀斑中辨认出几何形状,在火星岩石上发现人类面孔,在烤煳的面包上看出宗教图标。其原因就是我们产生了聚集性幻觉(Clustering Illusion)。在第二次世界大战期间,伦敦报纸定期报道首都遭遇火箭袭击的地点地图,催生了各种分析德国人攻击或不攻击目标的理论。其中最受欢迎的一种理论认为,因为似乎有更多的导弹落在了工人阶级的社区,所以德国人一定是刻意瞄准他们而放过富人区,以此来挑起阶级冲突。战争结束后,德国火箭专家嘲笑说,这些早期导弹怎么可能做到如此精确。他们只是对着伦敦乱发一通,希望随便打到什么都行。企业所受这种幻觉的影响,不亚于饱受战争蹂躏的伦敦人。它们从完全随机的数字中看到规律,从无意义的小数据样本中得出重要结论。企业家尤其需要防范这种聚集性幻觉,他们往往会把对新产品或服务的初期高需求误解为有意义的基准。他们扩大生产,雇用更多员工,开设新办公室或扩大产能,当意识到自己扩张过度时,企业已经走向破产。
红队洞察
红队通过思考数据的其他解释和挑战认知模式来防范聚集性幻觉。
确认偏差
我们更倾向于相信那些支持我们已有信念的信息,或者能够证实我们已有决定正确的信息。我们也倾向于更关注这种信息,而跳过那些与我们的信念相违背的信息。科学家们研究人们的坚定信念受到外界信息确认或质疑时,大脑对这些信息的反应,证明了上述结论。这种处理信息的方式就是所谓的确认偏差(Confirmation Bias)。2004年美国总统大选期间,埃默里大学(Emory University)的研究人员让党派选民阅读一些看上去自相矛盾的言论,这些言论分别出自以下3位总统候选人:共和党的乔治·W.布什,民主党的约翰·克里和一名政治立场中立的男性名人。在阅读的同时,核磁共振机对选民们的大脑进行同步监测。结果显示,受试者不仅更容易发现对方候选人言论中的矛盾之处,而且他们的大脑对己方党派候选人矛盾言论的处理方式也非常不同。这就解释了为什么我们很难质疑自己的假设,也解释了人们对错误信念的执着。如果一个组织长期保持某种信念,它将很难理会那些与其信念相左的新信息,无论那些信息多么具有说服力。这就是为什么新进入者更容易破坏现有市场,击败老牌玩家,建立游戏规则。
红队洞察
红队通过强制组织思考反面观点和替代观点来弥补确认偏差。
知识诅咒
拥有更多知识的人往往无法理解缺少知识的人的思考角度,这种认知倾向被称为知识诅咒(Curse of Knowledge)。当企业预测消费者对产品的可能反应时,这可能成为一个重要障碍。松下电器清楚其等离子电视的技术,远远优于竞争对手所采用的液晶屏技术。大多数视频发烧友对此也很了解。等离子电视的色彩更为饱满、真实,对比度更高,运动模糊少,视角更宽。但是,液晶电视也有一个显著优势:它们在明亮的灯光下显示效果更出色——大型零售商店里的灯光都很明亮。对于松下来说不幸的是,大多数消费者购买电视机时,考虑的不是其技术优点,甚至不是电视机摆在自己家里好看不好看,而是哪台放在电器店的货架上最好看。松下在2014年被迫下线了等离子电视,虽然在专业人士眼里,这是最先进的技术。知识诅咒也有助于解释为什么工程师总是看不起市场营销人员,反之亦然。
红队洞察
红队通过提供工具,从各种经常为规划所忽视的视角来分析问题,以克服知识诅咒。
框架效应
我们倾向于从相同的信息中得出不同的结论,具体来说,这取决于信息的呈现方式。由呈现方式不同而导致的决策上的不同,我们称之为框架效应(Framing Effect)。广告商和政客们每天都会利用这一点,利用我们天生讨厌吃亏、喜欢占便宜的倾向,来兜售产品和获得支持。但思考框架也可以对企业决策产生重大影响。同一个提案,在展示时强调潜在收益而不是风险,几乎肯定更容易被人接受。思考框架可以以不引人注意的方式影响企业经营决策。个人计算机背后的许多革命性技术都是施乐公司开发的,其Star工作站是第一台提供了映射显示器、Windows图形用户界面、图标、文件夹、以太网、电子邮件和鼠标的商用计算机。但施乐公司认为自己是一家复印机公司。无法超越这个思维框架的施乐在1981年推出Star时,仅仅把它作为一种文件管理机——“个人办公系统”的一部分来出售,价格在5万到10万美元。最后,施乐只销售出少量工作站,从未成为计算机行业的玩家。而苹果和微软这样的公司,在不同的框架内看到施乐技术的开创性,并最终用这些技术控制了整个计算机行业。
红队洞察
红队通过客观地过滤呈现方式来思考选项本身,以消除框架效应。它还通过产生新见解和观点的方法来重新定义问题。
赌徒谬误/热手谬误
这些偏见源于一种错误信念,即未来受到过去发生的事件的影响。赌徒谬误(Gambler's Fallacy)是说,由于某些事情在当前频繁地发生,所以认为它们在未来重现的概率会降低。一个著名的例子发生在1913年8月18日的蒙特卡洛大赌场(Casino de Monte-Carlo),黑色在轮盘赌上连续出现了26次。随着这个惊人的连胜消息传遍整个赌场,赌徒们蜂拥而至,认为连胜的情况一定会结束,于是大量投注红色,结果,他们为这个错误的想法损失了数百万法郎。
实际上,转出黑色的概率每次都没变,就像即便现实的情况是你连续抛出了100次“背面”,抛硬币出现“正面”的概率永远是50:50(22)。热手谬误(Hot-hand Fallacy)正相反,即错误地相信连胜的状态必然会继续下去。这个名字来源于篮球比赛,比赛中经常得分的球员被称为“热手”。这两种认知偏差都能导致企业将偶然的结果归因于技能,进而做出错误决策。1973年,普林斯顿大学经济学家伯顿·马尔基尔(Burton Malkiel)宣称:“蒙住一只猴子的眼睛,让它向报纸的财经版面扔飞镖,据此得到的投资组合并不比投资专家精心挑选的差。”1988年,《华尔街日报》决定对该结论进行检验。在接下来的10年里,《华尔街日报》举办了100次选股比赛,让专业投资经理与蒙着眼睛的记者(因为保险原因没有使用猴子)进行比赛。结果虽然证明马尔基尔是错的,但并不是特别有说服力。投资经理只在61%的时间里表现优于记者。所以,一个CEO前3次的收购大获成功,并不意味着下一次也会这样。热手谬误可能导致企业对员工的期望超过他们的能力,并高看竞争对手的能力。
红队洞察
红队通过客观分析成功和失败的概率,找出成功和失败的真正原因,并将运气和技能造成的结果进行区分,来抑制这两种谬误。
后视偏差
一件事情发生后,我们常常错误地认为,我们本应想到会如此,并能及时避免或加以利用,例如公司股价飙升的情况。这种认知倾向叫作后视偏差(Hindsight Bias)。研究人员发现,后视偏差在医疗保健领域会是一个严重的问题,发病率研究和尸检可能会夸大提前发现疾病的可能性。在商业上,这种认知偏差会导致企业对员工提出不切实际的要求,以及投资者有不合理的投资回报预期。在事后分析中,它会导致人们盯着单一原因,而不是探索导致失败的所有原因。另外,后视偏差也会使成功的规划者过度自信。
红队洞察
红队通过全面研究事件发生的原因来减少后视偏差造成的曲解。
控制错觉
我们倾向于夸大自己影响外部环境的能力,这在企业中可能会导致大麻烦。这种认知错误被称为控制错觉(Illusions of Control)。2003年一项研究发现,在伦敦4家投资银行工作的金融交易员中,那些“有较强控制错觉的人表现出较低的利润业绩,收入也少于那些控制错觉较低的研究对象”。该研究还发现,“控制错觉与较差的风险管理和分析之间”有很强的相关性。控制错觉可能导致高管夸大自己寻找和雇用顶尖人才、设计出色产品以及进行融资的能力;也可能导致管理者对自己的计划质疑不足、准备不足。具有讽刺意味的是,研究人员还发现,当人们确实拥有很大控制权时,往往会低估自己实际施加的控制,从而看不到自己为对手的成功所做的“贡献”。
红队洞察
红队通过寻找每一种效应的实际根源来消除控制错觉。
损失厌恶
如果只能够二选一,我们大多数人都会选择避免损失,而不是获得回报。这会帮我们避免犯下代价昂贵的错误,却也让我们厌恶风险,不愿抓住机会获利。我们把这种认知倾向叫作损失厌恶(Loss Aversion)。损失厌恶在宝丽来公司(Polaroid)的崩溃中起了很大的作用。宝丽来在20世纪90年代末已是数码照相领域的领先者,但这家公司的高管们对这项新技术毫无兴趣,也不愿放弃传统的胶片业务。为什么?因为宝丽来在即显胶片上的利润率超过了65%——远远高于数码相机的利润率。该公司本可以轻松地保持数码领域的领先地位,但却因为传统胶片业务的下滑,于2001年破产,最后彻底消失了。损失厌恶助推短期思维,而其往往在之后的较长时间内给企业造成沉痛代价。损失厌恶让维修被推迟,机器一直运转到故障发生,让高绩效员工被忽视,直到为时已晚。
红队洞察
红队通过客观评估不同选择的风险和回报来帮助克服损失厌恶。
消极偏见
我们人类大脑天生对不愉快经历的记忆回想得更加生动,所以往往会过度纠结以往糟糕的经历,在考虑未来时会给予它们过多的权重。研究已经发现,在对某件事的影响进行评估时,我们倾向于戴着消极的眼镜来看待整体,也就是说,产生了消极偏见(Negativity Bias)。与损失厌恶一样,消极偏见能够帮我们避免重复犯错,却也可能导致我们低估那些积极经验的价值。一次重大的失败可能会使企业否定过去屡试不爽的成功做法。消极偏见也会影响消费者的看法。用户更容易记住企业的失败而不是成功。当评价我们不喜欢的人或团体时,这种偏见也会发挥作用:我们倾向于将其积极行为归因于外部因素,消极行为归因于他们的内在性格(换作自己,则正相反)。当为一个关键项目或业务部门寻找领导者时,消极偏见也可能从中作梗,并可能使组织看不到竞争对手的强项。
红队洞察
红队对消极偏见进行反思,同时考虑正面和负面经验,客观评价个人和组织。
正常化偏见
我们很难对灾难未卜先知,所以会低估最坏情况发生的可能性并最小化其潜在的影响。这就是正常化偏见(Normalcy Bias)。正常化偏见解释了为什么有些人在紧急情况下拒绝撤离,以及为什么在“泰坦尼克号”上没有足够的救生艇。同样,它也是企业不能制定好的应急方案、对糟糕情况的预期在事后看来过于乐观的原因。例如,2006年1月,福特公司在北美推出了全面重组计划“前进之路”。该计划预期汽油将持续10年的低价,所以市场对大型卡车和运动型多功能车的需求将稳步下降。然而到当年4月份时,美国市场上汽油的平均价格已经飙升到每加仑3美元,卡车销量也根本没有下滑。纳西姆·尼古拉斯·塔勒布(Nassim Nicholas Taleb)在他的畅销书《黑天鹅》(The Black Swan)中讨论了正常化偏见的危险。黑天鹅是超出预期的事件,一旦发生,就会产生重大影响。2001年9月11日恐怖袭击事件之后的市场崩溃是一场黑天鹅事件,2008年的金融危机也是如此。在当今快速变化的世界中,黑天鹅事件的发生更加频繁,令人不安,这也使得正常化偏见比以往任何时候都更需要加以防范。
红队洞察
红队帮助组织从别人的经验中学习,使用反事实推理评估风险,以此来抵御正常化偏见,这也恰恰是塔勒布建议用来减少黑天鹅事件的方法。
乐观偏见
我们经常低估自身的缺点,高估自身的能力,夸大我们准确预测未来的概率。于是就产生了乐观偏见(Optimism Bias)。心理学家认为,大多数人都有着虚幻的优越感,相信自己比别人强。1977年,内布拉斯加大学(University of Nebraska)的教授们调查发现,94%的受访者认为自己在同龄人当中的出色程度在中等以上。2000年,另外一项针对斯坦福大学MBA学生的调查发现,87%的人认为自己的学业成绩排名处于前50%,而只有10%的人认为自己的定量数学分析能力低于平均水平。竟然有93%的美国人相信自己的驾驶技能高于平均水平。虽然这些在统计学上都是不可能的,但这种过度的乐观也不是一无是处。它鼓励我们去冒险,而冒险会推动公司、社会乃至文明前进;它让我们在逆境中坚持不懈。卡尼曼甚至将乐观偏见称为“资本主义的引擎”,但他也指出,大量企业特别是小企业的失败也是因为它。虽然只有35%的美国小企业能存活5年以上,但研究表明,美国企业家普遍认为自己的企业有60%的成功机会,33%的人认为自己不可能失败。
红队洞察
红队对成功进行客观评估,包括组织真实能力的实际构成要素、战略计划的真实风险,通过这种方式来克服乐观偏见。
鸵鸟效应
没有人会喜欢坏消息,更多的是积极、不自觉地回避或无视它。这是我们大脑认知上产生的鸵鸟效应(Ostrich Effect)。研究人员已经发现,我们经常不遗余力地忽视那些与我们的假设相矛盾或相反的信息和数据。2009年对瑞典和美国投资者的一项研究发现,他们在熊市期间检查投资价值的可能性要小得多。这是一个危险的趋势,因为它会导致我们在分析中忽略负面或矛盾的数据,使结论扭曲并引导我们做出错误的决定。
红队洞察
红队通过努力找出质疑战略或计划的基本假设和数据,来防止鸵鸟效应,确保问题的所有方面都得到彻底检查,但即使这样也不能保证万无一失。
结果偏差
人们偏爱赢家,所以如果一个决定的结果还不错,我们自然会认为这个决定是正确的。这是我们认知上出现的结果偏差(Outcome Bias)。但如果只是运气好呢?没有一个聪明人会认为酒驾是个好主意,从酒吧出来安全开车到家没被撞死或撞死别人,仅仅是侥幸而已。然而在商业中,一旦计划或战略成功,我们就不会再去质疑了。我们也倾向于给予那些有成功纪录的人更多的信任,而不去分析他们成功的原因。记住,过去的表现并不能保证未来的盈利能力。
红队洞察
红队通过对获得成功的战略进行批判性分析,来检验这些战略是否能在未来继续有效,以此减少结果偏差,并积极寻找可能更成功的替代方案。
过分自信
成功也会导致我们对自己的专业知识过分自信(Overconfidence)。最能证明这一点的莫过于菲利普·E.泰洛克(Philip E. Tetlock)领导的一项正在进行的研究,该研究让华尔街、情报界和学术界的顶尖预测专家,与两万名左右没有预测专长的业余人士展开竞争。2011年,泰洛克第一次组建了“求知若渴的业余人士”小组。每年,该小组成员都会被问到一些问题:日经指数是否会在某一特定日期前超过9 500点?黄金价格会超过1 850美元吗?石油输出国组织(OPEC)会减产吗?希腊会退出欧元区吗?同样的问题也会抛给业内顶级专家和预言家组成的4个小组。结果令人震惊。业余选手的表现一直远远超过专家,其中前2%的人甚至超过了掌握机密信息的情报分析人员。他们是怎么做到的?泰洛克发现,非专业人士以一种更开放的心态对待这些问题,对他们最初的结论不太确定,在提交答案之前,更有可能考虑关于问题的各种观点。正如他在2015年的著作《超预测》(Superforecasting)中所解释的那样:“预测并不是一种与生俱来的神秘天赋。它是特定思维方式、信息收集和信念更新的产物。”泰洛克发现,专家们不太愿意征求别人的意见,只依据自己现有的观点做出决定。这也解释了为什么在过去的10年里,四分之三的美国股票共同基金都没能跑赢市场。
红队洞察
红队要求专家不仅仅依靠专业知识来证明其建议的有效性,以此来解决过分自信的问题。红队的运作方式与泰洛克的“超级预测者”非常相似:他们以开放的态度处理问题,收集尽可能多的信息,挑战自己的偏见和假设,然后得出结论。
计划谬误
用特沃斯基和卡尼曼的话来说,计划谬误(Planning Fallacy)指的是做出“不切实际地接近最佳情况”的预测和计划的倾向。卡尼曼引用了2005年的一项研究,该研究考查了1969年至1998年期间在世界各地修建的铁路项目。在超过90%的时间里,规划者们都高估了利用这些设施的乘客人数。尽管这些问题被广泛报道,数据也很容易获得,但似乎并没有对后来规划者的预期起到任何作用,他们将新铁路项目的乘客人数平均高估了106%,导致成本平均超支45%。在如今的大数据时代,商业规划者已经完全可以将预估数据建立在统计证据的基础上了。然而很多时候,人们仍然更愿意拍拍脑袋做出决定。
红队洞察
红队将预测结果与之前的类似案例进行比较,寻找相关数据,匹配目标和指标,来防止计划谬误。
回归谬误
所谓回归谬误(Regression Fallacy),与其说是一种偏见或启发式,不如说是对一条统计学真理的严重忽视,即均值回归的规律。对同一变量的测量值,首次测量的结果越极端,在之后的测量中越会趋近平均值。不理解这一规律,对世界的运作方式就会得出各种错误的结论。为了证明这一点,卡尼曼先抛出一个声明——“采用能量饮料治疗的抑郁儿童,在3个月里病情会有显著的改善”,然后再解释其背后的原因。
这篇报纸文章的标题是我编造的,但它所报道的内容却是真实的:如果你用能量饮料治疗一群患抑郁症的孩子一段时间,他们的病情将显示出临床上的显著改善。每天花一些时间仰头站立或抱猫20分钟的抑郁儿童,其病情也会有所改善。读了这些标题,大多数读者会自动推断能量饮料或抱猫能够治疗抑郁,但这样的结论是没有科学依据的。抑郁儿童是一个极端组,他们比大多数其他孩子更加抑郁,而随着时间的推移,极端组的测量值会向平均水平回归。在连续几次测试中,抑郁症状评分之间的相关性并不完美,因此,会有均值回归的现象:就算不抱猫,不喝红牛,抑郁症儿童的病情也会随着时间的推移而有所好转。
这对企业的意义重大。有多少管理理论无非是合理的统计偏差或偶然的运气?卡尼曼发现,平均而言,在研究结束后的一段时间里,吉姆·柯林斯所著的《基业长青》(Built to Last)一书中介绍的杰出公司和不太成功的公司,它们之间盈利能力和股票回报率的差距缩小到几乎为零。而汤姆·彼得斯(Thomas Peters)和罗伯特·沃特曼(Robert Waterman)合著的《追求卓越》(In Search of Excellence)一书中所列公司的平均利润率也大幅下降。一项对《财富》(Fortune)杂志“最受赞赏企业”的研究发现,在过去的20年里,评级最差的公司其股票回报率要比最受赞赏的公司高出很多。当然,考虑到市场的周期性,指望一家公司永远保持领先是不公平的。我和一些商业研究人士都认为,即使是从那些暂时成功的公司身上也能获得有价值的见解。但重要的是要记住,有时,企业和领导它们的男男女女只是幸运或不幸运而已。
红队洞察
红队通过确保在评估过去成绩和规划未来时考虑到均值回归的可能性,来减少回归谬误。
现状偏见
人类倾向于保持现状,这会对我们的选择产生很大的影响。我们称之为现状偏见(Status Quo Bias)。一项针对美国股票共同基金投资者的研究发现,即使已经不再是最优选择,他们仍然强烈地倾向于维持目前的资产配置。研究人员还发现,当投资者获得更多选择的机会时,这种偏好更得到了强化。换句话说,就算有选择,很多人也宁愿不选择。相关的偏见包括存在偏见(Existence Bias),指的是仅仅因为某物已经存在就认为它是好东西;还有长寿偏见(Longevity Bias),指的是一件事物存在越久,人们越倾向于认为它会继续存在下去。现状偏见有助于解释为什么一些公司坚持遵循无效的流程,以及为什么它们一次又一次地犯同样的错误。
红队洞察
红队通过迫使组织检查自己的战略和计划,并确认它们仍然是最佳选择,来抵制现状偏见。
沉没成本谬误
即使明知道目前的行动将导致更大的损失,我们中的大多数人也很难做到及时止损。这有助于解释为什么制造商即使在亏损的情况下仍然保持工厂运转,为什么失败的产品仍然在货架上,为什么无能的CEO会被续约。沉没的成本不一定是金钱;它也可以是时间、政治资本或任何其他有限资源。这样一种名为沉没成本谬误(Sunk-cost Fallacy)的思维方式,也可能导致非理性升级,在这种情况下,我们不断增加投资,以达到预期结果,但最终,我们会付出远远超出实际价值的代价,那些赢得竞购战的人都清楚这一点。
红队洞察
红队客观分析失败战略或计划的未来风险,而不考虑已经发生的成本,从而防止组织成为沉没成本的受害者。
时间贴现
时间贴现(Temporal Discounting)指的是一系列与我们渴望需求得到即时满足有关的偏见。我们大多数人宁愿马上得到一粒芝麻,也不愿等到明天的西瓜;我们更喜欢推迟解决问题,尽管这会使我们将来处理这些问题的成本更高;我们大都很难理解复利。有些决定,短期来看是好的,但实际上会对未来有负面结果,而时间贴现效应会让我们故意去淡化这些负面的未来。所以我们看到,人们总是更关注一项行动的直接后果,而不愿意充分考虑其长期影响。这会让企业面临巨大后果。然而,即便这样,许多公司仍然是等到迫不得已才去解决问题,投资者也更强调短期成功而不是长期盈利。
红队洞察
红队通过迫使组织同时考虑决策的长期影响及短期影响,来解决时间贴现问题。
并不是所有的认知心理学家都认同这些认知偏差和启发式在我们的思维过程中扮演了非常核心的有害的角色。加里·克莱因就是怀疑者之一。他认为人们在决策方面做得要比卡尼曼说得好。克莱因做的几项重要研究也证明了我们能够在不知不觉中,利用经验的力量做出正确、直观的决策,但他对我们大脑的局限性也表示了担忧。
克莱因说:“我更担心从经验中吸取教训的困难。我们常常看不到因果之间的明确联系。太多变数的介入和时间的推延也让事情变得更复杂。”关于自然主义决策,他曾写过一篇非常精彩的论文,名叫《直击决策真相:揭秘是什么在影响你做决定》(Sources of Power: How People Make Decisions)。其中写道:“如果管理者发现自己如期成功并低成本地完成了某个项目,那么,这种成功是源于他们的能力、下属的能力、突然而至的好运气、来自高层管理者的干预,还是所有这些因素的综合?或者还有其他原因?这很难说。我们可以从错误中吸取教训。每当我们试图讲述一个关于经验的故事,其实都在冒着误解这些经验并在错误战略上下注的风险。”