确认偏差:x度问诊,癌症起步是怎么回事?
出自专栏《不要相信大脑:影响判断和内心的认知偏差》
首先介绍一个概念——确认偏差。
你有没有觉得,你在知乎刷到的大多数答主,与你的观点是一致的?你和他们特别有共鸣!
因为算法的推荐,是你看什么推荐你什么。
其实我们的大脑也有类似的「算法」。
先回答我一个问题:你的信念和观点从何而来?
你大概率会觉得自己的信念是理性的、有逻辑的并且公正的,因为这些信念基于你人生多年的经验,是你对自己所掌握的信息客观分析后得出的。
然而,事实的确如此吗?
思考一下,自己有没有在看过一些健康医疗节目后,或是身体不适时搜索网络资料后,觉得自己也有类似的症状或疾病呢?著名的「x 度问诊,癌症起步」便由此而来。
这种心理的存在,使得即使陷阱非常明显,无良医疗机构仍能借此敛财无数。
有趣的是,即使在权威机构就诊,也会有类似的现象发生。
有研究发现,在治疗过程的早期,医生往往对某种疾病的诊断有一个初步的主观预感,而这种预感则会干扰他们去思考另一种诊断的可能性;与此同时,患者自己也更倾向于认同支持自己看法(如「我觉得我只是肌肉劳损」)的医疗诊断,而不是反对其自身看法的诊断(「医生居然让我去骨科 x 光片,完全是浪费我时间骗我钱财」)。
在职场上,这种情况也屡见不鲜。
叶女士是北京一家科技公司的主管,她坚信 "付出汗水努力工作就会成功 "的格言。但是,在过去的几个月里,她主管的部门的业绩和效率出现了滑坡。由于她深信「努力工作」是成功的必要条件,她得出结论,这是因为她的下属们不够努力工作。
她的这个结论有一定道理,因为她最近经常发现有下属延长了午休时间,带薪拉屎,还经常上网刷贴完手游。
因此,叶女士决定要求大家加班,并警告要解雇任何她看到的偷懒的员工。
可是,她的部门业绩并没有得到多大的改善。
而在上级看来,叶女士部门业绩下滑的主要原因有两点:一是该部门到了发展瓶颈,二是竞争对手日益增多。
实际上,如果叶女士没有一叶障目,也能发现收入下降的真实原因是上升瓶颈和竞争加强。可惜,她过于相信努力工作是成功最重要的衡量标准,错误地将员工的不努力认定为主要原因。
如果要找出人类逻辑推理中最值得关注的一个问题,那么上述的这些认知偏见——确认偏差(confirmation bias)往往会当仁不让地成为首选。
确认偏差指我们倾向于去寻找支持自身已经相信的信息。
这是人类大脑推理过程中的一个缺陷。因为我们在接受信息时总是主观的,因此会时刻关注对自己原有想法有利的信息,而忽视不利的信息,以避免可能推翻原有观点,使得自己成为错误信念的囚徒。
确认偏差的典型特征为:
- 不会去寻求客观的事实
- 主观解读现有的信息以支持自己的信念
- 只记住那些符合自己信念的事物
- 忽视那些会挑战到自己信念的信息
确认偏差被引入公众视野,是在 1960 年[1]。
心理学家 Peter Wason 向教室里的学生列出了一组数字:2,4,6。之后,他要求这些学生去思考为什么这个数字有这种特殊的安排方式,以及他用什么方式来选择这组数字。
接下来,他又列出了数字 10,12,14,同样让学生思考规律。
此后又列出 22,24,26。
列出这三组数后,他要求学生自己列出一组他们认为使用同样规律的数字。
当学生列出一组数字后,他会通过回答「是」或者「否」来告诉学生他们列出的数是否符合规律。
你认为 Wason 给出的数列规律是怎样的呢?
很自然地,相信我们和这些学生一样,都会列出以 2 递增的数列,比如 6,8,10 或是 16,18,20。
结果也很明显,老师一直重复地说着「是」,这些肯定的回复也让学生认为自己找到了正确的规律。
但是,事实真的是这样吗?
在之后,Wason 又指出数列 1,2,3 或是 3,9,555 同样符合他选择数列的规律。
这时候,学生开始迷惑了,他们开始列出各种各样的数列,正确率也开始降低。
比如,有的学生列出了 1,1,1 或是 3,2,1 这样的数列,而 Wason 则否定了他们的答案。
在一段时间的斗智斗勇后,学生们终于认识到规律可能并不一定是一致的大小叠加或者减小,老师选择数列的规律很简单,只要是递增关系就行。
这个简单的测验说明:我们经常会在自己的头脑中设定一个假设(「这个数列是 2 的递增」),然后通过各式各样的方式去证明自己这个假设是正确的,而忽视了其他的因素,而当我们的这个假设在某些情况下被验证正确时,我们就停止了自己寻找最终答案的脚步。
以这几年最为火热的疫苗接种争论为例:
- 如果 A 赞成疫苗接种,那么 A 会去寻找支撑接种疫苗观点的文章与资料,如疫苗强大的防护作用,为社会整体建立屏障。当 A 听到有地区爆发疫情,或是因为没有接种疫苗重症率高,自然会更加认可疫苗的必要性。
- 反之,B 反对疫苗接种,因为在他的视角中,因为接种疫苗出现严重副作用的人不少,而很多人的自身免疫力足以抵抗病毒,那么没有必要徒增危险。除此之外,强迫打疫苗也限制了人的自由。
因此,即使让 A,B 阅读同一篇与疫苗相关的新闻,两个人得出的解读也是截然不同的。
延伸开来,就像宗教、枪支管理、死刑这些能引发无数争论的问题一样,每一方都能找出无数的论据来支持自己的观点,反对对方的观点,从而认为自己才是正确的一方。
在当下这个信息社会中,最为危险的便是在很多情况下,我们都认为自己都尽可能客观地去检索论据,但事实往往不如人意。
这也是碎片化学习的弊端所在,现代人长期通过 x 博、x 信、x 站等平台接收碎片化的知识,每看一点就觉得「啊!今天又是学习力满满的我」,实际上呢?他们很大可能只是在巩固自己的既有认知。
比如,当我们搜索「接种疫苗的益处」,能得到成千上万的答案;而与此同时,如果我们搜索「接种疫苗的害处」,同样能得到自己想要的结果。因为我们会习惯性地去单向寻找结论,从而认为正因为自己假设的正确性,才会得到这些「证据」[2]。
(注:这个现象也被心理学家 Jonathan Baron 另称为相合性偏差[congruence heuristic])
在 1979 年,心理学家们在斯坦福大学做过类似的辩论实验。辩论主题为「死刑」,招募了支持与反对」死刑「的在校学生。每个学生都阅读相同的两份材料,一份内容以赞同为主,而另一份则反。结果不出所料,学生们都认为与自己观点相似那份材料可信度更高[3]。
另一个研究[4]发现,人们会花费更多的时间(大约 36%)去阅读那些符合自己观点的文章、新闻报道。
这些结果很明了地告诉我们:我们自己的记忆也会折服在确认偏差的强大威力下,大脑会像一个筛子一样,选择性地回想起符合最近所获得信息的内容,而忽视与这个信念相悖的内容。
我们每一次看到的信息都在验证自己的「正确性」,而不知确认偏差在默默地影响着我们的决策。
那么,为什么人类这么容易受到确认偏见的影响呢?
一个解释是:这是我们懒惰大脑处理信息的一种有效方式。
在当今的信息社会中,我们受到的信息轰炸要远高于以往,故而不可能花时间仔细处理每一条信息,以形成一个客观没有偏见的结论。
在一定程度上来说,这种依靠本能的、自动反射的快速处理信息能力,也能保护自己免受伤害。
想象一下我们的祖先在打猎。一只愤怒的剑齿虎正向他们冲来,而他们只有几秒钟的时间来决定是坚守阵地还是逃跑。
这时他们没有时间去考虑所有不同的变量,以做出一个完全知情的决定。
过去的经验和本能可能会使他们在看清动物的尖牙利爪时就选择逃跑。
而那些头铁,想要仔细验证对方是不是有威胁的祖先们,已经在历史长河中成为其他生物的腹中餐了。
第二种解释则更为常见也好理解,就是我们会尽可能地保护自己的自尊心,也就是面子。
在生活中,我们也经常会「自欺欺人」,这种心态就像是慢性毒品,如伏尔泰就曾言:「幻觉是所有快乐之首(Illusion is the first of all pleasure)。」
第三种解释是减少认知不协调感。顾名思义,这种感受在我们的大脑里有两个「小人」因为意见不合争吵不休时最为常见,这便会导致我们身心疲惫并且产生心理层面的压力。
为了减少这种不协调的感受,人们会通过避免与他们的已有观点相矛盾的信息,并且去寻求支持他们观念的证据来「统一」大脑里的意见。
当我们发现自己高度重视的信念是错的时,那种感受是极其痛苦与不甘的,正因为如此,我们会下意识地去寻求支持自己现有信念的信息,来「证明」自己并不蠢。
最为普遍便是星座、算命以及电视媒体中常看到的气功、神医等等。
为什么我们会相信算命或者星象学呢?
因为很多时候我们觉得这些算命或者星座提供的信息的确是「真的」, 在得到一个结果后,我们就会很自然地格外留心测评中提到的内容,这些内容会像是一个隐藏的闹铃一样存在我们脑海中。
在某个时刻,出现与其内容相对应的事件时,这个闹铃就会响起来,提醒我们的大脑「看!那一天算出的结果真的应验了。」
当我们思考着买什么牌子的化妆品、衣服甚至是家用车时,你经常会发现身边的人,亦或是电视、电影里,都出现了自己想要的那个牌子的产品。
当你刚刚结束一段感情时,你会觉得周围的人都在秀恩爱,听到的所有音乐都是谈情说爱,电视上放映的都是言情剧。
当你想要一个孩子时,你会发现身边突然出现了很多可爱至极的小宝宝。
最为代表性的,就是我们很多人都熟知的巴纳姆效应(又称福勒效应[5])。
1949 年,心理学家福勒召集了一群学生,对他们进行人格测验。要求学生在拿到分析结果后对结果与自己的契合程度打分(0-5 分,0 最低,5 最高)。
结果学生们给出的平均得分为 4.26,也就是说,几乎所有人都认为这个人格分析与自己相符。
这个心理测试真的如此准确?
事实上,所有的学生得到的都是同一份「个人分析」:
你希望他人喜爱认可你,但是你对自己的要求却非常高。
尽管你有性格上的缺点,但是你总能找到方法去弥补。
你有很大的潜能等待你去开发。
你有时会游移不定,怀疑自己的决定是否正确。有时候你会不太现实。
尽管你的外表强硬自律,但是内心仍然会感到不安和焦虑。
你喜欢独立思考,不易接受没有充分证据的言论。
有时你谨慎沉默,显得内向。而有的时候,你又会变的外向,亲和。安全感是你的一大目标」
读了这份测试,你会不会觉得,和你也是相符的?
我们都知道,所有人在潜意识里都喜欢积极的评价,因此,类似于「具有很大的潜能」,「独立思考」之类的描述,很容易获得我们大脑的「芳心」。
一个很典型的讽刺笑话就很好地表达了这个现象的狡诈之处:一个算命的,靠给孕妇测算预产孩子的性别就赚得盆钵体满,因为他的规矩是算对收钱,算错免费。
数年前我们的社交媒体上就有一个类似的热门信息,说父母的姓名笔画之和,单数为女儿,双数为儿子,无数的人在「测算」之后纷纷表示这个好准,但是仔细一想,这条信息的逻辑与之前提到的算命如出一辙。一传十十传百,人们只将「验证」的事例广而告之,从而给了旁人一种错觉,就是这些算命神机妙算。
确认偏差会让我们在记忆中植下一颗种子,我们会将之后遇到的信息都归入既有的认知中。
以算命来说,我们很容易把一些准确的偶然事件,归为之前「算命准」的功劳,久而久之,小种子便发展为难以撼动的苍天大树。
我们在生活中所存在对各个族群,地域所带有的刻板印象也是如此,有研究便发现我们更愿意去记住那些与自己刻板印象相符的信息,比如,四川人肯定都特别能吃辣。
在这个方面最出名的莫过于 1979 年的一个实验[7]。
当时,心理学家们招募了一群实验参与者,给他们看一段关于虚构人物「简」一周的生活的文字。在这一周里,简表现出她在某些时候是一个外向的人,而有时候又是一个内向害羞的人。
在看完这个故事的几天后,这些参与者重新回到实验室,这时,研究者们将他们分成了两组,询问他们简是否适合做某种特定的工作。
第一组被试被询问简是否适合做一个图书管理员,而另一组则被询问简是否能成为一个优秀的房产经纪人。
结果发现第一组的人在得到问题后,回忆起的是简内向的个性和行为,而第二组回想起来的却是简外向的性格。在回答完这个问题后,参与者们又被询问他们认为简是否可以胜任其他的工作。这些被试们都「卡」在了他们最初对简的刻板印象中,全部都认为不会有其他工作适合简的性格。
总之,每个人都会本能地倾向于相信自己想要相信的事。
因为,去寻找验证自己原有想法的过程总会很自然,而去寻找与自身信念相悖的过程却显得很反直觉,并会让自己感到痛苦。
这也解释了为什么吸睛夸张的谣言传播如此之快,而辟谣却难如登天,因为辟谣需要思考验证的过程,而这正是我们「懒惰」的大脑不想要经历的。
每当我们产生一种新观点或是做出一个决定,我们难免会觉得这些观点和决定是由我们自己经过理智客观地分析而得出的,然而事实并非如此。
在认识到确认偏差的存在后,我们要如何减少这种偏差对我们的影响,从而更趋向于是理性、有逻辑并且公正呢?
在科学领域,我们总是通过寻找相反的证据接近真相;那么在现实中,我们也同样应该学会用相似的方法去应对生活中的人和事。
为了避免容易受到确认性偏见的影响:
- 要开始质疑你得到的信息和用于获取信息的来源
- 时刻思考除自己的信念/假设之外的其他可能性
- 以一种更加动态的方式(而不是单方面的方式)收集信息
最为常见的例子便是在这个碎片信息为主的时代,媒体们为了流量,往往会通过断章取义和博眼球的标题来吸引受众。
有研究[8]便发现社交软件上的转发选项会令人分神,很多时候人们在看到标题之后就直接转发,甚至不会花几分钟读一下事实上错漏百出的内容。
因此,在接触到一个新观点时:
- 阅读整篇文章,而不是根据标题和图片来形成结论。
- 试着在文章中寻找可信的证据。
- 分析文章中所断言的陈述是否有可信的证据支持(或是追踪论据的来源)。
因为越来越多的自媒体为了流量,依靠与受众的信息差,不仅会断章取义,还会编撰数据和故事。
另外,由于偏见最可能发生在决策过程的早期,我们应该尽量提醒自己要从一个中立的事实基础开始,与此同时,扩大搜索信息时使用的来源类型,这便能提供关于特定主题的不同方面,并提供可信度的水平。
如同一话题,在知乎与微博上的话风很可能是截然不同的。
在阅读的同时,试着思考:
- 哪些部分是我自动就赞同的?
- 哪些部分是我忽略或略过而没有意识到的?
- 我对那些我同意或不同意的观点有什么反应?
- 这个内容是否证实了我已经有的任何想法?为什么?
- 如果我的想法与这些观点相反呢?
对于团体决策而言,独立地接收每个成员的意见至关重要,就像是司法机关侦查案件时,就会要求证人在提供证词前不能讨论,以防止相互影响。
正如古人云:「兼听则明」,唐太宗以魏征为镜亦如是。我们在生活中也当如此。
1. Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly journal of experimental psychology, 12(3), 129-140.
2. Baron, J., Beattie, J., & Hershey, J. C. (1988). Heuristics and biases in diagnostic reasoning: II. Congruence, information, and certainty. Organizational Behavior and Human Decision Processes, 42(1), 88-110.
3. Lord, C. G., Ross, L., & Lepper, M. R. (1979). Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology, 37(11), 2098–2109.
4. Knobloch-Westerwick, S., & Meng, J. (2009). Looking the other way selective exposure to attitude-consistent and counterattitudinal political information. Communication Research, 36(3), 426-448.
5. Forer, B. R. (1949). The fallacy of personal validation: a classroom demonstration of gullibility. The Journal of Abnormal and Social Psychology, 44(1), 118.
6. Fyock, J., & Stangor, C. (1994). The role of memory biases in stereotype maintenance. British Journal of Social Psychology, 33(3), 331-343.
7. Snyder, M., & Cantor, N. (1979). Testing hypotheses about other people: The use of historical knowledge. Journal of Experimental Social Psychology, 15(4), 330-342.
8. Jiang, T., Hou, Y., & Wang, Q. (2016). Does micro-blogging make us 「shallow」? Sharing information online interferes with information comprehension. Computers in Human Behavior, 59, 210-214.
备案号:YXA1r3BXaOzcxn3eyxXHbElw