辟谣反而让人更坚信谣言?

作者:雨亦奇来源:忽悠公众号发布时间:2017-03-28

在很多情况下辟谣反而会让人更坚信之前的谣言。

  常言道:「造谣张张嘴,辟谣跑断腿」。这话描述的是谣言的传播速度和广度往往远胜于辟谣的现象。不过就算辟谣跑断了腿勉强追上了谣言的传播,辟谣真的有用吗?很可惜,在很多情况下辟谣不仅不会让人怀疑谣言而相信真相,甚至还会让人更坚信之前的谣言。

  这在心理学上叫做「逆火效应」(Backfire effect),也叫「回旋镖效应」(Boomerang effect):当新的信息(比如辟谣)与人们已有的认知和信念相矛盾时,人们很可能会因此而更坚信先前的信念。所以最成功的谣言会跟人们的已有认知、立场或担忧「一拍即合」,让人们觉得这简直就是自己的想法,一拍大腿说「我就知道!」,而之后任何的反驳证据都会被人们看做是对自己的否定、挑战和贬低,激发人们的心理自我保护机制,让人加倍地坚信谣言,并像保护自己一般保护谣言。

  最近十几年来,对于这一课题的研究跨越了多个领域:传播学、政治学、心理学、社会学。相关论文甚至还出现在了大气科学、医学、流行病学和公共卫生等通常与社会科学没有太大交集的期刊上。由于气候变化和疫苗等话题是谣言的重灾区,相关领域的科学家也不得不开始系统性研究到底该如何用自己的专业知识来有效地反驳各类谣言,让科学研究的成果不会因为大众的误解而付之东流。

  我在这里就简单概括一下部分研究的发现:

  一、 Nyhan 和 Reifler 的经典研究

  Nyhan and Reifler (2010) 在实验中让两组受试者分别阅读一篇新闻报道,其中对照组阅读的新闻中有关于伊拉克持有大杀伤性武器的内容(实为谣言,且与右派的认知更为符合),而实验组阅读的新闻则在最后还加上了对谣言的反驳。他们发现,辟谣整体来看并没有改变人们对谣言的看法,但这很大程度上取决于受试者的政治立场。对于本来的政治立场就与这一谣言不符合的左派,辟谣很有效果,但对于倾向与认同谣言观点的右派而言,辟谣反而可能让他们更相信谣言,且政治立场越偏右辟谣的反作用就越大。研究者之后又用关于减税和干细胞研究的话题重复了实验,依然得到了相似的结果。

  二、 「逆火效应」并非仅限于政治相关话题

  比如Byrne and Hart (2009) 就发现一些旨在鼓励人们戒烟的宣传反而会使部分人群的吸烟率上升。Nyhan et al. (2014) 用了4种不同的方法向家长们科普疫苗的好处并辟谣疫苗会导致自闭症的传言(美国有不少人相信),但这4种科普手段虽然减少了家长对疫苗的误解,但均未能提高家长让孩子接种疫苗的意愿,而那些原本就对疫苗最抵触的家长甚至更不愿意让孩子接种疫苗了。Nyhan and Reifler (2015) 关于流感疫苗的研究也得到了几乎完全相同的结果:科普虽然在整体上降低了人们相信「流感疫苗会导致流感」这一谣言的可能,但却让那些之前就最不信任流感疫苗的人更不愿意接种疫苗了。

  三、 关于「信仰极化」

  一个相关的现象叫「信仰极化」(belief polarization),简单来说就是对某些客观事实的宣传并不会让不同人群达成共识,反而会激励他们根据自己原有的信仰站队,导致更严重的两极分化。比如Batson早在1975年就发现,当基督教徒和非信徒读到一个对圣经中一些内容的反驳时,非信徒对圣经内容更加怀疑了,而信徒却更加相信那段经文了。类似地,Gollust et al. (2009) 发现民主党人更倾向于相信关于社会因素如何导致糖尿病的科普,而共和党人更有可能拒绝相信这样的科普,这可能是因为在共和党人的价值观中,健康(以及其他许多结果,例如贫穷)主要是受个人选择和行为而非社会因素的影响(所以也就没有必要让政府通过政策来改变现状)。气候变化也是一个极化非常严重的话题,民众对于关于气候变化的信息的接受程度和反应很大程度上受到了他们政治立场的影响,即使被告知自己所处地域会遭受气候变化的严重打击,许多人仍然选择坚守立场。相关研究很多,就不赘述了,可以参见Hart and Nisbet (2011) 的研究和总结。

  四、 越关心政治、教育程度越高反而固执?

  一个人的立场和政治参与/了解程度还会共同影响辟谣/科普的有效性。美国医保政策熟悉的人很可能也听说过关于奥巴马医保会导致所谓"death panel"的谣言,这一谣言最早是由政客Palin开始传播的,也已被反复证伪,但Nyhan et al. (2013) 的研究显示,民众对相关辟谣的反应取决于他们对Palin的看法和他们对政治的关心和了解程度:那些对Palin没有好感的民众或对Palin有好感但对政治了解不多的民众在接受辟谣后更不相信"death panel"的存在并更支持奥巴马医保改革了,但那些既支持Palin,又对政治比较了解的民众却会加倍相信"death panel"并更加反对医保改革。类似的现象还发生在教育程度上 (Hamilton 2011)。与很多人设想的不同,教育程度与相信气候变化之间并没有明显的相关,而是取决于政治立场。在民主党支持者当中,教育程度越高则越相信气候变化,而这在共和党支持者当中恰好相反,教育程度越高则越可能不相信气候变化。这有可能是因为教育程度较高的人更有可能接触到或有能力和精力去寻找反对气候变化的一些看起来很「科学」的信息。但「看起来科学」和科学的差距还是很大的,即使是教育程度高的人也往往无法准确认知其中的差异,毕竟隔行如隔山。因此误认为自己有「科学」撑腰的高学历者就可能会对自己的立场更自信也更难接受相反的信息。

  五、 「逆火效应」与不堪一击的信任

  「逆火效应」不仅会使人们拒绝相信辟谣,还会使这些人对辟谣的来源产生不信任,从而对将来类似的辟谣产生一定的免疫 (Brehm and Brehm 1981)。Munro (2010) 发现,当人们的原有认知被科学证据反驳时,人们往往并不会改变自己的看法,而是会转而认为这一话题是没法用科学下结论的,并对科学方法甚至科学本身产生怀疑和不信任,用类似「科学也不是万能的」、「这种事没法用科学研究的」这样的说法正当化自己的立场。 Nisbet et al. (2015) 也有相似的发现,并且这一倾向在保守派和自由派身上都会出现。通俗点说,用科学研究辟谣不仅有可能辟谣失败,还会反过来牵连到科学方法、科研人员在一些人眼中的公信力。

  六、 说到底似乎还是关于三观

  不少研究发现,人们往往会用自己的世界观(也包括价值观、政治立场、身份认同等)作为自己认知的基模 (schema),并用其来过滤信息。当新的信息与自己已有的世界观和认知相矛盾时,人们一般会通过motivated reasoning (动机驱动的思考?) 等策略来消除这些矛盾,例如认定新的信息是错的或新信息的来源不可信,或是寻找符合自己世界观的替代信息来反驳那些与之矛盾的信息,或是回归自己信念的来源来重新坚定自己立场(类似于信徒在被反驳后回去读一遍经书压压惊?),或是干脆采取更消极和封闭的态度:「不管你怎么说,我有权利有我自己的想法 / 我怎么想不管你事...」。

  相比这些策略,根据新信息而相应地调整自己的世界观则显得更加困难。与其承认自己的错误和无知,并改变甚至重建自己的三观和认知,人们更愿意选择维护自己的三观,获得精神胜利。虽然在很多问题上民众作为整体的认知和态度对解决问题非常重要,但人作为个体往往意识不到自己个人看法会有什么现实影响,这导致「事实正确」显得太过抽象,做到「事实正确」的心理效用远低于「感觉正确」的心理效用,但在认知上所需要付出的努力却更大。所以与其冒着三观被颠覆的风险接受新信息,还不如守着自己最熟悉的安全空间让自己轻松、开心一点。

  七、 那么应该如何对抗谣言呢?

  学界自然也研究和尝试过各种科普和纠正认知的方法,总体结果不容乐观,似乎很少有策略能广泛并有效地破除民众已有的错误认知。不过也有一些相对有潜力的策略。一种思路是,既然那些挑战民众世界观的科普容易无效甚至适得其反,那也许可以从framing (框架) 着手,也就是针对不同人群的特点和思维模式,把同样的科普内容换不同的说法、角度进行交流,避开世界观、政治立场等高压线而曲线救国 (Kahan 2010; Lewandowsky et al. 2012). Feinberg and Willer (2012) 在实验中发现,对于同一个环境保护话题,如果在解释时更加强调「伤害和关爱」相关的内容,自由派会更容易表示支持,而如果把问题放在「纯洁性」的框架下解释则会让保守派更支持环保(比如可以说「上帝创造的世界本是纯净的,而污染会损害上帝造物的纯洁性,所以人类有责任保护环境」)。Feygina et al. (2010) 也发现,如果让保守派民众认为环保是「爱国的」、「维护现状和美国生活方式的」、「对企业有好处的」,他们很可能会转而支持环保。

  措辞上的细节也很重要,Schuldt et al. (2011) 发现「全球变暖」和「气候变化」这两个词引发的民众反应有很大差异。当用「全球变暖」这个词时,民众更可能不相信,因为「变暖」这个词方向性太强,普通人很容易望文生义然后拿「冬天明明这么冷,哪有什么全球变暖」这样的局部个例来正当化自己的怀疑,而把用词换成「气候变化」后至少民众很难再用身边的个例轻松「反驳」。类似地,Hardisty et al. (2010) 发现如果把「碳排放税」这个词改为「碳排放弥补(carbon offset)」,共和党人(通常很反对税收)对其支持率就会提高,但这种用词上的变化对民主党人和中立选民则没有影响。总之,这种策略似乎要求科普和辟谣像广告公司一样深入研究不同人群的需求和心理,有针对性地精确投放,而非天真地认为只要客观地介绍事实就够了。

  而另一些策略似乎就更有操纵性成分了。Cohen et al. (2007) 和 Nyhan and Reifler (2011) 的研究强调了引导信息接收方进行「自我肯定」的重要性。发现在向民众科普一些与他们世界观相冲突的内容时,如果让他们写一段自己一次践行重要价值观/原则的经历,那么这种「自我肯定」会让他们更有安全感/自信,也相对不会认为科普内容威胁到了自己的世界观,也就更有可能接受科普(说实话我个人感觉这种方法简直有些patronizing,像哄小孩一样嘛,但偏偏这种看似愚蠢的方法竟然能奏效...)。对消费者心理的研究也有类似发现 (Cheng et al. 2011) :「自我肯定」可以让消费者更容易接受他们本来非常喜爱的品牌的负面新闻,因为「自我肯定」让他们觉得这些负面新闻并不是在贬低他们自己而只是贬低那个品牌(设计台词:「不要怕,我们只是在说那个品牌不好,并没有说支持那个品牌的你不好,你最好了,棒棒哒!」...)。

  最近一篇关于「假新闻疫苗」的论文(van der Linden et al. 2017)在媒体上也获得了不少关注。所谓「假新闻疫苗」跟现实中的疫苗原理类似,也就是在人们接触到真的假新闻之前先发制人地让人们接触可能的假新闻,然后进行反驳,从而让人产生对假新闻的「免疫力」。换句话说,既然人们习惯于先入为主,那么我们就争取保证「先入」的是真实信息而非谣言。类似于普通疫苗,这种「心理疫苗」可能也会产生群体免疫效应 (herd immunity),即只要一个群体中足够多的人接种了疫苗,那么那些没有接种的个体也会受到保护,因为这时病毒/谣言已经无法有效地大范围传播了。不知在信息时代,相比对疾病的免疫,人们是否更缺乏对错误信息的免疫,以至于将来会出现为了让人们去接种疫苗,得先给人们接种「抗谣言疫苗」的情况......其实这篇论文的思路之前不少研究也采用过,只不过没放到「疫苗」的框架下讨论而已,更多请参考 Lewandowsky et al (2012) 文中的"Using misinformation to inform" 部分。

  更多可能的思路和策略请看 Lewandowsky et al (2012) 的总结:

辟谣反而让人更坚信谣言?

  一些总结和思考:

  科普和辟谣很难。这些内容的传播本身就很难,而要做到有效并避免产生反作用就更是难上加难。

  人的认知很难改变,尤其是那些扎根于三观、立场、身份认同的认知。认知的惰性和惯性和人们对安全感、确定性和自尊心的心理刚需让人很难把观点和个人区分开,让人像保护自己一般保护一些哪怕错误的观点。科普和辟谣需要想办法避免激发这种「自我保护机制」,巧妙地让人在自我肯定和认同中接受信息。虽然这样的过程和民众的各种反应会常常让人觉得沮丧甚至绝望,但我们不能扔下一句「民众真蠢」就走了或是期望现状能自发地有什么神奇的改变。绝大多数人在绝大多数话题上都是无知的,以前一直都是这样,将来也一直都会这样,任何知识的普及都需要在这样的背景下进行,也需要对这种现状有足够的认识和预计。

  科普和辟谣需要尽量主动出击,先发制人,即使无法改变所有人的看法(比如一些持有特定世界观或政治立场的人群),也要尽量争取围观群众,挤压谣言和误解的生存空间,毕竟这个阵地「我们不去占领,别人就会来占领」。

  在现代社会,有效的科普和辟谣往往需要有一些类似于「市场调研」的支持,需要创新、策略甚至专业运营。

  科普和辟谣不能只靠个体的兴趣和热情,还需要制度性的鼓励和组织,也需要更多专业研究和政策支持。

  ---------------------------------------------------------------------------

  还有一些相关的想法和吐槽放在最后吧:

  1. 辟谣最有可能触及到的恰好是那些对相关话题非常关心的人,但这些人也同样更有可能已经顺着谣言的方向进行了研究,找到了许多似乎可以佐证谣言的相关信息,找到了一些志同道合的小团体,并在这件事上投入了大量的时间、感情甚至金钱。这时如果有人说其实他们相信的都只是谣言,那岂不等于说他们之前的投入都白费了,都是沉没成本了吗?在这种情况下不少人是宁可抱着沉没成本一起沉没也不愿意接受现实而跳船的。

  2. 关于阴谋论我也想稍微说几句。一些人会有这样的逻辑:「有人反对了,就说明触动到那些人利益了,说明我的理论是对的,而反对声越大,则触动的利益越大。什么?学界专家99%反对?那必然是学界被收买了/政治正确,我再也不信学界了。」一旦有了这种信念,一些人甚至会发展出一种基于阴谋论的使命感:「学界/媒体全都被收买了,只能靠我来拯救众人了,所以无论他们怎么反对我,我都要挺住,绝对不向他们屈服!」

  所谓「只有小孩才分对错,大人只讲利益」的价值观真是害人不浅,一些人发自内心地不相信有人真的会因为真相和公共利益而非私利而发声。就像评论里说的:人不是你撞的,你为什么要扶?!……

  这也让我想起了一个笑话:

  一个人醉酒驾车,结果在路上逆向行驶,然后边开边给朋友打电话:「今天大家都怎么了?为什么所有人都在逆行?」。

  当你觉得绝大多数人都在逆行的时候,是否应该至少反思一下有没有可能是自己在逆行呢?是否应该看一下路边和地上的标志呢?为什么就盲目自信只有自己才是对的呢?

  3. 不少人(有时也许也包括我自己)在获取信息时本来就不是为了获取「真相」,而是为了「自我肯定」,为了感受他们脑中对事物已有的观点和思维模式 (schema) 得到确认和支持的那种优越感和快感。很多人在看完某篇文章后最期待说的的不是 「原来…?」,而是 「果然…!」 。把一句「我早就说过吧!」拍在别人脸上带来的多巴胺远胜于发现自己的错误并默默习得新的知识。

  4. 人们常常无法把观点和个人分开,觉得观点错了就等于自己丢面子。无知应该是个中性词,绝大多数人在绝大多数问题上都是无知的,知道自己无知是一种优点,元无知(不知道自己无知)才是真无知。一个人如果一直都是对的则说明ta没有进步,而如果不停地发现自己的错误则ta很有可能一直在学习。

-------------------------------------------

  参考文献:

  Batson, C. D. (1975). Rational processing or rationalization? The effect of disconfirming information on a stated religious belief. Journal of Personality and Social Psychology, 32(1), 176–184. https://doi.org/10.1037/h0076771

  Brehm, S. S., & Brehm, J. W. (2013). Psychological Reactance: A Theory of Freedom and Control. Academic Press.

  Byrne, S., & Hart, P. S. (2009). Communication Yearbook 33. Routledge.

  Byrne, S., & Hart, P. S. (2009). The Boomerang Effect A Synthesis of Findings and a Preliminary Theoretical Framework. Annals of the International Communication Association, 33(1), 3–37. The Boomerang Effect A Synthesis of Findings and a Preliminary Theoretical Framework

  Cheng, S. Y. Y., White, T. B., & Chaplin, L. N. (2012). The effects of self-brand connections on responses to brand failure: A new look at the consumer–brand relationship. Journal of Consumer Psychology, 22(2), 280–288. The effects of self-brand connections on responses to brand failure: A new look at the consumer-brand relationship

  Cohen, G. L., Sherman, D. K., Bastardi, A., Hsu, L., McGoey, M., & Ross, L. (2007). Bridging the partisan divide: Self-affirmation reduces ideological closed-mindedness and inflexibility in negotiation. Journal of Personality and Social Psychology, 93(3), 415–430. https://doi.org/10.1037/0022-3514.93.3.415

  Feinberg, M., & Willer, R. (2013). The Moral Roots of Environmental Attitudes. Psychological Science, 24(1), 56–62. The Moral Roots of Environmental Attitudes

  Feygina, I., Jost, J. T., & Goldsmith, R. E. (2010). System Justification, the Denial of Global Warming, and the Possibility of “System-Sanctioned Change.” Personality and Social Psychology Bulletin, 36(3), 326–338. https://doi.org/10.1177/0146167209351435

  Gollust, S. E., Lantz, P. M., & Ubel, P. A. (2009). The Polarizing Effect of News Media Messages About the Social Determinants of Health. American Journal of Public Health, 99(12), 2160–2167. The Polarizing Effect of News Media Messages About the Social Determinants of Health

  Hamilton, L. C. (2011). Education, politics and opinions about climate change evidence for interaction effects. Climatic Change, 104(2), 231–242. Education, politics and opinions about climate change evidence for interaction effects

  Hardisty, D. J., Johnson, E. J., & Weber, E. U. (2010). A dirty word or a dirty world?: Attribute framing, political affiliation, and query theory. Psychological Science, 21(1), 86–92. https://doi.org/10.1177/0956797609355572

  Hart, P. S., & Nisbet, E. C. (2012). Boomerang Effects in Science Communication: How Motivated Reasoning and Identity Cues Amplify Opinion Polarization About Climate Mitigation Policies. Communication Research, 39(6), 701–723. Boomerang Effects in Science Communication

  Kahan, D. (2010). Fixing the communications failure. Nature, 463(7279), 296–297. https://doi.org/10.1038/463296a

  Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and Its Correction: Continued Influence and Successful Debiasing. Psychological Science in the Public Interest, 13(3), 106–131. https://doi.org/10.1177/1529100612451018

  Munro, G. D. (2010). The Scientific Impotence Excuse: Discounting Belief-Threatening Scientific Abstracts. Journal of Applied Social Psychology, 40(3), 579–600. https://doi.org/10.1111/j.1559-1816.2010.00588.x

  Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303–330. When Corrections Fail: The Persistence of Political Misperceptions

  Nyhan, B., & Reifler, J. (2011). Opening the political mind? The effects of self-affirmation and graphical information on factual misperceptions. Unpublished manuscript.

  Nyhan, B., & Reifler, J. (2015). Does correcting myths about the flu vaccine work? An experimental evaluation of the effects of corrective information. Vaccine, 33(3), 459–464. Elsevier: Article Locator

  Nyhan, B., Reifler, J., Richey, S., & Freed, G. L. (2014). Effective Messages in Vaccine Promotion: A Randomized Trial. Pediatrics, 133(4), e835–e842. Effective Messages in Vaccine Promotion: A Randomized Trial

  Nyhan, B., Reifler, J., & Ubel, P. A. (2013). The hazards of correcting myths about health care reform. Medical Care, 51(2), 127–132. https://doi.org/10.1097/MLR.0b013e318279486b

  Schuldt, J. P., Konrath, S. H., & Schwarz, N. (2011). “Global warming” or “climate change”?Whether the planet is warming depends on question wording. Public Opinion Quarterly, 75(1), 115–124. “Global warming” or “climate change”?

  van der Linden, S., Leiserowitz, A., Rosenthal, S., & Maibach, E. (2017). Inoculating the Public against Misinformation about Climate Change. Global Challenges, 1(2), n/a-n/a. Inoculating the Public against Misinformation about Climate Change

扫码加蝌蚪五线谱微信