APP下载

假新闻溯源:事实已不重要

2018-11-29

南方周末 2018-11-29
关键词:假新闻分化群体

在社交媒体上,一种趋势越来越明显:信息是否真实并不重要,重要的是信息与个人对世界的认识是否相符。这种趋势导致了假消息的泛滥。但导致这种现象的深层原因是什么呢?有没有相应的解决办法呢?

沃尔特·夸德罗乔奇

Walter Quattrociocchi

互联网深刻地改变了我们获取知识的方式。直到几年前,报纸和电视谈论的话题还是由编辑和相关领域的专家精心挑选出来的。而在今天,Facebook、Twitter等社交网络的分享模式让用户能够自下而上地产生流行话题。这种对所有话题“一视同仁”的方式带来了巨大变化:时政新闻、自拍视频或者最新的菊苣奶酪菜谱都有可能获得相同的关注度。

筛选、审核信息的中间媒介消失后,我们每个人既是内容的产生者,也是内容的消费者。数据表明,从2017年第三季度开始,Facebook每月的活跃用户超过20亿人。无所不在的Facebook俨然成为了一种全新的媒介,而信息在这个平台上面的传播方式与平台本身的商业模式密切相关。由于社交媒体的巨大规模,我们已经很难忽略它们对当今社会和公众舆论的影响。

全球性威胁

广义上的互联网,和以社交网络为代表的新生事物已经以出人意料的方式,改变了知识的产生过程。上世纪九十年代中后期,法国哲学家皮埃尔·列维(Pierre Levy,他在数字技术对文化的影响这一研究领域有深刻的洞察)和其他评论家预测了集体智慧时代的到来:知识的传播不再受中间媒介和地理条件的限制,社会将因此飞速发展。但是,实际情况却并非如此。

仅在Facebook上,每分钟就会出现300万条新信息。因此,社交媒体迅速成为许多人获取信息的主要来源也就不足为奇了。在美国,超过一半以上的人(51%)通过社交媒体获取新闻。在这种情况下,选择性曝光,即沉溺于自己感兴趣的话题,而且排斥其他不同的观点,在全球对话和公共舆论中的影响力愈加明显。在去中介化和话题平等化的过程中,个体的认知能力和局限变得至关重要。

假新闻,或者说那些在互联网上传播的假消息,正在这些平台上泛滥成灾。早在2013年,世界经济论坛就将病毒般传播的假新闻看作是全球性威胁之一。

我们的一些研究似乎表明,确认偏误(Confirmation bias,无论合乎事实与否,只偏好地获取符合自己认知的信息的倾向)在网络社交活动中占据着重要角色,在Facebook上尤其如此。举例来说,虽然用户几乎可以和任何人交流,也可以获得任何类型的信息和观点,他们还是倾向于建立与自己观点相契合的“回声室”(回声室效应:在媒体上是指在一个相对封闭的环境中,一些意见相近的声音不断重复,并以夸张或其他扭曲形式重复,这样会让处于该环境的大多数人认为,这些扭曲的故事就是事实的全部)。

由于社交媒体的分享属性,在这些“回声室”中,用户倾向于获得和群组观点一致的信息(即便有些明显是虚假信息),或者倾向于忽略那些与自己所在群组观点不一致的信息。总而言之,信息是否真实并不重要,重要的是信息与个人对世界的认知是否相符。在这种情形下,试图通过验证来源、核对事实(fact-checking)以及揭露谎言(debunking)来遏制假新闻传播的努力普遍收效甚微。甚至在某些情况下,这些努力似乎适得其反。

媒体与用户的分化

在专家的帮助下,本文作者的团队筛选了两组表述,一组是科学事实,另一组则是与之相反的虚假表述,并用这些表述进行了一系列实验。筛选相互对立的表述可以帮助我们更好地监测回声室效应,即观点在一个封闭系统中传播然后被强化的现象。

接下来,我们不再事先筛选陈述,并将注意力集中在报纸以及它们在Facebook上的行为。2017年,本文作者的团队在《美国科学院院刊》(PNAS)上发表了一篇论文,分析了新闻机构在社交网络平台发布的新闻推送以及用户如何使用这些推送。这些新闻机构可以在欧洲媒体监测平台(European Media Monitor,欧盟委员会建立的新闻监测机构)发布的新闻机构列表上找到。

上述研究分析了大量数据,包括九百多家新闻机构,以及超过3.76亿用户在6年间(从2010年1月到2015年12月)与两千多万条新闻的互动情况。本文作者借助网络科学和统计学方法,从宏观角度分析了用户与信息的互动模式,尝试找到其中的具体特征。研究结果表明,用户越活跃,他/她关注的新闻机构就越少。这种倾向让媒体分成了不同的类型群体,进而导致用户通常只关注某一类型的新闻机构,并在此基础上形成他们的看法。跟之前的研究一样,分化现象在这里再次出现。也就是说,在网络和社交平台上,分化现象十分普遍。

另一个有趣的现象是媒体的Facebook主页之间的互赞:与用户和媒体的Faceobook主页之间的互动相比,媒体之间的互动显示出了地域因素,它们更倾向于与本地的媒体互动。

英国脱欧

2016年6月26日,英国举行了全民公投决定是否脱欧。这次公投和同年美国总统选举一起,在国际上掀起了一场政治大讨论。本文作者对这次公投进行了研究,并于2017年将研究结果发表在《社交网络》(Social Networks)杂志上。我们研究了超过100万名用户在2016年1月到7月当中,与英国媒体的Facebook主页就英国脱欧话题发布的消息之间的互动情况。具体就是,我们仔细研究了用户对英国81家媒体的Facebook主页发布的30.3万条帖子的点赞和评论行为。

首先,我们分析了用户的活动模式,并研究这些模式能否产生回声室效应和用户分化现象。在这项研究中,虽然我们事先没有对媒体的Facebook主页进行分类,但分析结果清楚地表明,用户自发地形成了两个完全不同的群体,彼此从不互动。

我们在研究中发现,用户分化为两个群体,关注着不同的事物。每个群体的注意力仅限于某些媒体的Facebook主页,非常忠诚。

为了更好地研究不同群体的内部特征,我们使用了一种新方法,首先抓取媒体的Facebook主页帖子中的话题,并将其与用户评论这些话题时表达的情感综合起来分析。由于用户分化为两个群体的现象已经得到了验证,因此我们很容易将特定话题和两个群体对这些话题的看法联系起来。具体来说,我们用这种新方法对话题进行分组,并将特定话题与一个群体以及相应的情感倾向联系起来。比如,支持英国脱欧的用户倾向于否认所有支持欧盟和欧元区的言论。通常而言,一篇情感激昂、支持英国留在欧盟的文章,都会引起脱欧用户的强烈反对。这非常符合“逆火效应”(译者注:逆火效应是指,当一个错误的信息被更正后,如果更正的信息与人们原来的看法相违背,反而会加深人们对错误的信息的信任)。这种分化现象会影响人们对讨论内容的理解,形成两个对立鲜明的阵营。

意大利全民公投

那么,这种分化现象到底只是Facebook特有的现象,还是说在其他社交平台上,比如说Twitter也会出现呢?2016年12月4日,意大利举行了修宪公投。我们对这件事进行了研究,并在公投结果出炉几个月后,在日本东京举办的IEEE数据科学与高级分析国际会议上介绍了研究成果。

沿用分析英国脱欧事件的办法,我们在意大利修宪公投期间,研究了新闻机构在Facebook和Twitter上发布的相关新闻以及用户如何与这些新闻互动。我们收集了这些新闻机构在2016年7月到12月期间发布的所有帖子,以及它们收到的“赞”和部分评价,这些评价至少包含“公投”“改革”和“宪法”中的两个词汇。总的来说,我们一共分析了57个Facebook主页和50个Twitter主页,以及超过11 000个帖子和约75万条评论。

跟英国脱欧公投一样,在研究意大利修宪公投的过程中,我们通过测量用户的互动找到了用户讨论的一些结构特征。通过比较不同监测算法的结果,我们发现分化的用户群体在两个社交平台上都出现了。在Facebook上,用户分化为了5个不同的群体;而在Twitter上,用户分化为4个不同的群体。每个用户都只属于某一个群体,即某一个回声室。这项研究结果的意义在于,它清楚地表明了,即使两个社交网络平台的算法不同,研究涉及的用户也不同,但是Facebook和Twitter都出现了用户分化的现象。此外,通过话题自动提取技术和情感分析技术,我们发现最具争议的话题以及相关的情感表达,还取决于新闻发布机构呈现和讨论这些话题的方式。

分化现象和假新闻

量化分析表明,在信息消费领域,分化现象是社交媒体的特点之一。用户越活跃,就越倾向于只关注某些特定话题。我们还知道,在不同的群体内部,新闻的传播性并不取决于新闻本身的真实性,而取决于新闻与群体世界观的契合度——与群体世界观相悖的信息不仅会被忽视,还有可能会强化群体原来看问题的方式。那么,我们能否利用这些特点追踪假新闻呢?目前,用跨学科的研究方法抵制假新闻仍是科学界的一大难题。人们对假新闻的讨论已经很多了,但却忽视了假新闻现象的本质。今天,许多人开始提用机器学习技术设计算法,用于评估新闻的真实性。但是,这样做面临着技术和道德上的限制,也根本没有抓住问题的本质。

我们认识到,假新闻在社交媒体上的传播与用户分化现象有直接关系联系。既然分化现象(确认偏误的结果)在社交媒体上有如此大的影响力,那么我们是否可以用它来辨别那些更有可能成为假新闻的话题呢?在最近发表的“分化现象和假新闻”的研究中,我们提出了一个通用方法,能够及时发现社交媒体上分化用户的话题,进而预测将来可能出现的假新闻。

为了验证这一方法的有效性,我们在Facebook上收集了大量数据,包括官方报纸发布的三十多万条新闻以及一些网站发布的五万余篇虚假的或真实性未知的帖子,并能够辨别出那些分化用户的话题。我们发现,导致公众观点分化的话题和最常见的假新闻的主题之间有很强的关联。具体来说,我们一方面自动抓取社交媒体上新闻和评论中出现的话题,另一方面通过用户的参与度和他们在评论中表达出的情感倾向测量用户的分化程度。用这样的方法,我们能够预测哪些话题有可能成为假新闻,而且准确率高达91%。举例来说,如果我们发现移民这个话题能够让用户分化,那么十有八九它也会成为假新闻的话题。

如何应对假新闻

社交网络改变了人们获取信息的方式,正是在这种新模式下,假新闻层出不穷。信息量过大,加工时间短,再加上人们认知的固有缺陷,网络信息鱼龙混杂的乱象已经司空见惯。我们倾向于关注那些最能说服我们以及符合我们的世界观的信息(同时忽略掉有着相反观点的信息),阅读这些信息并把它们分享给线上好友。确认偏误导致了回声室的产生,将有着相同的观点的用户聚集在一起,从而进一步强化了用户分化。假新闻其实只是冰山一角,这一现象还有着更深层的原因。

因此,当《牛津字典》宣布将“后真相”(post-truth)作为2016年的年度词汇时,这绝非巧合。“后真相”意指在一些特定状况下,客观事实对公共舆论的影响没有感性诉求和个人信念的影响大。这看起来像是我们在2016年才发现人类是不理性的,但其实早在2002年,丹尼尔·卡内曼(Daniel Kahneman)就因强调非理性因素对经济决策的重要影响而获得当年的诺贝尔经济学奖。

“后真相”这个词流行开来,并被广泛用于谈论英国脱欧和特朗普当选美国总统。“后真相”仿佛成为了公共舆论的口头禅。公众对假新闻和人们的不理性感到愤怒,仿佛不理性只是属于少数人的,而非普遍存在。同时,社交媒体仿佛助长了这种更加情绪化而非理性的思考方式。我们认为,假新闻并不是真正的问题所在,急于解决假新闻可能只会适得其反。有人提出,可以利用算法或程序分析文本内容和它的来源,从而判断某个信息的真实性。但在科学领域,真相是一个不断变化并完善的概念。在这样的情况下,寄希望于一个简单的程序来判断新闻的真假可以说是非常天真的想法了。相反,我们应该恢复信息的正常流通,促进不同观点之间的相互交流,消除故步自封、一味鼓吹自己的观点以及贬低与自己观点不同的声音。

在威尼斯大学,我们在跨学科合作的基础上,分析当今社会存在的问题,并尝试应对正在发生的社会变革。我们建立了Pandoor平台,用于长期监测社交媒体动态。为了解决用户分化现象,我们提供了一些计算工具,旨在了解个人用户和用户群体的信息需求。在考虑用户需求和喜好的前提下,再弄清信息的传播模式,进而减少用户分化现象。我们的项目有很多的合作者参与,而且合作者也在不断增加。同时,我们与意大利通讯权威组织合作,以保证在符合监管的前提下合法获取相关信息。此外,我们还与伦敦政治经济学院建立了合作关系,着力研究在移民问题上促进众多不同观点折中、融合的因素。

我们还发现,要提高信息传播的有效性,缓和沟通态度似乎是最高效的办法。我们的工作重点是通过量化用户评论来评估新闻出版物的报道方式对用户分化程度的影响。我们也在量化不同的沟通方式对一些特定话题的影响力,比如疫苗、健康、食物和地缘政治等话题——它们全然没有定论,并能让人产生危机感。

我们这样做的目的,是为了寻找新的讲述方式,创造新的沟通工具,化解敌视和怀疑情绪。为了达到这一目标,我们必须以人为本——注重个人情感和认知。要消除分化现象,我们首先必须接受人类自身的局限性和非理性特点,然后才可能真正有效沟通。要做到这一点,我们必须学会聆听,至少尝试去聆听。

(Scientific American中文版《环球科学》授权南方周末发表,梁爽翻译,本文有删节)

猜你喜欢

假新闻分化群体
两次中美货币政策分化的比较及启示
4 smart ways to spot fake news 判断假新闻的4种聪明方法
能分辨假新闻?多数人高估自己
达到群体免疫,没那么容易
“小团体主义”帽子不要随便扣
调查
中间群体
意大利教高中生识别假新闻
《诗经·大车》正音与谈部中古分化探