APP下载

“脸书”新闻信息治理经验对全球网络信息治理的启示

2021-12-02李佳文

百色学院学报 2021年4期
关键词:假新闻网络平台脸书

李佳文

(广州大学,广东广州 510006)

随着网络信息时代的到来,网络平台已成为大众主要的信息获取渠道,其算法推荐技术以其精准投放、高效推荐、个性化定制等优势,在信息传播领域得到广泛应用。然而,世界各地的假新闻事件引发了大众对新闻推送算法的忧虑和质疑。例如在2016 年,国际社交网络平台“脸书”被指责在平台上营造了时任美国共和党总统候选人特朗普支持率更高的假象,以引导选民投票。尽管“脸书”否认其平台上的假新闻影响了选民的判断,但不可否认的是网络平台已经成为虚假信息、网络谣言的温床,对社会稳定和公共利益造成了极大影响,“脸书”上关于选举的假新闻影响力远大于其他主流媒体的相关新闻。[1]为此,“脸书”采取了一系列的新闻信息治理措施和应对方案。

世界各国的网络平台同样面临诸多新闻信息治理难题,各国纷纷制定政策措施。如中国制定的《法治社会建设实施纲要(2020—2025 年)》中提出了“推进社会治理法治化、依法治理网络空间”的目标,要求完善网络信息服务方面法律法规,制定完善对于算法推荐、深度伪造等新技术应用的规范管理办法。[2]在此背景下,本文以探讨“脸书”的新闻信息治理经验对全球加强网络信息治理的启示。

一、网络信息治理面临的挑战

(一)“无价值性”推荐算法降低网络信息的可信度

随着大数据和人工智能的发展,海量的信息时刻都在网络世界中传播,人们要想精准地获取感兴趣的信息,就离不开“算法”。中国互联网络信息中心2017 年1 月发布的《2016 年中国互联网新闻市场研究报告》指出,中国网络信息的主要分发方式已经从“编辑分发”逐渐倾向于“算法分发”,改变了传统信息的传播方式。[3]传统的“编辑分发”过程分为“客观现实、记者/编辑、表征现实”三步。[4](P120)其中的“记者/编辑”便起到了把关人的作用,其通过自身的专业技能和操守对信息进行价值判断,对即将发布的信息内容进行核查,旨在为公众提供客观、准确、全面的信息。但传统的记者或编辑已经无法应对和处理海量的网络信息数据,因此“算法分发”逐渐占领了网络传媒世界的版图,各网络平台均引入了机器推荐算法的分发系统。各种算法通过收集平台用户数据以预测用户的喜好,并据此进行信息的分发推荐,同时用户的反馈可对下一次的推荐提供参考。[5](P50)简单来说,推荐算法既能满足迅速处理网络信息数据的需求,又能“讨好”用户,针对用户的喜好进行个性化精准投放。

在传统的“编辑分发”模式下,信息往往由独立的媒体发布,追求正确性、中立性和客观性。而与之相反的是在网络平台中,信息发布门槛低,新闻信息的质量良莠不齐。用户的个体偏好决定了平台向其推送何种类型的信息,这便是推荐算法的无价值性。[6]同时,为了达到信息流通的高效便捷,这样的分发系统多数缺乏“记者/编辑”的核查这一步,原因在于网络平台自身并不生产信息,在平台上流通的信息皆由第三方制作,且平台自身并不也不可能做到对推送信息的阅读和审查。因此,信息的客观性和真实性无法保障,用户无法区分平台推送的信息是否可信。根据《2018 年全球假新闻报告》显示,63%的用户认为自己可以区分假新闻,只有41%的受访者认为其他普通人可以区分假新闻。[7]此外,囿于算法推荐在价值理性上的缺陷,现有的算法无法过滤信息数据中隐藏的价值偏向,“无价值”的算法对信息流的归纳、同构可能会放大用户的某些偏见,甚至导致群体极化的效应。在个性化精准推送的信息影响下,网络社会迎来了“后真相时代”(The Post-truth Era),即相比真相,人们更偏向于相信自己本身所相信的。[8]在后真相时代,公众意识到网络信息的可信度已经大大降低,而个人又难以分辨信息的真假,这就会形成对任何网络信息的不信任。

(二)市场主体的商业逐利性引发假信息泛滥问题

网络信息治理的难题不能简单直接地归咎于算法本身。事实上,假信息并非网络网时代才有的产物。从传播学角度上看,网络平台的商业逻辑恰好迎合了假信息的传播逻辑。[9]平台的商业逻辑在于其依靠广告的点击量来实现流量的商业变现,所以平台更重视有流量潜力的信息。而平台的推荐算法又具有天然的逐热性,平台会向用户推荐热度更高的信息,热度的参考指标在于点击量、点击率、转发数、评论数、点赞数等。因此,网络平台为了追逐经济利益,而将推送标准放在了吸引用户的流量上,甚至直接忽视信息的真实性。受假信息传播带来的低成本、高回报的经济利益诱使,一些无良媒体截取某些信息的片段来制造噱头误导用户点击,更有甚者恶意制作、发布、传播各类假信息,并进而实施诈骗等其他犯罪活动。由于大部分网络用户形成了碎片化阅读的习惯,在碎片化的时间内,普通公众更倾向于点击浏览具吸睛效果的信息内容,这就滋长了文不对题的“标题党”、煽动性“营销号”式假信息的泛滥。

在网络平台逐利之下,热度越高的信息被推荐的次数就越多,同类信息在推送的过程中不断被固定化。用户接受的同质化信息越来越多,并被动地接受了平台及市场资本的反向规训,缺失对信息的反思意识,逐渐失去对信息源和信息内容可信度的判断能力。多数用户在平台社交互动中持“宁可信其有”与“独乐乐不如众乐乐”的态度,积极向他人分享不可靠的信息,一定程度上推动了假信息的传播。加上多数假信息更能够煽动公众的情绪,比真实信息更有吸引力,其热度就更高,而此类信息就会在平台中推荐更多,如此反复便形成了假信息的病毒式传播。然而,仅凭用户个体是无法识别假信息的,而平台具有天然的自利性,这些社交平台常常以自身并非媒体为借口,标榜自己的“平台”身份,主张自己无须负有信息内容监管的责任,不愿承担网络信息治理成本,甚至为了追求商业利益时有忽视乃至放任假信息的传播。

(三)立法的滞后性带来网络信息治理缺陷

从人类社会的发展上看,法律的制定与实施往往滞后于新技术的超前发展。比如,中国已出台了较多关于网络信息方面的法律法规,包括《网络安全法》《互联网新闻信息服务管理规定》《网络信息内容生态治理规定》《关于严防虚假新闻报道的若干规定》《微博客信息服务管理规定》《互联网用户公众账号信息服务管理规定》《网络音视频信息服务管理规定》等。值得注意的是,中国对于网络信息治理的重点更多放在“有害信息”的防控和治理上,而相对忽视了大范围的虚假信息,信息真实性通常只是作为互联网的一种自律规则。[10]例如,中国《互联网信息服务管理办法》第15 条规定了互联网信息服务提供者不得制作、复制、发布、传播的九大项内容,包括涉及国家安全、淫秽色情、暴力恐怖的信息,这些都是会产生社会危害后果的信息。而那些非有害的或是看似不会产生严重后果的假信息,中国相关法律法规在一定程度上有所忽视。

同时,各国网络信息治理法律法规的实施效果有待提高。一是部分法律法规立法层级较低,缺乏权威性以及必要的约束机制,在实践中可操作性较弱;二是未形成完整的规范体系,碎片化的立法时常造成规范内容上的遗漏或冲突;三是较注重法律和政策的制定和实施,未及时关注治理事项动态演进,不能及时做出反馈与调适,无法有效应对大数据时代的网络技术更新和自媒体的快速发展[11];四是治理责任主体未得到真正落实,如在网络平台相关责任不明晰的情况下,网络平台往往消极应对网络信息治理。总而言之,立法的滞后使网络信息市场得不到有序治理,互联网信息传播长期处于一种重效率、轻管理的无序状态。如果法律法规无法满足算法时代下网络信息治理需求,就将成为网络信息治理的瓶颈。

二、“脸书”的新闻信息治理经验

“脸书”(Facebook)创立于2004 年2 月4 日,总部位于美国加利福尼亚州门洛帕克。作为拥有30 多亿用户的全球最大社交网络平台,“脸书”已经成为网络用户获取信息的重要的新闻来源。然而随着网络自媒体的发展,这个人气平台日渐成为虚假信息和有害信息的集散地。“脸书”上泛滥的假新闻信息带来了大量的社会危害后果,“脸书”一度沦为众矢之的。对此,“脸书”出台了一系列的新闻信息治理政策且卓有成效。

(一)积极打击假新闻

“脸书”通过其动态新闻算法系统将新闻信息以信息流的形式推送给用户,也偏向于通过技术手段对平台上的新闻信息进行治理。“脸书”对用户在平台上举报假新闻的流程进行简化,用户只需进行简单的几个步骤就能对假新闻进行举报,并有专业人员对用户举报进行核查、评定和处理。待处理完毕后,“脸书”还会将处理结果反馈至用户,提升用户的参与度,同时将该处理事件录入到平台算法的数据库中以优化算法。因此,用户的举报有利于平台及时高效地发现和处理假新闻,且无须花费高成本去筛查新闻信息。然而,并不是所有的网络用户都是理性的,他们的分享行为有时会助推假新闻的传播。为此,“脸书”通过调整其新闻算法鼓励用户进行更理性的分享,即将用户的分享行为分为“直接分享”和“点开内容后分享”,显然“直接分享”更不利于真实信息的传播,“脸书”便在新闻推送算法中减少“直接分享”信息出现的频率。“脸书”也十分关注获得分享信息的用户参与度,参与度较高的信息在排序中获得优先权。[12]此外,在“脸书”的推荐算法权重中,被观看3 秒的视频信息只占0.25 的权重,而被播放60 秒的视频则有13 的权重。[13]若是某个信息得到了负面的反馈,如取消关注、隐藏、屏蔽等,其算法权重将降至-100。这反映出“脸书”十分重视用户的反馈在信息传播中的作用。

“脸书”善于运用其系统中的标记功能提醒用户,一方面对虚假新闻或有争议的内容进行标记,另一方面推出“新闻标签”功能,使来源可靠的新闻在信息流中处于更高的位置。在操作中,技术无法精准识别、处理带有真相或带有煽动意味的复杂信息,因此“脸书”在甄别事实上十分依赖编辑和审核的人工工作。“脸书”的事实核查(Fact-Checking)机制将用户举报数量过多的新闻信息交予第三方机构的记者进行判断,倘若这则新闻信息被判断为假新闻,“脸书”就会将该信息内容标记为“存在争议”或直接进行删除处理。倘若通过分析新闻信息的标题和内容,发现存在文不对题、要求用户点赞分享或过度营销的内容,则通过标记在动态新闻信息流上降低其曝光率,这样可将该假新闻的阅读量减少至80%。[14]这种事实核查机制还在信息页面上向用户提示该信息存在失实的可能,附带相关链接进行解释,同时减少该内容的分发量,从算法技术上避免向用户推送有误导性的内容。

(二)新闻信息推送算法内嵌价值导向

“脸书”新闻信息推送的动态算法是基于用户社交互动反馈的协同过滤机制,并内嵌了一套推送价值观,旨在向用户提供“有意义”的新闻信息。[15]这种“有意义”的推送包含以下几个导向原则:

其一,亲友社交优先原则,即通过分析用户日常与亲友的互动,获得信息发布者与用户的社交亲密度,使用户能获取除了热门信息外与自己更相关的信息,以保障新闻信息与用户的相关性与适用性,这是“脸书”新闻推送的核心和首要内容。“脸书”致力于优先推荐能够引起用户社交对话的内容,以满足公众在网络上的社交互动需求,帮助用户获得更有意义的社交活动。

其二,多元信息原则,即在信息流中尽可能向用户提供不同类型化的信息,而非特定的新闻源或观点。“脸书”认识到完全依靠个性化算法推荐来决定用户应该看到什么样的内容的弊端,丰富多元的信息接收有利于使用户更加理性地判断事件事实,避免“信息茧房”“用户群极化”带来的不良影响。

其三,强自主性原则,“脸书”将自动化的算法推荐调整为半自动化的模式,为用户的自主选择权做出一定的让步。用户可以通过“查看更多”“置顶”“不感兴趣”等反馈操作对页面上的新闻信息进行排序,实现“个性化报纸”的自定义设置。

其四,可信言论原则,“脸书”致力于向用户推荐可信度较高的新闻信息,尽量避免向用户推送不客观的新闻信息,以免带来误读或偏见。“脸书”与多家权威新闻机构合作,推出“新闻标签”功能,确保重要新闻的曝光率,以保证用户能够及时阅读到可靠来源、高质量内容的新闻信息。同时,“脸书”将新闻推荐的权重放在实况视频信息、当地信息上,以提高用户与真实新闻信息的连接性。如在新冠肺炎病毒疫情防控中,“脸书”在平台信息流中置顶了来自国家卫生部门和世界卫生组织等机构的实时更新新闻信息,并为这些权威机构提供免费的广告位发布针对新冠病毒的相关科普信息,以保障用户能够获得准确可靠的疫情新闻。[16]

其五,不断更新原则,即在平台运行的过程中不断更新新闻推荐的动态算法,以改善平台信息生态。“脸书”在近年来不断推出各种治理新闻信息的举措,根据实际的运行效果进行调适和改进,集合实用的技术和经验,以改善平台信息生态,产生良好的用户体验。例如,“脸书”针对新冠病毒疫情信息的特殊情况做出相应调整,采取了与以往不同的更严格的假新闻治理策略,对制造恐慌的信息采用了及时高效的临时禁止措施。

三、优化全球网络信息治理体系的建议

网络平台是基于技术的产物,而网络信息治理也需要依赖于技术,是通过技术的约束与规范。[17](P69)网络信息治理问题的复杂性就在于,这是基于网络技术的发展而产生的社会问题。基于新技术所产生的社会问题,最终还需依靠技术的进步发展来解决,技术作为一种工具可以说是网络信息治理措施的载体和手段。[17](P74)如今,各国政府意识到假信息的治理难度以及自身在使用技术时需要承担更多的社会责任与义务。然而,目前的算法技术难以毕其功于一役。公众对推送算法的质疑使人们认识到,仅依靠技术进行治理是行不通的,必须进一步健全和完善相应的法律法规,不断优化网络信息治理体系。

“脸书”的新闻信息治理经验对各国优化网络信息治理有着极大的借鉴意义。从“脸书”的治理内容中得出可供各国借鉴的经验:(1)简化假新闻的申诉流程;(2)鼓励用户进行更理性的分享;(3)利用事实核查机制增强对新闻信息的审查和过滤;(4)通过标签功能对新闻信息进行分类;(5)构建多元价值导向的新闻推荐机制,并尊重用户的自由选择权。各国应立足国情,发展高水平网络信息治理体系。

(一)明确网络平台的预先防范义务及责任

网络平台是网络信息治理的重要主体,应在网络信息治理中承担更多的社会责任。网络平台的预先防范是信息传播中预设的一种准则,包括平台对信息的预先识别、判断和过滤等。如用户在平台发布一则信息时,内容中不得包括一些事先设定好的敏感词汇,否则这则信息将无法正常发出。值得注意的是,网络短视频不同于传统的互联网信息,其承载的信息内容无法像文字那样直接明了,而用户浏览后更易加深印象,这种负面效应极不利于对虚假信息的治理。因此,像抖音、快手这类的短视频平台以及微博、微信这类流量巨大的社交媒体平台,应有“脸书”那样的社会责任感,在网络信息治理中承担更多的责任和义务。

在网络平台应承担更多的责任和义务的需求下,应加快构建和完善网络民间法。网络民间法是指在国家立法体系外,由各网络平台或行业协会自我构建的系统内部治理规则体系,也就是俗称的“网规”。[18]其通常体现为平台或行业的自律规则、平台与用户达成的协议、平台服务规则及行业标准、,主要包含以下内容:一是对违规信息的判定标准;二是对新闻信息的管理和处置。由网络平台或行业协会制定的新闻信息治理规范有着更强的专业性,其优势在于其能更有针对性地明确平台的治理义务与责任,制定程序灵活而不繁冗,通过社会主体的自觉遵守与履行来维护社会秩序,成本最低效率最高。[19]针对不同类型的网络平台,不同的平台规则可以设定相应不同的平台义务与责任,充分发挥平台的自治性。

(二)建立政府引导下的协同治理机制

当前各国网络平台的自我规制尚处于探索阶段,存在自利性较强、公信不足、消极管理、私人腐败等失控缺陷[20]。网络平台规则的制定不能完全依赖于民间力量,还需通过政府的引导来进一步完善。首先,政府应引导平台贯彻落实“共建共治共享”的信息发展理念,以公共利益为重要价值导向。其次,政府可以鼓励网络平台在制定信息治理规则时积极听取用户的意见,以保证其制定过程中的民主性;也可以向平台提供政府工作人员、专家学者的专业意见。在平台规则运行过程中,政府还应起到监督的作用,当平台规则与国家法律法规相抵触、违反公序良俗、具有负面价值偏好等不良倾向时,政府应及时进行干预和矫正。同时,政府在引导平台进行自我治理时也不能对平台过度干预,避免造成平台规则的过度僵硬。

当然,对于网络信息的治理,仅依赖于平台自治是远远不够的,还需要政府、平台与相关媒体的协同治理。对于一些热门事件以及突发状况,普通民众自然迫切希望能够了解事件真相,若一味地采取删除、屏蔽相关信息的措施,在公众眼中反倒有种“欲盖弥彰”的意味,可能会造成谣言更多的危害后果。在这种情况下,向公众及时提供真实、准确的官方权威信息至关重要。如近年来,中国大力加强信息公开。“2020 年全球信任度晴雨表”显示,中国公众对媒体的信任度位于世界第一。[21]为此,各国在网络信息治理中更应注重运用民众对媒体的信任,引导官方媒体、主流媒体与网络平台进行合作,逐步构建专业化的新闻事实核查机制,提高网络信息治理的权威性和公信力。同时,网络平台也应积极追踪重点或官方网站(如气象局、交通局以及政府信息平台等)的发布情况,以及时向用户提供权威信息。政府还可以与各网络平台通力合作,在网络平台上发布简洁明了的可视化情况通报,以向平台用户提供可信信息。

(三)完善对信息推送的技术性规制

基于网络平台的去中心化、裂变式的信息传播方式,必须采用技术手段应对自动批量化传播的虚假信息。此举虽不能完全消除网络平台上的假信息,但至少可以有效抑制其扩散。参考“脸书”的新闻信息治理政策,各国网络平台在信息推送算法中可以从技术层面嵌入正向价值观,以纠正并克服算法推送技术“无价值性”,以构建适合各国网络生态的动态信息推荐机制。这种信息推送技术性规制实际上承载着平台植入的推荐算法的基本运行规则。[17](P74)这种技术治理带来的影响不容小觑,普通的网络用户能够轻而易举的感知到它的规制结果。但这种技术性规制在使用过程中也极易错误地过滤掉某些良性的信息,如过于简单粗略的关键词过滤技术就因经常性的误伤而被用户诟病,故网络平台在构建这样的推荐机制时需要审慎地考量多方面因素。

信息推荐机制应能向用户提供多维度的信息。一方面应尊重用户的自主权,保障其能够在系统中能有自由决定是否接受算法智能推荐的权利,并以用户的社交关系为先向用户推送其关心的信息内容;另一方面,除了针对用户个性化内容的推荐外,还应在平台信息流中推送有其他与用户喜好并无关联性的内容,以保障用户能够接收到多元化的信息。[22]通过技术手段将信息进行标签化,运用算法评价机制对信息进行权重排名,参考用户的浏览及分享表现,优先向用户推送有正面反馈的优质内容,减少对具有负面反馈的信息的推荐。网络平台应结合具体的实践,对相关算法进行不断测试、修正和更新,与时俱进地强化相关的技术标准,以保障算法推送技术的良性可持续发展。例如,利用技术手段不断优化平台的假信息投诉机制,使用户能够方便快捷地参与到信息治理过程。在应对突发事件时,采用另一套更严格的技术对信息进行应急规制。

(四)建立人工把控+用户监督的治理模式

为解决平台算法推荐在信息分发中产生的问题,除了不断完善信息推送的技术性规制之外,还需提高平台甄别信息真伪的能力。实践证明,在信息传播过程中,平台的算法技术无法胜任“记者/编辑”的把关人角色,将新闻把关机制重回到人工把控模式势在必行。[4](P122)当然这里的“人工把控”并非回到传统纸媒时代人工模式,而是通过构建“算法推送与人工把控相结合”的治理模式,有效地阻止不恰当的信息传播。信息选择是信息生产的重要一环,平台应重新定位信息传播中“人工”所起到的作用,将算法选择与人工选择结合起来,既发挥算法的技术优势,又能发挥人工编辑的价值纠偏,在实现人机互补的基础上更好地净化网络信息生态。[23]在信息管理中,除了上述在用户举报相关信息后进行的事实核查机制外,对于热门信息的人工把控亦十分重要。用户在获取信息时十分依赖平台的热搜榜,这也更容易引发假信息的迅速传播。因此平台在对信息流的热度排名中不能唯流量论,应坚持热门信息筛查机制,由相应的审核成员实时监管,对于有争议的信息及时进行人工审核,并相应采取降低推送热度,附链接说明、拦截或屏蔽等的措施。

用户既是信息的被影响者和传播者,又应是信息治理的积极参与者。平台可以定期组织特定的用户参与假信息的识别和监测,譬如中国在治理微博庸俗低俗信息中采用了监督员机制,募集用户担任举报和监督信息的任务,在2020 年中有效地处置相关有害信息7381 万条,其中不实信息也逐渐纳入到监督举报的信息类型内。[24]而针对专业领域的信息,平台可以召集有专业知识与背景的用户进行监督。在动植物保护和科普、医疗健康等领域,“伪科普”“伪科学”“伪养生学”等的虚假信息十分泛滥。普通的用户对于这些信息的辨识能力较低,例如在2021 年2 月24 日,中国网络上一则题为“毒蘑菇克星有了!我国完成首批快速检测毒性试剂盒产品”[25]的信息在微博经“都市快报”媒体简要转载后,内容增加了“妈妈再也不用担心我吃到毒蘑菇了”等误导性信息,阅读这篇快讯的网友误以为该试剂可用于并积极转发分享。所幸的是菌类科普用户“赶尾人”及时在评论区附上了信息源链接,并提示其他用户此试剂仅供科研,并不能用来识别所有的毒蘑菇。类似的事件在各社交平台上层出不穷,治理这一类假信息需要依赖更专业的知识背景。若能调动具有专业知识背景的用户在信息传播中的影响力,则更能有效地防止假信息的传播。

猜你喜欢

假新闻网络平台脸书
网络平台支持下初中语文翻转课堂教学研究
4 smart ways to spot fake news 判断假新闻的4种聪明方法
能分辨假新闻?多数人高估自己
神奇的机器翻译系统
神奇的机器翻译系统
网络平台犯罪及其治理对策
网络平台补短板 办学质量稳提升
意大利教高中生识别假新闻
网络平台打开代表履职新视窗