APP下载

计算宣传:人工智能时代的公共舆论新形态

2020-11-02罗昕

人民论坛·学术前沿 2020年15期

罗昕

【摘要】计算宣传是当前一种最新的、普遍的、全球性的宣传形式,是社交媒体平台、自动化机器人和大数据算法的集合体,旨在有组织地操纵公共舆论。计算宣传带来潜在的影响,通过伪造信息或活动“制造同意”,产生“虚假民主”;通过“两极分化”扰乱公共领域,撕裂社会共识;通过“武器化”的意识形态宣传改变全球地缘政治格局。计算宣传的治理,关乎世界信息传播新秩序的推进,需要多行为体的协同参与,以共建全球网络空间命运共同体。

【关键词】计算宣传  公共舆论  社交机器人  制造同意

【中图分类号】G206                           【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2020.15.003

计算宣传是一种最新的、普遍的、全球性的宣传形式,在很多国家得到了广泛的应用。我们将生活在一个有真正影响的人造扬声器的世界。计算宣传的政治行动者包括政党、政治候选人、战略传播公司,甚至国家力量。这些强大的行动者常与在思想上支持他们事业的私营企业、民间社会组织、互联网亚文化、青年团体、黑客团体、边缘运动、社交媒体影响者和志愿者进行协调合作。计算宣传可以使强势行动者将公共话语框架置于有利于自身的显著地位上,而那些没有财政资源和人工智能机器人知识的弱势行动者并不能轻易地影响政治话语。计算宣传在政策辩论、政治选举、国家安全和政治危机中占有重要地位。计算宣传日益与后真相政治交织在一起。在后真相政治时代,由于客观事实在塑造舆论方面的影响力不如诉诸情感和个人信仰,计算宣传可能会变得更加重要。

计算宣传的概念

宣传是一种传播和说服某种信仰或价值观的艺术。宣传有几种类型:白色宣传是指公开表明信息来源的宣传;灰色宣传是指不说明信息来源的宣传;黑色宣传是指隐蔽真实信息来源的宣传。宣传媒介的历史在某种程度上总是与空间和时间有关。从早期的传单、小册子到大众传播时代的报刊、广播、影视,再到互联网时代的网站、社交媒体,直至人工智能时代的算法媒体、社交机器人。宣传方式从人工日益转向自动化、智能化,从公开可见性日益转向隐形不可见性。传统上把宣传理解为“通过操纵重要符号来管理集体态度”的思想仍然存在,但这种操纵随着人工智能的到来而发生了变化。“互联网通过操纵算法管理在线信息以及通过大数据分析确定目标受众,为有效传播宣传提供了新的条件。宣传性质不断变化带来的社会影响才刚刚开始被理解,而互联网时代所带来的社会和技术的空前结合,使这种理解的进展变得复杂。”[1]由此,宣传最初被用来中立地描述信息传播,而在人工智能时代它越来越多地被认为是贬义的,与操纵公共舆论有关。计算宣传也越来越成为不同政治行动者有目的地操纵公共舆论的重要策略。

计算宣传的经典定义可解释为“社交媒体平台、自动化代理人和大数据的集合体,旨在有组织地操纵公共舆论”[2]。计算宣传既是社会现象,也是技术现象。计算是技术手段,宣传是操纵目的,计算宣传是手段和目的的统一体,缺一不可。有计算无宣传或者说有宣传无计算,都不是完整意义上的计算宣传。

从技术层面讲,计算宣传是人工智能、大数据算法、社交机器人等技术的集合。新兴的人工智能技术将从根本上增强计算宣传的能力。人工智能聊天机器人、人工智能合成图像语音、自动化音视频操作工具、深度伪造技术、机器深度学习、大数据可视化内容生成、情感计算工具、心理测量分析等技术,将使广泛、高效、精准、自主的计算宣传成为可能。大数据算法在产生和管理我们的传播和共享文化方面起着至关重要的作用,不仅在决定我们应该看什么,还影响着我们应该想什么。社交媒体平台的可供性(affordance)使它们成为传播计算宣传的强大基础设施。机器人是计算宣传不可或缺的自动化程序,是一种用于执行简单、重复任务的软件。部署在社交媒体上的机器人(简称“社交机器人”)是一种计算机算法,能自动生成内容并在社交媒体上与人类互动,试图模仿并可能改变人类的行为。当社交机器人被用于政治操纵时就成为了政治机器人。政治机器人作为非人类行动者,充当了政治行动者扩音器或代理人的角色,在政治对话中有着微小但战略性的作用。目前政治机器人有三种[3]:(1)宣传机器人:试图通过大量传播真实、半真半假和彻头彻尾虚假的信息来说服和影响;(2)跟随者机器人:假装某个想法或人物获得广泛的共识而成为趋势话题或明星人物;(3)路障机器人:通过转移视线或话题来破坏正在自然进行的对话。

从社会层面讲,计算宣传源自宣传的定义——有意操纵符号,诉诸情感和偏见并绕开理性思维以实现其创建者的特定目标。计算宣传的操纵策略包括:(1)战略部署政治机器人,在社交媒体上攻击外国或政治对手,以遣散政治对手的追随者使竞争对手去动员化,淹没政治对手的议题/议程设置;(2)发布亲政府或政党或候选人的信息,夸大社交媒体追随者名单,从多个机器人驱动的帐户发出大量推文“炸弹”,帮助产生虚假的受欢迎感或政治共识;(3)混合使用算法分发、政治机器人、网络钓鱼和政治行动者一起工作。具体来说,政治机器人通过社交媒体来产生虚假信息、玩弄标签、制造趋势、放大特定内容,并同时启动“伪草根运动”(Astroturfing)。这种优越但阴险的计算宣传混合手段通常掌握在有权势且资源充足的政治行动者手中。[4]这些所谓的“半机器人”被部署起来以帮助躲避检测,并使交互感觉更真实。

计算宣传的兴起

在2016年美国总统竞选期间,机器人流量占所有在线流量的60%以上,比两年前增加了近20%;[5]约有20%的机器人在Twitter上产生了约20%的政治辩论;[6]在选举日,支持特朗普的社交机器人份额以5:1的比例超过希拉里,其中前100名的自动账户每天发布大约500条推特,占所有与总统选举有关推特流量的近18%;[7]在特朗普和希拉里的个人账户上运行机器人检测软件时,分别检测到约59%和50%的追随者是机器人。[8]Twitter和Facebook上高度自动化账户和虚假账户的大型网络宣传了对希拉里腐败的指控,并推动了诸如她与恋童癖或联邦调查局特工神秘死亡之类事件有关的大量垃圾新聞报道。[9]在有关中美贸易谈判议题讨论中也发现了计算宣传,社交机器人占比13%,发布内容占比接近20%;从话题倾向性上看,社交机器人中反对贸易谈判的占了多数(55%),大部分内容跟美国农民有关。[10]

在2016年英国脱欧公投中,社交机器人被积极利用以支持英国应该离开欧盟的观点。政治机器人在此次公民投票对话中有一个很小但是有战略性的角色:与离开欧盟论点相关的标签家族占主导地位,对这一问题的不同观点利用了不同层次的自动化,少于1%的抽样帐户生成几乎三分之一的消息;[11]在2016年6月,77,000名机器人“签署”了第二次英国退欧公投的网上请愿书;[12]有13,493个Twitter机器人组成了支持脱离欧盟的网络运动。[13]

机器人推动了法国“马克龙泄密”的虚假信息运动,“与马克龙泄密有关的用户大多是对右翼话题和另类媒体有预先兴趣的外国用户,而不是具有不同的政治观点的法国用户。反常的账户使用模式表明可能存在一个可重复使用的政治虚假信息机器人的黑市”。[14]在德国2017年竞选活动中,2月到9月之间的“高度自动化”推特从5.7%增至7.4%[15];机器人的比例从以前的7.1%上升到了9.9%。[16]

在恐怖主义宣传活动中发现了大量机器人的存在。从2012年到2016年,伊斯兰国(ISIS)建立了一个虚拟的在线哈里发。他们把视频传到了YouTube,然后交叉发布到Facebook和Twitter进行传播。他们创建了数千个Twitter账户,包括人类粉丝和机器人,利用这个平台一对一招募同情者,制造关于恐怖袭击的流行标签和幸灾乐祸的舆论情绪。反恐组织幽灵安全集团(Ghost Security Group)过去曾指出,ISIS利用几乎所有可以想象的社交应用来交流和分享其宣传,包括像脸谱和推特这样的支柱平台,加密聊天应用程序。ISIS正在通过计算传播以达到最大范围的有效传播。当研究人员于2014年12月在Twitter上进行活动普查时,ISIS似乎是在46,000至70,000个Twitter账户之间运行。[17]

值得关注的是,“没有任何学术研究发现在中国使用机器人和算法进行计算宣传的证据”。[18]牛津大学互联网研究所的计算宣传研究项目经过实证研究发现,中国并没有发现计算宣传现象。该项目研究人员基于中国新浪微博上有关官方政治信息帖子的150万条评论以及在Twitter上使用与中国和中国政治相关的标签的110万条帖子的分析,发现在国内外社交媒体平台上,几乎没有发现中国利用自动化宣传来影响话语流的证据,中国没有将自动化作为其国内或国际宣传战略努力的一部分。相比之下,更令人惊讶的是,在关于中国和中国政治的Twitter标签上,发现了大量的反华自动化宣传。这些话题标签中几乎30%的内容是由机器人发布,以简体中文出版,专门针对散居海外的华人、出国留学生或从中国大陆翻墙使用Twitter的人。研究者认为中国没有发动计算宣传,可能有几个原因:中国国际宣传工作长期以来一直由官方主流媒体主导,将机器人和自动化宣传纳入这一国际宣传战略需要新的技术能力,而这些技术能力不属于这些传统媒体提供者的范畴;这些传播反华观点的机器人和自动化宣传实际上收效甚微;与中国的软实力和外交政策有关。[19]

因此,对机器人和自动化的关注不应转移人们的注意力,因为这些技术只是一个嵌入在底层社会结构中的工具。计算宣传的实施有赖于不同政治行动者所处的政治、经济、社会、文化制度或条件。我们应该进一步努力把焦点从单纯的计算和监测,转向对自动化支持的信息内容进行定性考虑,以评估它是否是宣传,而不仅仅是计算。我们更应关注的是宣传目的,而不是宣传手段。

计算宣传的潜在影响

虽然我们知道有大量活跃的计算宣传存在,但计算宣传的影响是复杂的,难以评估衡量。评估计算宣传对公众舆论的影响是一项艰巨的任务。网民在多大程度上受到了虚假政治信息的影响,这种宣传是否真的改变了网民的行为,目前的研究知之甚少。此外,计算宣传的效果“是由调动的社会和技术因素的复杂相互作用决定的”。[20]政治行动者要集中适当的可能会影响政治对话的资金预算、伦理道德、组织行为、能力建设和社交平台等资源,这是非常困难的。事实上,有一些例子表明,计算宣传也作出了积极贡献。例如,一些复杂的算法和机器人程序试图承担建设性的公共服务,改进新闻业,并产生公共知识。

不管怎样,计算宣传被恶意用于操作公共舆论时,仍然具有微小而显著的作用,往往造成深刻的社会政治和道德问题。计算宣传正日益介入到“社会现实”的建构过程中。计算宣传可以通过赋予政治人物或政治观点以政治份量(不管它的真实性),从而成为文化和政治討论的一部分来塑造“客观现实”。当这一建构过程变得模糊不清时,“客观现实”和“主观现实”之间的距离进一步缩小。应该看到,计算宣传的普遍性、多样性对政治传播的消极影响将会不断增加。

通过伪造信息或活动“制造同意”,产生“虚假民主”。基于人工智能信息技术的政治和民主可能会出现以下问题:不平等政治参与变得更加严重;公共议题的公开辩论变得更加困难;表面政治盛行等。长期以来,社会媒体对于深化公民参与和改善民主的理想主义观点,现在受到与计算宣传相关的阴险和恶意活动的严重挑战。社交媒体平台在公共生活中的敏感时刻提供了大量耸人听闻的、煽情的以及其他形式的虚假信息。虚假信息“依赖于一种操纵性风格、伪造活动、偏见、缺乏专业精神和足够的可信度来进行欺骗,它自由地利用社交媒体算法生成注意”。[21]同时,数字伪造技术进一步催生了虚假信息的泛滥。随着AI换脸技术、虚假音视频制作能力的兴起,深度伪造将变得更加复杂和有效,不断降低人类对“眼见为实”的认知敏感性。如2018年由深度伪造合成的加蓬总统Ali Bongo新年致辞视频曾引起了兵变,足以窥见这种技术的破坏潜力。深度伪造技术的结果是真相的“终结”。人工智能伪造技术、虚假新闻和计算宣传同时兴起,对民主治理构成了巨大挑战。

虚假信息被自动化大量支持时,产生一种“伪草根运动”现象。网络“伪草根运动”是“一种人造的、欺骗性的、战略性的自上而下的互联网活动,由政治行动者发起,模仿自主个体自下而上的活动”。[22]这种伪装成公共舆论的自发涌现的实践,旨在试图给人们留下一种草根广泛支持或反对某政策或政治人物的深刻印象。“伪草根运动”孕育了一个庞大的“内容农场”(Content farms),即复制、拼凑别人的原创内容,产生大量质量低劣的垃圾内容。政治机器人是一种相对粗糙的数字天体冲浪形式,具有高度自动化、协调一致性、放大性和隐蔽性的性质。与计算宣传有关的“伪草根运动”,是民主政治中一个长期焦虑的问题。谁是公众的一部分,谁代表公众发言,都是令人担忧的民主问题。现在,公众、政治家和记者不仅要辨别民意支持是来自草根自发的还是精心编造的,还要辨别发言主体是人类还是机器人。机器人与人类行为者的互动使解决政治机器人在民主中作用的问题更具挑战性。[23]当人们对主题或立场模棱两可时一般会遵循“详尽可能性模式”(Elaboration Likelihood Model)[24]。这种模式认为,当人们有很强的意愿来处理信息时,他们会仔细审查有说服力的论证;当人们没有动力时,他们往往依赖于信息中的简单暗示,如更可评估性和显著性,发帖者传递的信念或激情。因此,人们的决定依赖于论点强度、外围线索或两者,很大程度上依赖于接收者的参与水平。基于详尽可能性模式和信息社会影响理论的综合考虑,“伪草根运动”的效果与四个重要机制有关:信息多源效应、接收者不确定性、发送者和接收者之间的感知相似性(同伴压力)以及接收者参与的动机。[25]

“伪草根运动”的结果是“制造同意”,产生“虚假民主”。公关先驱爱德华·伯奈斯(Bernays)提出了著名的“同意工程化”(engineering of consent)的论点,认为“同意工程化”的技术是价值中立的,既可以被煽动者利用达到反民主的目的,也可以被善意者利用达到社会理想的目的。[26]在人工智能时代,大数据、新兴计算方法、建模、行为科学、实时环境下的实验科学以及平台和算法治理的力量这六个相互交织的动力学,正在创造一个新的监测和社会认同工程化的环境。[27]“政治行动者在未经公民同意的情况下精心部署制造同意、破坏持不同政见者、威胁活动家和收集信息。在线空间是有预谋地构建共识和人工、算法地构建同意的场所,而不是通过对话、参与和透明度加强民主的环境。”[28]计算宣传通过社交媒体和机器人“制造共识”和“实现在线宣传的民主化”,试图放大自身诉求点,努力创造流行趋势的支持,并给人们以“大多数人认同”的幻觉。人们常常关注什么样的政治故事可能会在社会上得到广泛传播,而不会探究这些政治故事的真实合理性。当“制造同意”取代事实真相作为政治辩论和决策形成的基础时,民主处于后事实状态。强大的民主需要来自高质量新闻、多元的舆论氛围,以及公众共识商议的能力。但是强大的政治参与者越来越多地利用计算宣传制造同意,当公民不能够批判性地评估消息的来源或论点的说服力时,商议民主将处于风险中。媒体作为选择、排序和框架的机制,使得媒体的可见性从来都不是中立的。自动化算法所建构的可见性机制对政治参与者施加了一个假想的“不可见性威胁”。公民可能把这种假想的“不可见性威胁”当作“社会认同”,从而产生“虚假民主”。

通过“两极分化”扰乱公共领域,撕裂社会共识。公共领域往往意味着一个供所有人自由、平等、理性地辩论进而产生公共舆论的公共空间。从理论上讲,在一个运作良好的理想的公共领域中,应同时包括处于政治系统中心的行动者和来自边缘的行动者,在新闻媒体的部分帮助下,强有力的公共话语将导致民主协商和社会共识。但要实现一个没有操纵和调控的公共领域是不可能的。20世纪以来的媒体景观给了媒体巨大的政治力量和操纵公众的潜力。人工智能时代,算法支撑了许多目前致力于调解公共领域和政治话语的平台(如搜索引擎、推荐系统和社交媒体网站)。当自动化、操纵性和利益驱动的机器人进入话语时,公共领域的多元化声音尤其是弱势、沉默的声音将会显得特别脆弱,而非理性的、非情绪化的辩论会变得更加强势。政治机器人、大数据算法作为隐形的新型把关人,可以殖民、扭曲、工具化和操纵公共领域,对理想公共领域的建构带来潜在的影响。一些启动计算宣传的政治行动者几乎不负责任地破坏作为公共领域的网络空间,影响着脆弱的网络信息生态系统。政治机器人被用来制造分裂的政治信息。这些行为可能包括协调一致的骚扰、造谣传谣,发送垃圾邮件,传播虚假的、误导的、有偏见的、有阴谋的、煽动性的、攻击性的、极端的、耸人听闻的信息内容,由此将导致两极分化严重,社会共识撕裂。

自动化机器人和算法传播可以规避传统媒体过滤器和意见信息守门人,强化政治行动者的自我议题或议程设置,正在为政治议题属性的显著性而战。在回声室或过滤气泡效应和加强的确认偏差作用下,虚假信息会比真相传播得更快、更深、更广泛、更有感情。在2016年美国总统大选期间,特朗普从参选开始的目标就是制定并控制媒体议程。他的竞选策略是在媒体和公众面前大声说话,设置各种耸人听闻的、欺骗性的、煽动性的议题,攻击和诽谤竞争对手,煽动政治纷争,扭曲公共对话,刺激一种狂热的宣传效果,通过自动传播标签来建立虚假的流行趋势,让事情迅速发酵扩散发展,让媒体无法抗拒报道他的议题。特朗普这种快节奏的修辞和“即兴”说话的意愿给人留下了一种“真实性”的假象,带来选民投票意向上的“乐队花车效应”。当公众谈论特朗普时,人们会听到更多的是“把她关起来”或“让美国再一次伟大”的声音,而不是“他不合格”或“他是疯子”的声音。

计算宣传可能会使公民暴露在虚假新闻的影响下,削弱公众对传统机构的信任,加剧社会分裂和政治两极分化。对社会分裂来说,计算宣传最致命和最有害的目标是煽动社会情绪,鼓噪民粹主义,使公民接受政治行动者不断强化的偏激观点。这些煽动情绪的策略可能包括促进两极分化、回音室、过滤气泡、极端党派主义、诽谤、抹黑、攻击、多元无知、旁观者冷漠、级联效应、沉默或愤怒螺旋、恐惧、偏见、认知失调。所有这些策略都有可能动员公众以某种方式发生思想摇摆。如仇恨言论,即基于种族、宗教、族裔出身、性取向、难民、残疾或性别等属性对个人或群体进行网上虐待或威胁。又如煽动恐惧,“无论是恐怖新闻战术性、机会主义的放大,还是引发恐慌的灾难运动的持久的战略性运动,恐惧的产生都削弱了目标受众正确评估信息来源的能力”。[29]情绪一直是政治和媒体中的关键因素。“后真相”似乎已经在世界各地的传播实践中取得了一定的地位。“两极分化的政治阵营之间从根本上讲是在情感层面的分歧,而意见的差异则不那么显著。这种情感上的分歧尤其受到社交媒体实践和算法的助长。”[30]人们对“后真相”和“真相”的普遍理解揭示了情感和政治之间的关系在过去的十年里是如何变成前沿和中心的。计算宣传反映了情感设置或操纵的重要性。為了激怒未决定的投票者,动摇希拉里的支持者投票特朗普,或确保希拉里的投票者宅在家,特朗普的竞选活动使用了复杂的微靶向目标,例如,在Facebook上将一些“暗帖”(非公共定向广告),如“希拉里认为黑人是超级掠夺者”提供给非裔美国人。[31]未来,情感、媒体和政治之间的问题将是计算宣传的重要研究命题。

通过“武器化”的意识形态宣传改变全球地缘政治格局。世界经济论坛2014年确定网上虚假信息的迅速传播是社会面临的十大危险之一,认为“大规模数字虚假信息的全球风险处于从恐怖主义到网络攻击和全球治理失败等一系列技术和地缘政治风险的中心”;《慕尼黑安全报告2017:后真相,后西方,后秩序?》也指出,“用虚假信息来描述后事实时代的事态:伪造、泄露、传播”。[32]当前全球网络空间弥漫着民粹主义、种族主义、右翼极端主义、左翼激进主义、恐怖主义、民族主义、阶级主义、性别主义、反共反社会主义、仇外心理和法西斯主义元素等意识形态气氛。如网上法西斯主义在传播仇恨、偏见、威权民粹主义、朋友/敌人关系和拜物教政治意识形态。右翼极端主义在网上言论中含有法西斯主义和仇恨的某些因素(如对移民和难民的仇恨、反犹太主义、反社会主义等)[33]。社交媒体民族主义通过社交媒体而不是现实世界的关系连接,可能极大地改变世界秩序,深刻影响信息地缘政治格局。社交媒体民族主义在许多方面与诸如竞选活动、占领运动(街头革命)、社会运动和更持久的黑客集团重叠交织。在全球范围内,一些政治行动者创造了一个有相当规模的“社交机器人部队”参与国外政治运动。

计算宣传未来将被置于地缘政治冲突的中心。在地缘政治上,强国将部署和利用计算宣传来影响外交政策的结果,以实现本国外交政策目标。从更广泛的地缘政治角度看,计算宣传的行动者正在实行政治宣传的武器化,以掌控其在全球地缘政治中的话语权。“武器化的叙述试图通过产生复杂性、混乱、政治和社会分裂来破坏对手的文明、身份和意志力。它可以作为明确的军事或地缘政治冲突的一部分在战术上使用,也可以作为减少、中和和击败一个文明、国家或组织的一种战略手段。如果做得好,它将限制甚至消除武装部队实现政治和军事目标的任何需要。”[34]武器化的叙述倾向于使用视觉手段和小报化(简化,很少使用单词,情感化、丑闻化、极化、平庸化、操纵、制造等)。如2020年初全球新冠肺炎疫情期间,美国总统特朗普、国务卿蓬佩奥和一些政客、媒体不断鼓吹“中国病毒论”“中国责任论”等阴谋论,煽动仇华情绪,为美国联邦政府抗疫不力寻找借口,转移国内民众的不满情绪,实为特朗普竞选下一届总统进行的政治诬陷。

计算宣传可能改变全球地缘政治格局。外国干预国家事务已成为政治过程完整性和传播一致性的明显威胁。最近五年来,国际事务、国际关系因新媒体技术的介入而日益复杂化。一些国家政府利用社交媒体操纵舆论,分配专业人员和财政资源进行网上虚假信息宣传活动,扰乱关于敏感安全问题的国际辩论,破坏国家主权、国际外交、国际贸易、国际和平和其他重要国际进程的努力。这些运动倾向于使用新闻框架和议程设置、意识形态霸权、符合象征力量或实现预期结果的锐利力等策略。同时,“越来越多的政治行动者使用算法来操纵国际舆论,有兴趣塑造外交政策成果、实现国家安全目标和干预其他国家治理”。[35]一些国家的计算宣传运动在行动者、能力水平、组织形式和影响目标方面不断提升计算宣传的水平。“如果外国势力成功地利用有针对性的数字宣传来干预选举活动,对民主制度的信任就会折腾起来。当外国势力计划放大有目标的宗教、政治、文化或特殊利益集团的声音以煽动分裂的“火焰”时,同胞可以反对同胞,暴力可以被煽动,民间社会受到破坏。”[36]需要警惕的是,计算宣传驱动的全球信息战争,可能引爆新一轮的网络军备竞赛。

计算宣传的协同治理

由于计算宣传在个人、社会、国家和国际层面引发的一系列潜在风险,计算宣传的全球治理势在必行,尽管治理过程错综复杂。计算宣传的治理,关乎世界信息传播新秩序的推进,“应在联合国框架内,推进多边、民主、透明的国际互联网治理体系,携手构建网络空间命运共同体”。[37]全球治理的一个重要特征是治理主体多元化,因此,在计算宣传的全球治理过程中,要以人工智能、算法、大数据、社交媒体、虚假信息为重点治理对象,鼓励企业、国家政府、国际组织、技术社群、公民等多行为体共建共治共享。

发挥联合国力量,开展国际合作。发挥以联合国为主导的国际力量,将有助于促进计算宣传走向正轨发展,更好地应对计算宣传可能产生的国家民主、国家安全以及全球秩序等问题。联合国教科文组织(UNESCO)始终在指导人工智能技术发展的伦理标准和政策方面进行全球性的倡议和反思。2018年11月,UNESCO与合作伙伴在其总部举行的互联网治理论坛(IGF)上,组织了一场关于“利用人工智能促进知识社会和可持续发展”的公开讨论,重点关注如何跨越人工智能时代的世界数字鸿沟,如何促进媒体生产、传播和评估新闻、数据和信息,如何应对技术发展以打击暴力极端主义和其他不可见的威胁。在2018年举行的联合国互联网治理论坛(IGF)上,来自各国政府、私营部门和民间社会的利益攸关方就加强全球合作,打击数字时代具有误导性的危险信息达成了共识。2019年6月,联合国秘书长古特雷斯正式推出“联合国消除仇恨言论战略和行动计划”,旨在加深联合国所有实体对仇恨言论的有害影响以及如何在工作中更有效地应对的理解,呼吁加强对会员国的支持,与私营公司、民间社会和媒体进行更多合作。

除了联合国,还可以考虑发挥APEC、G20、金砖国家等国际性组织或区域性组织的角色,在区域或国家之间形成具有普遍共识的治理规则,实现从边缘到中心的突破,最终获得全球层面的规则认同。同时,也要重视全球行业组织的指導性专业伦理规范建设,如世界科学知识与技术伦理委员会(COMEST)发布关于机器人伦理的初步草案报告,提出应当在机器人及机器人技术的伦理与法律监管中确立可追溯性,保证机器人的行为及决策全程处于监管之下。但从历史上分析国际宣传的规制和国家防止外国传播的义务,可以看出不同国家法律在保护自由表达方面存在相互冲突竞争的历史,如西方民主国家赞成的“思想自由市场”方针与发展中国家提议的社会安全秩序的冲突。国际法不仅要禁止颠覆性宣传,也要禁止旨在和平改变政权的宣传。但对美国来说,对宣传的任何规制都会与言论自由、传播权和交流权相冲突。这种冲突对跨国计算宣传的全球治理带来挑战,就私人宣传的责任归属问题达成共识则更具挑战性。

完善各国有关新媒体技术的法律法规体系。计算宣传引发的伦理法律问题,引发了世界各国政府的高度重视,越来越多的政府行为者正通过制定完善具体的法律法规,进一步加强与计算宣传相关的治理,主要体现在保护数据隐私、限制数据收集、要求披露自动帐户、授权广告透明度。但许多立法者对社交媒体、自动化机器人、算法只有初步的了解。他们强加的规则可能会影响社交媒体平台和用户之间的生态均衡。政府在对抗社交媒体上的虚假信息和错误信息方面处于劣势。政府监管必须要在维护政治安全、言论自由和市场可持续发展之间谨慎平衡。

社交媒体上虚假新闻扩散日益增长的威胁,已经成为世界各国政府的一个重大关切。自2016年以来,超过30个国家出台了相关法律,打击互联网上的假新闻。与此同时,一些国家建立了新的政府机构或授权现有组织打击假新闻及其对外影响力行动。这种反应通常包括生产和传播反叙述或创建举报、标记和事实检查来促进公民意识和参与。在许多情况下,这些目标任务经常与媒体法律、监测能力、计算宣传运动、互联网阻挡或过滤结合使用,以塑造在线公共对话。[38]欧洲防止虚假新闻传播的方法在很大程度上依赖于数据保护法,如欧盟《欧盟更安全的社交网络原则》(2009)和《通用数据保护法》(2018)。2018年3月,欧盟委员会虚假新闻和网络谣言独立高级专家组(HLEG)成立,2018年9月正式颁布《欧盟反虚假信息行为守则》。2019年10月底,欧盟委员会再次要求社交媒体必须采取更多措施来应对虚假新闻或面临监管行动。2016年美国大选后,美国国会2017年10月宣布了《诚实广告法》(the Honest Ads Act),要求Facebook和Google等在线平台保留政治广告副本,将其公开并密切关注谁在付款以及付款多少。2017年10月,德国通过《网络强制法》,该法规定社交媒体要在24小时内删除网站上“明显的非法内容”,包括仇视性言论、诽谤、煽动以及暴力言论等,否则将面临最高5000万欧元的罚款。2018年1月,德国《社交媒体管理法》正式施行,该法案针对网络上的仇恨、煽动性言论、虚假新闻内容,对在德国境内提供内容服务的社交媒体平台提出了更为严格的监管要求。2018年11月,法国通过了专门的“虚假新闻法”,赋予了法国法官在竞选期间即时(在通知后48小时内采取行动)从网站上删除假新闻的权力,以确保国家选举免受虚假信息的影响。

在社交机器人、人工智能算法方面,欧盟《数据保护条例》要求数据处理者与数据主体保持关系并在质疑时能解释自动化决策的逻辑。意大利政府在2018年大选之前推出了一项旨在打击计算宣传的在线服务,人们可以通过网站上的“红色按钮”系统报告虚假新闻,同时使用专业软件来确定信息是否受到了计算宣传的操控。2017年1月,德国三个州重新启动了一项关于数字入侵的立法倡议,将社交机器人在Facebook上的使用定为犯罪。2019年7月1日,美国加利福尼亚州成为第一个试图规范机器人程序使用的州,要求自动披露旨在社交媒体上模拟或复制人类活动的账户,以防止社交媒体上的舆论操纵。欧盟于2019年4月发布“人工智能伦理准则”,列出了“可信赖人工智能”的7个关键条件,以确保人工智能尊重基本人权、规章制度、核心原则及价值观,同时在技术上安全可靠。

对于所有类型的算法,审计是验证正确功能的必要前提,是实现透明度的一种可能机制。算法审计是研究算法决策的功能和影响的过程,理解算法决策背后的逻辑,帮助公民解释决策是如何被描述的。[39]公民可以要求政治透明度权利来限制不透明内容系统对政治对话的权力,但不管怎样,算法的专利产权保密性、深度学习复杂性和决策不透明性对算法审计的实施提出了重大挑战。算法决策的逻辑可能在认识论上无法为人类所理解。尽管存在许多障碍,但算法审计能最大程度地接近。算法审计的一种形式可能是建立监管服务提供商的规制机构,该机构的工作就是通过对发布的内容类型进行有偏见的结果检测来预测对政治对话的影响,以确定必须规范的内容,如要求公司在没有揭示产权性的算法设计细节下提交有质量的信息披露,包括算法是如何运作的,它的效果如何,以及它最有可能造成哪些错误。

强化社交媒体平台的自律性措施。社交媒体平台正在通过事实核查机制和标记,要求用户验证帐户合法性,或者制定一些激励政策,与第三方信息检测和评级机构合作,以减少自动操纵在线话语的风险。与社交机器人有关的现有做法可归结为披露、同意和尊重二次使用原则。披露原则指机器人账户应清楚地被识别;同意原则指未经用户同意,机器人不应主动与其接触,包括喜欢、偏爱等互动或者转发;二次使用原则指机器人“所有者”不应将收集到的关于用户的信息用于其他无关的目的。[40]

2016年以来,Facebook陆续宣布打击虚假信息的系列措施,如雇用了数千名事实检查人员,依靠用户举报,发布内容透明度报告等。Facebook正在与Fact-Check.org、ABC和美联社这样的事实核查机构合作,将用户报告的故事提交给这些机构核实。这种努力是否会产生实际效果,或者反而会促使人们更多地散布虚假信息,我们目前还不知道。2019年4月,Facebook发布了一系列公告,旨在推广更多值得信赖的新闻来源,打击传播虚假信息的团体。Facebook于2019年9月宣布联合微软公司和多所高校,研究检测Deepfake的方法。2019年12月,Facebook和Instagram宣布引入了一项人工智能过滤评论的新功能,可以在一定程度上防止社交机器人对虚假信息简单的复制粘贴。在2020年2月召开的德国慕尼黑安全会议上,扎克伯格表示,Facebook已经在致力于打击虚假信息,改进其对抗网络选举干扰的工作,每天都有100多万个虚假账户被吊销。

Twitter对机器人的使用有着最明确的指导方针,在平台帮助中心设置了一个专门用于“自动化规则和最佳实践”的页面,禁止使用下列类型的机器人:发布在最终内容之前通过登陆或广告页面重新定向的自动链接;未经明确同意而分发用户内容;自动推特成趋势主题(也被称为#标签垃圾邮件);未经Twitter同意的自动回复或提及;自动转发,除非Twitter认为这项活动是“社区福利”;自动跟踪和不跟踪;自动偏袒。Twitter通过与第三方合作来帮助检測和关闭机器人运行的帐户来减少机器人驱动的流量。2019年6月,Twitter宣布收购了AI初创公司Fabula,以帮助其打击在其平台上传播的虚假新闻。2019年11月,Twitter公布了关于打击深度伪造草案的细节。

社交媒体平台正努力区别宣传、虚假信息和错误信息之间的微妙差异,它们正努力保持平台中立和遵守言论自由原则,谨慎决定内容是否修正和如何修正,希望避免由于遵循通知删除原则而最终带来审查偏见的争议和指控。尽管各大社交媒体平台在打击虚假新闻上采取了大量措施,但是相对于社交媒体用户和机器人数据集的量级增长,以及日益复杂的自动化技术和人类传播行为,社交媒体机器人和虚假信息的检测和评价会变得非常困难。同时,社交媒体平台既要确保其用户不受计算宣传的影响,同时也面临着跨境数据流的挑战。“社交媒体平台面临着来自100多个国家的重叠法律和法规的困境。每个国家都要求社交媒体平台提供不同的标准和披露信息,并强加了运作成本。社交媒体平台如何在检测和破坏一系列计算宣传活动的同时,约束和取悦社交媒体国家?”[41]此外,社交媒体平台没有动力为可能会出现的问题而压低利润。如果不是由行业集体承担,自我监管会使第一家自我监管的公司处于显著的劣势。

提升公民网络媒体素养水平。如果没有足够的相关知识储备,一般互联网用户很容易被计算宣传这种方法欺骗。大多数公民(包括学生和成年人)缺乏正确区分假新闻和经过验证的内容的能力。斯坦福大学研究人员特别关注了千禧一代是否能够区分合法和非法的新闻来源和文章,答案显然是否定的。在这项研究中,大约80%的千禧一代错误地将一篇假文章认定为真文章。[42]如果个人配备了识别和批评计算宣传形式的工具和知识,计算宣传的影响可能是有限的。因此,需要提升公民网络媒体素养水平,教育人们如何避免成为计算宣传的受害者。媒体素养教育,就是要培养公民在面对媒体信息时所表现出的选择能力、理解能力、质疑能力、评估能力、创造能力、生产能力及思辨能力。

提升公民网络媒体素养水平,需要政府部门、平台提供商、公益组织、行业协会、学校、家庭等行动者的共同合力。像Common Sense Media这样的公共组织已经开发了“新闻素养101”课程,甚至开发了解释和打击虚假信息的游戏。 一些积极活跃的社会团体正在公开地或私下地通过与算法工程师和决策者的反向对话来游说各个平台,以承担减少虚假信息传播的责任。谷歌新闻与谷歌旗下慈善机构合作开展了一项耗资1000万美元的媒体素养宣传活动,旨在帮助年轻人辨别真假新闻。学校在打击虚假或误导的故事和事实的扩散方面应发挥重要作用,要在媒体素养工具包和事实核查网站等方面探讨一些媒体素养课程的教学技巧。一些国家还以法规政策形式来确保公民媒体素养的提高。2019年7月,英国教育与卫生部宣布,学校课程中将增加新内容,旨在教孩子们如何发现在线错误信息。

近年来,“算法素养”在国外也受到了广泛关注。“算法素养”(Algorithmic Literacy)是指用户能够意识到算法在他们生活中的存在,并且用批判性的思维理解算法带来的影响,包括充分了解算法的生产逻辑、防范算法带来的认知偏见。[43]“算法素养”运动在国外已经有了不少实践。推特上曾有过专门针对算法素养而引发的话题,网民们讨论了诸如“算法影响了我的搜索结果”等相关议题。德国之声电视台的“DW学院”在YouTube上发布了一则罗德岛大学媒体教育实验室创始人蕾妮·霍布斯(Renee Hobbs)教授关于呼吁“我们需要算法素养”的视频。在霍布斯教授看来,弄清楚我们所使用在媒体背后的算法是如何运作的,是混乱而复杂的,但是对每个人来说,我们都迫切地需要去更好地理解它们。[44]因此,算法素养可能包括至少知道算法在什么情况下表现出来,什么时候藏在幕后,越来越多地意识到自动化算法和大数据是如何对我们的注意力进行排序和塑造的,以及能够对算法接下来的意图作出正确推断。

(本文系国家社科基金重点项目“全球互联网治理的竞争格局与中国进路研究”的阶段性成果,项目编号:18AXW008)

注释

[1]Gillian Bolsover; Philip Howard," Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda", Big Data, 2017, 5(4), PP. 273-276.

[2]Samuel C. Woolley and Philip N. Howard, " Political Communication, Computational Propaganda, and Autonomous  Agents Introduction", International Journal of Communication, 2016, (10), pp. 4886.

[3]Emiliano Treré, "From digital activism to algorithmic resistance", The Routledge Companion to Media and Activism, Edited By Graham Meikle, London: Routledge, 2018, pp. 367-375.

[4]Shaomin Xu, "Computational propaganda poses challenge", Global Times, September 12, 2017, http://www.globaltimes.cn/content/1066077.shtml.

[5]J. Condliffe, "Over 60 Percent of Internet Traffic Is Now Driven By Bots", http://gizmodo.com/over-60-percent-of-internettraffic-is-now-driven-by-bo-1482537192.

[6]Bessi, A., and Ferrara, E., "Social Bots Distort the 2016 US Presidential Election Online Discussion", First Monday, 2016, 21(11), https://firstmonday.org/article/view/7090/5653.

[7]Kollanyi B; Howard PN and Woolley SC, "Bots and automation over Twitter during the U.S.election", Data Memo, 2016.4., Oxford, UK: Project on Computational Propaganda.

[8]Anastasia Pyrinis, "Fake News is Real:The Rise of Computational Propaganda and Its Political Ramifications", Berkeley Political Review, November 6, 2017, https://bpr.berkeley.edu/2017/11/06/fake-news-is-real-the-rise-of-computational-propaganda-and-its-political-ramifications/.

[9]Philip N. Howard; Samuel Woolley and Ryan Calo, "Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and Administration", Journal of Information Technology & Politics, 2018, 15(2), pp. 81-93.

[10]張洪忠、赵蓓、石韦颖:《社交机器人在Twitter参与中美贸易谈判议题的行为分析》,《新闻界》,2020年第2期,第46页。

[11]Philip N.Howard, and Bence Kollanyi, "Bots,#StrongerIn,and #Brexit: Computational  Propaganda during the UK-EU Referendum", Working Paper, No.2016.1, Oxford, UK: Project on Computational Propaganda.

[12]BBC, "EU referendum petition hijacked by bots", June 27, 2016, http://www.bbc.com/news/technology-36640459.

[13]Marco T.Bastos and Dan Mercea, "The Brexit Botnet and User-Generated Hyperpartisan News", Social Science Computer Review, 2019, 37(1), pp. 38-54.

[14]Emilio Ferrara, "Disinformation and social bot operations in the run up to the 2017 French presidential election", First Monday, 2017, 22(8). https://doi.org/10.5210/fm.v22i8.8005.

[15]Lisa-Maria Neudert; Bence Kollanyi and Philip N. Howard, "Junk News and Bots during the German Parliamentary Election: What are German Voters Sharing over Twitter?", Data Memo, 2017. 7, Oxford, UK: Project on Computational Propaganda.

[16]Keller; Tobias R.; Klinger and Ulrike, "Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications", Political Communication, 2019, 36(1), pp. 171-189.

[17]Renee Diresta, "Computational propaganda:If You Make It Trend, You Make It True", The Yale Review, 2018, 106(4), pp. 12-29.

[18]Gillian Bolsover, "Computational Propaganda in China: An Alternative Model of a Widespread Practice", Working Paper, No.2017.4, Oxford, UK: Project on Computational Propaganda.

[19]Gillian Bolsover and Philip Howard, "Chinese Computational Propaganda: Automation, Algorithms and the Manipulation of Information About Chinese Politics on Twitter and Weibo", Information, Communication & Society, 2019, 24(12), pp. 2063-2080.

[20]Dhiraj Murthy and Alison B.Powell etal., "Bots and Political Influence: A Sociotechnical Investigation of Social Network Capital", International Journal of Communication , 2016, 10, pp. 4952–4971.

[21]Samantha Bradshaw and Philip N. Howard etal., "Sourcing and Automation of Political News and Information over Social Media in the United States, 2016-2018", Political Communication, 2020, 37(2), pp. 173-193.

[22]Marko Kovic and Adrian Rauchfleisch etal., "Digital Astroturfing in Politics: Definition, Typology, and Countermeasures", Studies in Communication Sciences, 2018, 8(1), pp. 69–85.

[23]Elizabeth Dubois and Fenwick McKelvey, "Political Bots: Disrupting Canada's Democracy", Canadian Journal of Communication, 2019, 44 (2), pp. 27-33.

[24]John T Cacioppo and Richard E Petty etal., "Central and peripheral routes to persuasion: An individual difference perspective", Journal of Personality and Social Psychology, 1986, 51(5), pp. 1032.

[25]Jerry Zhang; Darrell Carpenter and Myung Ko, "Online Astroturfifing: A Theoretical Perspective", Proceedings of the Nineteenth Americas Conference on Information Systems, Chicago, Illinois, August 15-17, 2013.

[26]Edward L.Bernays, "The Engineering of Consent", The ANNALS of the American Academy of Political and Social Science, 1947, 250(1), pp. 113-120.

[27]Zeynep Tufekci, "Engineering the Public: Big Data, Surveillance and Computational Politics", First Monday, 2014, 19(7), https://firstmonday.org/ojs/index.php/fm/article/view/4901.

[28]Emiliano Treré, "The Dark Side of Digital Politics: Understanding the Algorithmic Manufacturing of Consent and the Hindering of Online Dissidence", IDS bulletin, 2016, 47(1), pp. 127-138.

[29]Clint Watts, "Advanced Persistent Manipulators and Social Media Nationalism ——National Security in a World of Audiences", Aegis Series Paper No.1812, Hoover Institution, Stanford University.

[30]Megan Boler and Elizabeth Davis, "The afffective politics of the 'post-truth' era: Feeling rules and networked subjectivity", motion, Space and Society, 2018, 27, pp. 75-85.

[31]Julia Angwin and Terry Parris Jr., "Facebook Lets Advertisers Exclude Users by Race", October 28, 2016, https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race.

[32]OECD, "How to stop the slide from info-storms to post-factual democracy", https://www.oecd.org/governance/how-to-stop-the-slide-from-info-storms-to-post-factual-democracy.htm.

[33]Fuchs,C.,"Propaganda 2.0: Herman and Chomsky's Propaganda Model in the Age of the Internet, Big Data and Social Media", In The Propaganda Model Today: Filtering Perception and Awareness, Edited by Joan Pedro-Cara?ana; Daniel Broudy and Jeffery Klaehn, London: University of Westminster Press, 2018,  pp. 71-92.

[34]Brad Allenby and Joel Garreau (2017), "Weaponized Narrative is the New Battlespace", January 3, 2017, https://www.defenseone.com/ideas/2017/01/ weaponized-narrative-new-battlespace/134284/.

[35]Samantha Shorey and Philip N.Howard, "Automation, Big Data, and Politics: A Research Review", International Journal of Communication, 2016, 10, pp. 5032-5055.

[36]W Lance Bennett and Steven Livingston, "The disinformation order: Disruptive communication and the decline of democratic Institutions", European Journal of Communication , 2018, 33(2), pp. 122-139.

[37]羅昕:《世界信息传播新秩序建构的脉络变迁与中国进路》,《内蒙古社会科学》(汉文版),2019年第1期,第160~166页。

[38]Samantha Bradshaw and Philip N. Howard, "Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation", http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2018/07/ct2018.pdf.

[39]Brent Mittelstadt, "Auditing for Transparency in Content Personalization Systems", International Journal of Communication , 2016, 10, pp. 4991-5002.

[40]Nathalie Marechal, "When Bots Tweet: Toward a Normative Framework for Bots on Social Networking Sites", International Journal of Communication, 2016, 10,  pp. 5022-5031.

[41]Clint Watts, "Advanced Persistent Manipulators and Social Media Nationalism ——National Security in a World of Audiences", Aegis Series Paper No.1812, Hoover Institution, Stanford University.

[42]Anastasia Pyrinis, "Fake News is Real: The Rise of Computational Propaganda and Its Political Ramifications", Berkeley Political Review, November 6, 2017, https://bpr.berkeley.edu/2017/11/06/fake-news-is-real-the-rise-of-computational-propaganda-and-its-political-ramifications/.

[43]羅昕:《算法媒体的生产逻辑与治理机制》,《人民论坛·学术前沿》,2018年12月下,第25~39页。

[44]Katharina Zweig, "Algorithm Literacy", March 6, 2016, https://prezi.com/yev4rbaz2cxl/algorithm-literacy/.

责 编/张 晓