APP下载

智能传播场景中的“真实”再定义

2020-11-13牟怡

人民论坛·学术前沿 2020年18期
关键词:真实

【摘要】在机器生成新闻和其他创作内容已然司空见惯的今天,我们并不清楚用户对人工智能生成的各种类型的内容会产生怎样的认知反应。当AI成为一个新的传播者时,人类使用者对其原真性,或者更广义的真实性发生了相应的改变,不同于既往的人类社交场景。不同的内容或交流场景下,人类用户对原真性的要求是不一致的。但是只要遵循信息生成者和接收者双方共同认定的契约,其原真性缺失带来的负面影响就会很大程度上被规避。因此,我们也许不必将真实简单定义为是人或者不是人,而是多大程度上是人,多大程度上是机器,甚至是多大程度上反映出人的代理心智,多大程度上是体验心智等。智能传播场景下的真实不再是真与假的二元对立,而是一个从100%的人到100%的机器的谱系。

【关键词】AI生成内容  智能传播  人机交流  真实  用户心理

【中图分类号】G21                              【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2020.30.025

2019年11月,在这个1982年经典科幻电影《银翼杀手》中设定的时间里,我们的世界中并没有出现影片中存在的复制人和人造动物,因此我们似乎并不用质疑周遭生物的真实性。然而,当下的人工智能技术(artificial intelligence,以下简称AI)正在诸多场景中带给我们各种真真假假的体验。机器写作新闻已然不是新鲜事,AI创作的艺术作品也已经让专业人士真假难辨。[1]Deepfake这样的技术能在视频中将一张人脸天衣无缝地切换成另一张人脸,计算机生成图像(computer-generated image)技术能让已然故去的名人重返屏幕,虚拟偶像(virtual idol)在各国年轻人中大行其道……技术裹挟着世人在真实与虚假之间的困惑飞速发展。在这个与科幻平行的现实宇宙里,我们与电影中的人物面临同样的问题:何为真实?真实的边界在哪里?真与假的边界感知又会带给我们怎样的体验与认知?

关于真实的讨论,我们并不陌生。近年来屡被热议的“假新闻”,其反面便是“真新闻”。然而很多时候,真实与虚假的二元对立并不成立,更多时候只是对基本事实的重新组合与解读。在AI生成内容与人机交流场景中亦是如此。尽管内容本身与人类创作内容无异,然而AI创作内容似乎在某些层面存在缺失或不同,难以实现“原汁原味”的真实之感。同样的,尽管今天的社交机器人已经能实现与人类的初级沟通,然而在短暂的新奇效应之后,人类对话者很大程度上会对与机器人的交流心存质疑。由此可见,不论是对AI创作内容还是对与机器的交流,人类使用者感知的真实性都是一个重要的命题,直接关乎AI技术的使用体验,甚至人类对AI技术的态度。因此,有必要对AI生成内容与人机交流场景中的真实性问题进行一个系统梳理。本文将基于一系列相关实证研究的讨论与总结,对人机交流场景中的“真实”进行再定义。

何为“真实”?

“真实”一词在汉语中由来已久,其最基本的含义为“与客观事实相符合;不假”。例如,汉代荀悦在《申鉴·政体》中所言,“君子之所以动天地、应神明、正万物而成王治者,必本乎真实而已”,即强调了在客观事实层面的基本要求;而后又延伸出“真心实意”“确切清楚”“真相境界”等含义。例如,在文学理论中,艺术真实即是事真、情真、理真的三位一体和统一。[2]

这个有着丰富内涵与外延的“真实”概念在英文中对应着几个主要的词汇,分别形成了与之相应的学术探讨。最基本的是“true”(真实的、正确的),对应的名词为truth(真相)。关于此概念的讨论因“后真相”(post-truth)现象的出现而热烈起来。2016年,“后真相”一词被牛津词典评为年度词汇,其源自美国大选与英国脱欧中的诸多新闻现象,指的是在当下公共舆论场中,客观事实的影响较小,反而是诉诸情感与个人信仰会产生更大的影响。[3]而2019年,牛津词典又将“有毒的”(toxic)选为年度热词,至此“有毒的后真相”成为特定术语。而在国内,以多起“反转新闻”为代表的后真相现象也与西方的假新闻事件互为呼应,挑战着传统的媒体对公共空间的“看门狗”(watchdog)功能。[4]

第二个对应词汇为“real”(真的),相应的名词为reality(现实)。从西方绘画传统中的写实主义(realism)可以看出,这个概念强调的是反映现实的逼真程度。在这个“媒体中介化”的时代,[5]学者自然将焦点集中到媒体信息中的感知现实(perceived reality)。学者Popova(2010)将感知现实归纳为以下几个方面。一是“魔法窗”(magic window),指的是文字层面上准确地描绘现实;二是典型性(typicality),即与现实世界的相似度;三是身份认同(identity),即对角色的卷入度;四是感知的逼真性(perceptual fidelity),即视觉逼真度;以及虚拟体验(virtual experience)。[6]

第三个与真实对应的名词是authenticity,除真实性以外,还强调原真性(为避免混淆,以下authenticity统一译为原真性)。2015年,挪威学者Gunn Enli将媒介化传播的原真性定义为三个方面。首先,媒介化传播的真实性需要具有可信赖度(trustworthiness),也即必须是正確的和准确的。其次,原创性(originality)也必不可少,即强调内容的原汁原味。最后,原真性也依赖于原发性(spontaneity),作出符合自己内心的判断,而非来自预先设定的社会程序。[7]这一概念解释显然借鉴了旅游社会学中对原真性作出的界定。当事物具有符合该类型的特质时,我们称其为类型原真性(type authenticity)。而当该事物能够反映发自内心的选择,而非社会性剧本化的反映时,它才能被称为具有精神原真性(moral authenticity)。[8]

在这三个真实性的概念中,笔者无意纠结于智能传播中出现的真相问题,也暂不考虑技术(如AR或VR技术)展示的逼真程度。在此文中,笔者将着重探讨智能传播中的原真性问题,及其可能带来的社会心理影响。在下文中,笔者将借鉴韩国学者李恩珠对计算机辅助传播(computer-mediated communication)中的原真性分类,[9]分别从信源的原真性、信息的原真性和人机交流的原真性三个方面展开论述。

作为信源的原真性

自上个世纪70年代开始逐渐发展出来的“自由,平等,开放,共享”互联网精神在技术急速发展的今天受到了极大的挑战。在这个本应作为人与人之间连接桥梁的互联网上充斥着大量的非人存在,其61.5%的流量便是由机器人贡献的。[10]主要的社交媒体平台无一能够幸免。例如,推特上至少有7%的社交机器人,5%~11%的脸书账号则由机器人控制。[11]这些机器人执行着不同的任务,完成不同的功能,可简单分为善意的(benevolent)和恶意的(malevolent)两种。那些为人类提供各种信息和帮助的为善意的,而在社交媒体上生产垃圾讯息的则为恶意的。[12]

机器人(bot)是一种自动化的软件代理。[13]从技术角度而言,网络上的机器人存在多种形式。Marechal依据机器人的功能将其分为四类:第一类是恶意僵尸网络(malicious botnets),即支持远程操控的机器人网络;第二类是调研机器人(research bots),用于爬取网络空间的数据和信息;第三类为编辑机器人(editing bots),比如维基百科的编辑机器人;第四类则为聊天机器人(chat bots或chatbot),以聊天的方式与用户交流。[14]而Morstatter等人则从人机关系视角将机器人分为两类:机器辅助人类(bot-assisted humans)和人类辅助机器(human-assisted bots)。前者是机器人为人类提供服务,例如,聊天机器人和新闻播报机器人等;后者则为在人协同下执行功能的机器人,比如,大规模的机器人水军等,常为负面的角色。[15]

网络机器人带来的社会影响正在被世人所关注。诸多重大政治事件中都出现了它们的身影,而且影响巨大。例如,2014年日本首相选举中,占总量约80%的重复推文极有可能是由网络机器人军队生成。2016年美国总统大选前夕,推特上出现了一批支持特朗普的拉丁美裔账号,实则是机器人账号。数字机器人介入了“阿拉伯之春”之后的叙利亚战争,被叙利亚安全部门用以干预舆论。这些大规模有组织的机器人被政治团体所操纵,在网上广泛参与政治信息转发和讨论,被称为“政治机器人”(political bot)。它们通过营造虚假人气,推送大量政治信息,传播虚假或垃圾政治信息干扰舆论,制造厌恶遮蔽效应混淆公众视听,甚至通过塑造高度人格化形象的虚拟意见领袖等策略对网络公众舆论产生巨大负面作用。[16]

这些网络机器人的广泛存在无疑给信源原真性带来深刻的影响。即便它们传播的信息是真实的,然而它们的诞生目的天然就带有偏见和误差的属性。更重要的是,当这些政治机器人俨然成为政治手段与民意表达的一部分的时候,这种由人为主导的网络空间便逐渐演变到“人+机器人”的共生状态。[17]那么,信源的原真性直接关乎信息的原真性。基于此,美国麻省理工学院媒体实验室的Rahwan等人在《自然》杂志上发文指出机器行为(machine behavior)的重要性,并倡导在人与机器交互的个人层面、集体层面,以及混合人机行为层面展开研究。[18]

除了信源本身是否为机器带来的原真性考量之外,机器人本身的特征也会给人类用户带来相应的影响。在实体或虚拟社交机器人的设计中,设计者通常会引入不少社交线索。社交线索(social cue)指的是社交场景中的一些言语的或非言语的用于作出社交判断的细节线索。在通常的人际传播中,眼神、面部表情,肢体语言等都是常见的社交线索。性别作为一种常见的社交线索也被加入机器人设计中。例如,智能语音助手通常被设定为女性,安保机器人通常被设定为男性。然而这样的设定也被认为是一种欺骗,有违“不能用欺骗性的方式来设计机器人,从而剥削易受伤害的使用者;相反,它们的机器属性应当透明化”的原则,并可能带来机器人“物化女性”和“物化男性”的情形。[19]

尽管这种不引入性别的建议从道德伦理层面看非常合理,但实证证据则显示出不一样的结果。在人类社会中,我们会不经意间形成基于职业的性别刻板印象。同样的性别刻板印象是否会在机器人身上重演?就此,我们展開了一个实验研究,将两则一模一样信息的作者分别列为男人、女人、男机器人、女机器人和中性机器人;而这两则信息分别为财经问题和情感问题的建议。在受试者阅读完文字之后,他们会对信息质量和作者能力作出评价。研究结果显示,作者是人或是机器人对受试者的认知评价并无显著影响;而内容类型也未带来显著影响。然而,受试者对女性作者(包括人和机器人)内容的评价显著高于中性作者内容的评价。也就是说,男女性别的刻板印象并不成立。但是,如果增加了中性性别这个“非自然”的性别类型,情况就发生了改变。人类中很少出现的中性性别可能会带来更多的不信任感和负面认知。因此,我们可以认为,智能传播场景下的信源的真实或原真需要建立在符合人类特征的基础之上,否则便丧失了真实性或原真性。

作为信息的原真性

自然语言生成(natural language generation,简称NLG)技术是目前AI技术的诸多应用中较为成熟的一个。NLG最成熟的使用领域之一为新闻写作,通过自动采集、分析、调用和生成数据的机器算法语言,通过预设的运算规则和程序步骤完成。[20]各国主要通讯社(包括新华社、美联社等),以及中外主流报纸如《光明日报》《纽约时报》均采用了AI写稿技术。世界三大NLG软件公司Automated Insights甚至能每秒完成2000个新闻故事。[21]然而到目前为止,NLG写作新闻主要集中在财经、体育、地震等几个大量依赖数据分析与处理的领域,而无法做到像人类记者那样去探究新闻事件背后的深层要素,完成调查性报道。[22]

由于新闻的特点,读者对新闻内容的真实性问题还主要集中在真实与否,即是否符合事实的角度;而对以事实呈现为主的新闻很少探知其内容的原真性问题。在一系列实证研究中,研究者发现使用“计算机”和“记者”两个标签并不会对读者感知的公信力造成显著影响;唯一的例外是当实验受试者是记者的情况,记者受试者们会认为记者作为消息来源比计算机作为消息来源更值得信任。[23]而另一项研究发现,推特公司的写作机器人bot在消息源的公信力或传播力方面与人类记者并没有显著差别。[24]由此可见,读者对新闻内容的评价,尤其是对这些AI擅长的数据为导向的新闻类型的评价,僅仅探讨的是内容本身,而并不在意其作者身份到底是人还是机器。

今天的AI创作类型已然超出了以事实呈现为目标的新闻的范畴。前世界棋王卡斯帕罗夫在著名的人机一役败给IBM深蓝之后断言,艺术、文学和音乐是机器并不能逾越的屏障。然而这个论断已经被推翻。在以上三个领域,我们都看到了AI的踪影。例如,第一本算法生成的俄语小说《真爱》在72小时内完成,融合了列夫·托尔斯泰的《安娜·卡列琳娜》的内容与村上春树的风格;Botnik Studio的机器人在学习了《哈利·波特》全系列小说之后写出了续篇;日本科幻小说《计算机写小说的那一天》在评委毫不知情的情况下通过了日本“星新一奖”的比赛初审,而这部小说完全由机器人创作。在中文世界里,微软小冰则于2017年出版了原创诗集《阳光失了玻璃窗》,被称作是人类历史上第一部100%由AI创造的诗集,并且微软小冰于2019年在北京进行了独立画展。AI的音乐创作也屡见不鲜,其创作水准也获得了业内人士的认可。

然而,艺术文学作品的创作毕竟不同于单纯的新闻写作,仅仅形似是不够的,艺术创作者和欣赏者历来强调“形神兼备”。也就是说,除了类型原真性外,欣赏者还要求作品具有精神原真性。显然,没有情感、经历和意识的AI并不具备提供精神原真性的条件。心理学家指出,心智认知(mind perception)包括两个方面:代理(agency)心智和体验(experience)心智。前者指的是行动、计划和自我控制的能力;而后者指的是感觉和感受的能力。[25]如果说今天的AI已经成功具备了代理心智的话,那么它无疑缺少体验心智。体验心智是艺术文学创作中不可或缺的条件。很难想象,没有母亲的AI如何能体会并表达出母爱的伟大,没有孤独感的AI如何能描绘出细微的孤寂感。

尽管AI在世人惊诧的目光中完成了艺术文学创作,但是读者是否会买账,进而形成与人类作品无异的感知与评价?为了回答这个问题,我们展开了一项跨国的比较研究。[26]在中国、美国、德国三国的受试者中,我们将同样的诗歌和绘画作品标注为人类创作和AI创作,让受试者完成阅读或欣赏之后对作品进行评价打分。如果仅仅就内容的类型原真性而言,无论是人类创作,还是AI创作,两者应该完全一样。但是作者的身份会有意无意带来受众对精神原真性的考量,进而产生不同的感知。结果也证实了这一点。美国受试者在内容质量、创作者能力、共情,以及分享意愿几个维度上对人类作品的评价都显著高于AI作品。就各个创作类型来说,他们认为人类诗人的能力显著高于AI诗人;而人类画家的绘画比AI画家的绘画更能引发共情。然而出乎意料的是,在中国和德国受试者中,结论却与之相反。中国受试者反而跟AI创作者产生了更多共情,在诗歌上尤其如此。而德国受试者则对AI创作的绘画产生更多共情,并更愿意分享出去。

如果说美国受试者的表现尚且在预期之内,那么中国和德国受试者的反应则出乎人意料之外。按照常理,因为AI没有体验心智,所以不论是其创作的诗歌还是绘画都毫无个人体验和情感的成分;也就是说,即便其类型原真性不被人质疑,其精神原真性应该是缺失的。然而从中德两国受试者的表现看来,精神原真性的缺失并没有导致对其感知评价的降低,反而更能激发受众的共情。这样看来,在AI创作的情境之下,内容原真性的影响也许并不大,反而可能是AI创作的新奇感更能带来正面的评价。当然,这个实验发生在号称“AI元年”的2016年的两年后(2018年),所以新技术带来的新奇感还未削减。当对AI的新奇感消退之后,这样的结果是否还会成立,还有一个很大的问号。也许那时,精神原真性的重要性才会逐渐凸显出来。

作为交流的原真性

自1956年达特茅斯会议诞生“人工智能”这个领域以来,AI技术已经经历了两轮春天与寒冬。当下最新的一轮AI技术借助数据、算法、算力三驾马车迅速崛起,然而囿于技术发展,目前尚处于弱AI阶段,即看似智能,却无自我意识和真正智能的AI技术。AI技术固然产生了许多基于语音图像识别及大数据机器学习算法的应用,然而能与人类发生稍有深度的交流的应用其实并不多。聊天机器人便是其中之一。以其中的翘楚微软小冰为例,在亚洲,它吸引了超过2亿的注册用户,平均与每个用户产生23轮对话,远远高于一般聊天机器人只能产生2轮聊天对话的水平,单次对话时长甚至能达到4小时。因为小冰的成功,微软陆续在日本、美国和印度推出当地语言的聊天机器人版本。然而这样的交流是不是真正的交流呢?

众所周知,目前的弱AI并不具有意识,不会产生道德判断,基于互联网大数据生成的对话片段不过是鹦鹉学舌。同时,因为聊天机器人算法基于马尔科夫链离散性原则,即在一个离散时间的随机过程中,只有当前的状态可以用来预测未来,过去的状态与未来无关,因此AI每轮对话都是独立的,机器人并不具备记忆,无法将当前的对话与之前的对话联系起来,因此形成割裂的情形。这样的人机交流并不具备连续性,自然也难以让人类对机器产生可预测感,进而形成相应的信任。因此人机交流看似具有一定长度和深度,实则仅仅是建立在新奇感之上的对机器人聊天边界的试探。

当然,还有一种可能的情形是“机器树洞”现象,也即是对着“树洞”倾诉衷肠的行为。这个“树洞”可以是有形的,可以是无形的,只要能带给倾诉者足够的安全感和信任感即可。1966年,世界上最早的聊天机器人ELIZA诞生于美国麻省理工学院,并被用于临床心理治疗。ELIZA显示出惊人的魅力,聊天者对它倾诉的深度达到令人咋舌的程度,以至于吓坏了其开发者约瑟夫·魏泽鲍姆(Joseph Weizenbaum),而将其关闭。今天更新换代后的聊天机器人们是否依然仅仅是在充当数字树洞的角色而已?

这样的可能性也在实证研究中得到了证实。在一个基于微信平台上的人机交流与人际交流的对比研究中,我们发现,当让毫不知情的第三方受试者依据同一个人与微软小冰的微信聊天记录和与人类朋友的微信聊天记录对此人进行人格评价,受试者会给出截然不同的评分。基于人际聊天记录,这个人展现出更符合社会期望的人格特征,即更外向、更宜人、更有开放心态、更有责任感,同时更少的神经质。然而当聊天对象变成了机器(微软小冰),同样一个人却变得更内向、更讨人厌、更封闭心态、更少责任感,也更神经质。[27]值得一提的是,在计算机辅助传播中常见的性格归类效应在人机传播中也儼然失效了。性格归类效应(gender categorization effect)指的是在以网络为中介的人际交流中,即使面对一个毫不知底细的陌生人,交流双方仍然能够通过对方的交谈话题、表达方式、感情流露等细节猜测出对方的性别;其准确率可以高达80%。[28]然而在这个研究中,尽管基于人际交流的聊天脚本猜测出聊天者性别的准确率达到68.98%,基于人机交流的聊天脚本猜测出性别的准确率却只有42.86%,这甚至低于随机猜测的50%的准确率。[29]

尽管关于人机交流与人际交流的对比证据仍需累积,但是目前的实证证据似乎已经展示了两者的不同。面对不会予以任何道德评判的机器,人类似乎可以“畅所欲言”,随性表达在人类社会中无法表达的情感和观点。在这样尚未建立起社交规范的人机交流处女地上进行的交流是不是真正的交流?抑或仅仅是树洞的机器翻版或数字翻版?我们期待后续的讨论。

结语:重新定义真实

从上述的讨论中我们看到,当AI成为一个新的传播者时,人类使用者对其原真性,或者更广义的真实性发生了相应的改变,不同于既往的人类社交场景。从信源的真实性来说,我们的问题从“传播者是否是如他/她所说的那个人?”变成了“传播者是否是如他/她/它所说的那个社交者(social actor)?”,以及“他/她/它具有多少人类的特征?”在信息的真实性维度上,问题从“所说的是否是真的?”变成了“信息有多形似人的信息?”,“信息有多神似人的信息?”,以及“相对人类的信息,信息在多大程度上原汁原味?”最后,从交流的真实性来看,问题便不再是“这是真的交流吗?”,而是“这样的交流与人与人的交流有多相似?”

瑞典学者Enli曾就不同类型的电视节目的原真性问题提出“原真性契约”(authenticity contract)的概念,指出电视节目制作者、观众、监督方在不同类型内容的编码与解码过程中遵循的符号性契约。[30]因此观众不会要求情景剧真实,却对真人秀有更高原真性要求。在智能媒体的使用场景中,这个原真性契约依然成立,也即内容提供者、观众/读者/用户、监督方在不同创作类型的编码与解码过程中就真实性所遵循的契约。换言之,不同的内容或交流场景下,人类用户对原真性的要求是不一致的。但是只要遵循信息生成者和接收者双方共同认定的契约,其原真性缺失带来的负面影响就会很大程度上被规避。因此,我们也许不必将真实简单地定义为是人或者不是人,而是多大程度上是人,多大程度上是机器,甚至是多大程度上反映出人的代理心智,多大程度上是体验心智等。智能传播场景下的真实不再是真与假的二元对立,而是一个从100%的人到100%的机器的谱系。

因为AI非人身份会带来不同的期待与认知,因而目前普遍的看法是需要强调AI身份的透明性,以加强其真实性。然而最近发表在《自然》杂志子刊上的研究对身份透明性的必要性发出质疑,文章表示人机合作中的透明原则可能会降低人机合作效率。[31]当然,以上讨论尚集中在AI新一轮发展之初。人类社会刚刚进入AI全面渗透的时代,对很多人而言,AI仍然是个新鲜事物。随着AI技术的进一步发展,也许在不久的将来,人机共生将会成为常态,人机界限变得模糊。届时,关于AI真实性的问题将不复存在。让我们拭目以待。

(本文系国家社科基金项目“国家人工智能战略下新闻传播产业创新研究”阶段性成果,项目编号:18BXW046)

注释

[1]《机器人“小冰”今天开画展》,新华网,2019年7月13日,http://www.bj.xinhuanet.com/bjyw/2019-07/13/c_1124748990.htm。

[2]童庆炳:《文学理论新编》,北京师范大学出版社,2016年。

[3]骆正林、温馨:《后真相时代“反转新闻”的传播机制及社会规治》,《传媒观察》,2019年第12期,第5~13页。

[4]牟怡:《从诠释到他异:AI媒体技术带来的社交与认知变革》,《上海师范大学学报》,2020年第1期,第95~104页。

[5]Livingstone, S., "If everything is mediated, what is distinctive about the field of communication?", International of Journal of Communication, 2011, p. 5.

[6]Popova, L., "Perceived reality of media messages: Concept explication and testing", University of California, Santa Barbara, 2010.

[7]Enli, G., Mediated authenticity: How the media constructs reality, Oxford: Peter Lang, 2015.

[8]Carroll, G. R.and Wheaton, D. R., "The organizational construction of authenticity: An examination of contemporary food and dining in the U.S.", Research in Organizational Behavior, 2009, 29, pp. 255–282.

[9]Lee, E.-J., "Authenticity model of (mass-oriented) computer-mediated communication: Conceptual explorations and testable propositions", Journal of Computer-Mediated Communication, in press.

[10]Kelion, L., "Bots now 'account for 61% of web traffic'", Retrieved from http://www.bbc.com/news/technology-25346235.

[11]Morstatter, F., Carley, K.M.and Liu, H., "Bot Detection in Social Media: Networks, Behavior and Evaluation", Available at https://isi.edu/~fredmors/bottutorial/Tutorial.pdf; Munson, L., "Facebook: At Least 67 Million Accounts Are Fake.SOPHOS", Available at https://nakedsecurity.sophos.com/2014/02/10/facebook-at-least-67-million-accounts-are-fake/.

[12]Clark, E.M., Williams, J.R., Jones, C.A., Galbraith, R.A., Danforth, C.M. and Dodds, "P.S. Sifting Robotic from Organic Text: A Natural Language Approach for Detecting Automation on Twitter", Journal of Computational Science, vol.16, 2016, pp. 1-7.

[13]Grimme, C., Preuss, M., Adam, L.and Trautmann, H., "Social Bots: Human-Like by Means of Human Control?", Big data, vol.5(4), 2017, pp. 279-293.

[14]Marechal, N., "When Bots Tweet: Toward a Normative Framework for Bots on Social Networking Sites", International Journal of Communication, vol.10(10), 2016, pp. 5022-5031.

[15]Morstatter, F., Carley, K.M. and Liu, H., "Bot Detection in Social Media: Networks, Behavior and Evaluation", Available at https://isi.edu/~fredmors/bottutorial/Tutorial.pdf.

[16][17]張洪忠、段泽宁、杨慧芸:《政治机器人在社交媒体空间的舆论干预分析》,《新闻界》,2019年第9期,第17~25页。

[18]Rahwan I, Cebrian M, Obradovich N, et al., "Machine behavior", Nature, 2019, 568(7753), p. 477.

[19]牟怡:《传播的进化:人工智能将如何重塑人类的交流》,北京:清华大学出版社,2017年。

[20]邓建国:《机器人新闻:原理、风险和影响》,《新闻记者》,2016年第9期,第10~17页。

[21]Pressman, L., "The automated future of journalism", Retrieved from https://automatedinsights.com/blog/the-automated-future-of-journalism/, 2017, February 28.

[22]张志安、刘杰:《AI与新闻业:技术驱动与价值反思》,《新闻与写作》,2017年第11期,第4~9页。

[23]van der Kaa, H.and Krahmer, E., "Journalist Versus News Consumer: The Perceived Credibility of Machine Written News", The Computation + Journalism Symposium, New York: Columbia University, 2014.

[24]Edwards, C., Edwards, A., Spence, P. R. and Shelton, A. K., "Is that a Bot Running the Social Media Feed? Testing the Differences in Perceptions of Communication Quality for a Human Agent and a Bot Agent on Twitter", Computers in Human Behavior, 33 (2014), pp. 372-376.

[25]Gray, K.and Wegner, D. M., "Feeling robots and human zombies: Mind perception and the uncanny valley", Cognition, 2012 (125), pp. 125–130.

[26]牟怡、夏凯、Ekaterina Novozhilova、许坤:《人工智能创作内容的信息加工与态度认知——基于信息双重加工理论的实验研究》,《新闻大学》,2019年第8期,第30~43页。Wu, Y., Mou, Y., Li, Z.and Xu, K., "Investigating American and Chinese Subjects' Explicit and Implicit Perceptions of AI-Generated Artistic Work", Computers in Human Behavior,  2020.

[27]Mou, Y.and Xu, K., "The Media Inequality: Comparing the Initial Human-human and Human-AI Social Interactions", Computers in Human Behavior, 2017(72), pp. 432-440.

[28]Koppel, M., Argamon, S.and Shimoni, A. R., "Automatically categorizing written texts by author gender", Literary and Linguistic Computing, 2002, 17(4), pp. 401–412.

[29]Mou, Y., Xu, K.and Xia, K., "Unpacking the Black Box: Examining the (de)Gender Categorization Effect in Human-Machine Communication", Computers in Human Behavior, 2019(90), pp. 380-387.

[30]Enli, G., Mediated authenticity: How the media constructs reality, Oxford: Peter Lang, 2015.

[31]Ishowo-Oloko, F. et al., "Behavioural evidence for a transparency-efficiency tradeoff in human-machine cooperation", Nature Machine Intelligence, 2019(1), pp. 517–521.

責 编/马冰莹

猜你喜欢

真实
对小学作文教学的探究
美剧情节越来越“真实”