逻辑、发现与局限:近五年来智媒研究的六种算法话语
2022-04-25师文陈昌凤吕宇翔
师文 陈昌凤 吕宇翔
【摘要】虽然算法作为科学术语的内涵相对确定,但算法在与新闻传播学界发生交涉的过程中延展出一系列丰富的外延。在智能媒体研究经历了数年蓬勃发展之际,为理解算法研究各方向的分歧所在,促进不同研究路径之间的对话,文章试图剖析多元算法研究视角所依托的迥然不同的算法定义,采用话语研究视角,分析不同研究对算法持有的观念及其相应的支撑逻辑。在综述十九大以来智能媒体研究的基础上,探究学术界开展算法研究的认识论基础。党的十九大以来,学术界围绕算法形成的话语被归为六类——算法是工具、算法是规则、算法是权力、算法是主体、算法是想象、算法是价值表达,不同话语的逻辑、关键发现、进步性与局限性也得到具体诠释。
【关键词】智能媒体 算法研究 数字新闻学 计算传播
【中图分类号】G206 【文献标识码】A 【文章编号】1003-6687(2022)4-082-08
【DOI】 10.13786/j.cnki.cn14-1066/g2.2022.4.010
算法一词脱胎于计算机科学,其被定义为解决问题的一套逻辑,可以对特定的输入进行处理,获得符合预期的输出,是自动执行人类意志的计算工具。当算法进入新闻传播学学科后,其指代范畴走向窄化,特指机器学习或深度学习的人工智能算法,典型代表是个性化新闻推荐算法、机器人写作算法等。虽然算法作为科学术语的内涵相对确定,但算法在与新闻传播学界发生交涉的过程中,还拓展出一系列丰富的外延。算法作为限定词与新闻传播领域的原生概念相互耦合,产生了算法新闻、算法传播、算法治理、算法伦理等一系列术语。与此同时,学术界探讨算法的角度也在持续拓展,学者们既关注算法在新闻传播领域的功能性延展,也触及算法对现实社会的逻辑性影响;既对新闻生产、传播环境、社会秩序中的算法进行实证评估,也从权力、伦理、技术哲学角度对其展开思辨反思。
多元的算法研究视角源于对算法迥然不同的理解,这固然使智能媒体研究领域积累了大量的成果,但也导致不同研究的立场、观点和判断大相径庭,甚至相互矛盾。在智能媒体研究经历了数年蓬勃发展之际,有必要理解算法研究各方向的分歧所在,促进不同研究路徑之间的对话。这就要求厘清算法在新闻传播语境下生发出的丰富外延,区分不同研究所依循的算法定义。
对新闻传播学视角下的算法外延进行界定是一件困难的事情。鉴于此处讨论的算法已不再是一个纯粹的技术概念,其含义随着算法应用的社会场景及学术思潮的迭代而处于动态变化中,采用自然科学界所推崇的本质主义视角回应算法是什么显得力有不逮。因此,本研究放弃本质主义视角,采用话语研究的视角,探究不同研究对算法持有的观念,即算法在不同的语境下被视作什么及其相应的支撑逻辑。[1]基于话语研究的思路,本文对过去五年的国内外算法研究进行爬梳,将算法话语归为六大类别,分别是算法是工具、算法是规则、算法是权力、算法是主体、算法是想象、算法是价值表达。
一、算法是工具
在计算机学科中,算法被简单地理解为自动执行逻辑的工具。新闻传播学科与计算机学科对算法研究的兴趣点存在较大差异,其不关注提升算法功能的技术创新,也鲜少用各类量化指标测评算法的效能,但计算机科学将算法视为工具的思路仍然在许多新闻传播学研究中得到承袭。在这类研究中,算法被视作智能化实现类人决策的工具,是人类智能的简单替代,被用于满足算法设计者、使用者或服务者的期待。
在算法最初进入新闻传播业时,算法是工具的视角指导了大量对于算法的思考,这类研究的代表是算法辅助新闻生产,即关注算法如何辅助人类进行新闻采集、写作、分发、播报、核查,其回应的是算法对新闻传播业的功能性渗透。这些研究侧重关注算法的形式、性能和交互如何被精心设计,以使其更完美地执行人类的预期目标。对新闻从业者的访谈也佐证了这一点,他们面对计算机辅助新闻生产技术表现出主导者心态,认为算法应被用于解放新闻工作者,而不是领导新闻工作者。[2]研究还发现,媒介组织可以选择适合其组织业务模式的个性化推荐算法,这一选择空间表明了媒介组织在使用算法工具时的主导性,算法甚至不是媒介组织赖以满足用户需求的工具,而是媒介组织选择出来的管理其用户需求的工具。[3]
即便许多研究未直接聚焦于算法辅助新闻生产,其研究内核也是建立在算法是工具的逻辑之上。如大量研究围绕算法效果展开,关注新闻推荐算法、自动化新闻写作算法可以在多大程度上获得读者的认可、信任,特别是与编辑推荐、记者写作相比较,这类研究虽然依托于社会场景展开,但在逻辑上与计算机学科实行的算法效果评估并无二致,核心关切仍在于算法在何种程度上能满足对人类的工具性替代。算法对信息环境影响的相关研究也与之类似,其关注算法对于信息极化、选择性接触的影响,[4][5]在某种意义上是探究算法作为一种信息分发工具是否以一种符合预期的方式履行信息分发职能,以期对可能出现的功能性偏差进行修正管理。
算法是工具的话语意味着研究者将算法视为被人类所掌控、操纵的自动化工具,反映了工具理性的潜意识。算法是工具的视角回应了算法被引入新闻传播业的最基本功能,可以推进更高效、精准的算法实践。但该视角的局限性也较为明显,当算法作为新时代的基础技术设施融入社会生活时,其与社会的互动并非仅是工具性的,而是在社会文化土壤中与既有社会存在发生大量意义层面的交互。换言之,算法不仅是客体性或直观性的形式,更是应接受意义解读的实践。[6]从这个维度上讲,算法是工具的话语对复杂算法实践的解释力十分有限,只能被视作探究算法与新闻传播业交互关系的起点。
二、算法是规则
算法是规则的话语比算法是工具的视角更进一步,其意识到算法不仅在形式上成为新闻传播实践的部分流程,也参与塑造了实践的内在逻辑。如在信息分发环节,人工智能由于催生了新的社会能见度控制机制,[7]成为支配智能时代信息生产传播的新规则。算法的影响未必局限于特定的科技公司或平台,鉴于处于主导地位的机构所制定的算法会引起行业范围内的效仿,算法规则甚至可以从个别组织延伸至整个行业,参与塑造更具共同性的规则。[8]
算法是規则的一个重要表现是,新闻生产者和新闻消费者对新闻规则的掌控力正逐渐降低。一项研究发现,被算法归类为对新闻或政治感兴趣的用户更可能在信息流中看到这类新闻——即使这超出了他们自我报告的个人兴趣。[9]对于新闻从业者而言,算法将新闻的构成分解为文章的排列,这使他们的使命感受到威胁。[10]新闻媒体正为适应算法规则做出调整,由于社交媒体信息推荐算法看重用户参与度,媒体的内容投放越来越“软化”;[11]为适应搜索引擎优化(SEO)规则,提升新闻在搜索引擎中的检索排名,新闻编辑室的内容编写逻辑遵循搜索引擎(而非人类)的规则,自动化标题写作技术的引入也重新协调了人机之间的协作关系,区分了适合机器承担的基于规则的角色和人类承担的基于知识的角色。[12]
算法的规则可能以隐蔽、不对称的方式存在。有研究者分析了Instagram平台关于“影子禁令”(即对特定用户或帖子的可见性进行降级)是否存在的解释,认为算法持有者可以借助扑朔迷离的规则解释和实现对用户的操纵,即平台的算法解释在用户心中具有权威性,而平台利用这一信息不对称性,破坏用户对于算法知识的自信,并消解其批评的可信性,使平台在与用户开展认知竞赛时处于优势地位。[13]
当然,算法的规则并非以一种单向的方式作用于用户,用户未曾放弃适应与利用算法规则。研究发现,面对算法呈现的规则系统,用户可以积极地寻找策略以实现算法使用过程中的利益最大化。一项针对打车平台的调查研究发现,用户能动地采用优化获益、降低风险、确定规则边界、尝试跨平台、形成启发式原则五种方法作为消费策略,实现个人算法使用的最优效果。[14]面对搜索引擎算法提供的检索结果,用户能进行信息接触方面的抉择,以保持其与个人先前的信念一致,从而消解算法的影响。[15]算法本身也成为协助用户掌握算法分发机制的助力,如一个名为Hootsuite的算法帮助其使用者决定何时发送推文可获得用户最大的关注,这使得用户在不了解分发算法运作机理的情况下适应算法生态。[13]不过,用户积极的应对策略未必能在真正意义上帮其获得与平台相对的优势。在YouTube平台上,面对平台算法“黑箱”带来的信息不对称,有部分YouTube用户声称其理解算法是如何工作的,并向其他创作者传授如何更好地适应YouTube的算法系统。但研究者认为,虽然这种操作看似在为创作者提供策略支持,但其最终结果是使平台在劳动和内容方面受益。[16]
算法是规则这一话语的逻辑在于,算法并非仅充当着信息传播的渠道或工具,而是成为传播过程中新的中介机制,对信息传播的规则乃至社会关系起到调节作用。[17]算法本就是规范化的社会规则在技术领域的延伸,考虑到算法的形成还需接受技术专家、计算对象和算法逻辑等多重作用,算法在构建数字景观的过程中还可能对原有的社会规则进行再书写。[18]
三、算法是权力
算法以匹配、调节与控制等方式塑造了事物之间的关系,并由此获取权力。[19]对于新闻传播业而言,算法对新闻传播活动的介入推动了传播权力的迁移。[20]智能媒体对技术的高需求有利于科技巨头承包属于媒体机构的业务,掌握新闻分发渠道,[21]传统的新闻生产机构和掌握技术的新兴平台围绕传播效果进行争夺。[22]许多关于算法透明性的讨论也建立在算法是权力这一隐喻之上,认为算法使传播的过程后台化,“黑箱”反过来加剧了算法科学的崇高化,使信息生产与分发的流程超越了外部监督的范畴。
新信息传播秩序的形成也围绕算法展开。对搜索引擎查询结果的研究发现,虽然群体对其检索词各有偏好,但搜索引擎倾向于向他们反馈相似的检索结果,这表现出主流化效果。[23]用户的算法素养差异使算法无法为各个群体进行平等的赋权。[24]算法相关的接入鸿沟、使用鸿沟和内容鸿沟影响用户获取信息的机会。[25]
算法权力的另一种表现形式是通过个人信息商品化加剧公众与科技巨头、国家之间的地位差异,使公共权力被让渡至技术和数据巨头手中。监视资本主义是Zuboff在2015年提出的概念,指由于数据可被用于分析、预测和影响个人行为,科技巨头收集大量个人数据并将其商品化、产品化以谋取利益。[26]亚马逊公司所提供的门铃、传感器等智能服务也被视作将数字监控基础设施作为牟利工具的不正当行为。
虽然此前监视资本主义的相关指控主要指向科技公司,但随着智能算法被越来越多地应用于公共服务,该概念也被应用于对国家行为的分析。大数据驱动的智能治理将扩大国家与个人间的信息不对等,个人置身于智能化的超级全景监狱中。[27][28]研究者发现,智能应用反映了设计者的价值观,在程序化交互中贯彻欧洲中心主义,这都呈现了智能应用的殖民性。[29]
但算法的权力并非单向的、支配性的。用户已经进行了大量的抵抗算法权力的实践。为对抗人工智能的技术监视,CV Dazzle活动鼓吹以策略化的化妆术阻碍人脸识别算法的运作,以激发对智能技术的反思意识。[30]相比之下,一种更具建设性的抵抗方式是,用户积极地参与干预、塑造算法的过程,以修补算法中的不足。如一位名为Johanna Burai的用户在检索手的图片时,发现算法反馈的结果都是白人的手部图片,因而意识到算法中存在种族偏见。她策略性地设计了一个提供非白人手部图片的下载网站,辅之以针对新闻媒体的宣传活动,最终将自己发布的图片跃升到图片搜索的热门结果中。[31]虽然这一实践不具备普遍推广的可行性,但其为研究算法提供了新的框架,因为这意味着在用户与算法的关系中,用户并不完全是无力的围观者,其可以政治、商业等方式策略性地参与算法塑造。
传播本就是一种权力,其可以通过信息呈现和意义赋予,在构建社会现实的过程中发挥关键作用。算法是权力的话语可被看作这一思想在智能时代的延续。算法技术的普及使越来越多的信息分发决策权从人类让渡至算法、从传统媒体机构让渡至科技公司。鉴于算法是科技力量和数据所有者的代言人,该权力迁移势必推动传统意义上个人、媒体、商业、国家之间的力量对比发生变化,形成一套以算法权力为标尺的新信息传播格局。
四、算法是主体
与其他技术不同,算法所具有的智能属性使其更接近类人的智能实体,算法与人类之间差异的缩小乃至边界的模糊,为挑战传统新闻传播实践的元逻辑提供了契机。媒介技术哲学认为,人工智能算法应被理解成一种人机混合物,其捕获人的认知、嵌入自身,而非简单地再现人类智慧。[32]从实践层面展开的思考与之不谋而合,认为传统的人—机二元对立划分对现实的解释力正在下降,人与算法发生的多重复杂互动呼吁以人—机混合体的视角审视算法的功能。[33]在新闻生产领域,主体性的反思因此产生,有学者提出媒介技术与人在广义新闻生产的微观过程中共同构成了一个媒介网络,[34]算法作为动态行动者网络中的非人类行动者,可以成为改变事物状态的非人要素。[35]
即便跳脱出新闻生产的语境,也可以发现智能算法正在消解建立在人类中心主义之上的传统传播观念。[36]在智能技术出现之前,机器因缺乏交流性被视为传播的中介,而非适格的交流主体。但人工智能技术使机器更具智能性,人机之间的边界变得模糊。在機器设计的过程中,人类将社会文化意义嵌入其中,[37]赋予其成为超越工具的社交角色的潜力。人类用户在与机器进行互动时,也会不自觉地将其拟人化,将其视作一个有意识的生命体,并产生与其他人类交往时类似的情感。[38]在社交媒体上,由计算机软件操纵的自动化账户——社交机器人可以像人类一样发布内容、开展互动,研究证实这些机器人有足够强的欺骗性,能够诱发人类用户主动与之互动。[39]以上现象表明,机器正在以传播者的姿态进入传统意义上仅出现在人类之间的人际传播、群体传播和大众传播领域。
为回应传播生态中出现的新型主体,传播学界在此前人机交互的基础上提出人机传播概念,以对新媒介环境下的传播主体进行再定义。人机传播理论认为,人与技术之间的本体论鸿沟并非不可跨越,在智能媒体生态下,机器不仅仅是交流的工具或中介,其本身也具有能动的交流性,其不仅可以完成传播的基本过程,也可与人类产生关系层面的交互意义。人类对机器的理解、与机器关系的建构、与机器之间的边界应成为未来人机交流研究的要点。[40]
人机之间产生的具有社会意义的关系是将算法视作主体的重要依据。[41]在电子游戏中,人们会通过各种文化想象将作为技术他者的虚拟玩家拟人化,与这些角色的互动会影响玩家的线下人际关系,从而模糊人类与非人类、现实与虚拟之间的界限。[42]也有研究注意到,在团队沟通的任务属性和关系属性中,社交机器人越来越侧重于承担起关系类功能,其可以通过提供社会情感化的、个人化的响应促进团队中的关系型沟通。[43]事实上,近年来有大量研究从情感维度探究人机之间的关系,如探究算法信息审查相比人工信息审查是否能带来公平感[43]、透明感[44]。此外,还围绕信任感[45]、孤独感[46][47]乃至算法的情商等问题进行探讨。[48]这些研究共同的潜台词是,人们对算法的期待不仅限于被使用的物品或工具,还将其拟人化为可能满足自身关系需求的互动者、交流者。
算法是主体的话语首次将算法从物的高度提升至类似人的高度,不论是对传统的新闻传播研究,还是对算法研究,都具有较大的颠覆意义。该话语的前瞻性在于其直面人工智能的终极目标——使算法像人一样进行决策,并将这一目标作为思考的前提,思考算法与人之间的边界及关系问题。虽然当前的算法与具有类人智慧的强人工智能间差距尚远,但大量算法应用已将类人作为产品定位,反思类人算法为新闻传播业元逻辑带来的变化,具有实践和理论层面的必要性。
五、算法是想象
如果说上述话语对算法的机制、效果和功能的关注均是从算法本位的角度展开的,那么作为想象的算法则转而使用用户本位的视角理解算法。在这一视角下,算法并非仅凭借其客观形态而存在,其同时也是一种具备解读空间的可写文本,用户针对算法形成的个人化理解与想象是该视角的核心关切。
一种对算法想象的关注侧重用户对算法的理解在多大程度上符合事实。与媒介素养的逻辑类似,算法素养这一概念被发展出来以评估用户的算法意识和算法知识在多大程度上与客观事实相符。其中,算法意识指用户意识到算法存在于环境之中,包括了解算法可以实现何种功能、算法实际被用于何种场景;算法知识指用户理解算法的运作机理,包括算法提供的个性化信息服务、算法的种类、算法对信息环境施加的影响。[49]
作为算法素养的首要构成要素,算法意识引起了特别的关注。对算法意识的聚类分析发现,其可以分为无意识、不确定、确定、中立、怀疑和批判六种,算法意识的差异可以影响人们对算法应用的使用态度,是否具有足够的算法意识也被视作一种新兴的数字鸿沟。[50]对一个名为Instawareness的视觉反馈工具的效果测验发现,其可以有效提升用户算法素养和对算法的反思。该研究的启示在于,尚不论提升算法认知,仅提升算法意识,即可引起用户对算法的批判性关注。[51]
大量研究已经不再试图比较用户对算法的理解与客观事实,而是聚焦用户对算法的主观感受,即主观看法、想象和非专业解释理论。如有研究者要求用户从其个人账户中查看算法为其生成的画像文件,以研究当用户面对算法画像时作何感想。[52]也有研究立足于受众立场,了解其如何、何时接受或拒绝来自算法的建议。[53]“算法厌恶”和“算法欣赏”正被用作解释用户算法使用行为的视角,即关注为什么人们厌恶或偏爱算法或为何偏好或厌恶某一种算法。[53]
对算法的想象不仅来自个人层面,更是一种持久的、集体的社会技术想象。视频博主会共享彼此对YouTube算法规则的理解,共同形成对算法的集体感知,[54]用户在感知算法的过程中甚至还会进行拟人化的文化意义解读。[55]在公共视野中,社会不同行动者对算法提出的差异化定义促成了社会技术想象的生成,经过权力机关的协商、裁定,某种特定的想象被凸显出来,并得以稳定和制度化。[56]
需要补充的是,在研究用户对算法的主观诠释时,算法想象和算法民间理论常被用作理论资源,但二者的侧重点有细微的差别。算法想象主要关注人类如何思考算法是什么、算法应该是什么、算法如何运行,以及上述观点如何在塑造算法的过程中发挥生成性作用。[57]民间理论最初关注的是人们如何在日常经验中直觉式地理解媒介运作方式,并形成一定的模型或原则。[58]在被引入算法研究领域之后,民间理论被用于解释公众虽然并不清楚算法运作的内部原理,却基于个人经验形成了对算法如何运作的直觉式理解,以一种非专业的方式分析算法的后果及效果。民间理论不仅在指导用户行为方面具有意义,而且在理解实践、产生推理方面也发挥作用。[59]
算法是想象的话语对思考算法问题有两点启发。其一,该话语通过关注人类面对算法时的主观理解,超越了在客观维度上对算法展开的探寻,转而采用以人为主的视角关注算法的社会意义,强调人并非被动接受算法支配,而是积极的算法诠释者、适应者和使用者,这一视角有助于在现实层面理解用户、算法和平台之间兼具支配性与对抗性的复杂共生关系。其二,算法是想象话语中所关注的人,并非洞察算法规则、拥有知识特权的技术精英,而是算法素养参差不齐的普罗大众。通过正视普通用户的主观算法想象,该话语不再仅将算法理解为知识精英缔造的由上至下的科学神话,而是将其看作可供解读的有机意义空间,[60]这一视角赋予算法草根解读以正当性,展现了算法实践中文化性、抗争性的一面。
六、算法是价值表达
算法虽因科学技术的加持而看似中立、崇高,但其实际上脱胎于特定的社会文化土壤。作为人类逻辑的延伸,算法承载着丰富的价值表达。一方面,算法本身即包含内在的价值偏向。算法内在的价值偏向可能源于算法产品的定位策略,如从业者认为新闻推荐算法是新闻编辑室编辑活动的延伸,因此应将新闻机构的价值观整合进智能算法应用的设计中。算法价值还可能来自数据标注环节、[61]算法逻辑设计的无意识偏差。[62]另一方面,算法可能被其使用者用于非价值中立的场景中。如除了进行事实层面的判断,算法还可能被用于进行道德决策,[63]或像“深度伪造”一样,用于实现非正义的欺骗效果。
然而,上述针对算法价值偏向的批判性审视并不意味着否认算法价值表达的正当性。恰恰相反,对近年来国内媒体上算法相关讨论的观察发现,价值表达正超越价值无涉成为对算法的期待。[64]在算法逐渐成为公共服务基础设施的背景下,算法不仅应追求技术性能上的卓越,也应实现伦理价值层面的无暇。[65]欧盟发布的《关于可信赖人工智能的伦理准则》[66]规定了透明性、非歧视性等一系列价值原则,这正视了算法作为价值表达载体的角色,并试图对其进行伦理层面的规范。在这一语境下,算法向善、制作道德的人工智能体、人工智能造福社会等议题正成为引导算法价值表达的新方向。
将算法视作价值表达并对其进行规范的愿景面临若干现实难题。从算法伦理体系来看,一系列价值原则(慈善性、非恶意性、自主性、公正性和可解释性)彼此纠缠,对于多重利益相关者的权衡更使各伦理原则之间的冲突难以调和。[66]从算法设计实践来看,算法系统的道德责任较为分散,工程师和决策者均无法独自为算法的道德状况负责,[67]特别是当前工程师普遍缺乏伦理意识。[68]从监督机制来看,人工智能是参数复杂的“黑箱”,随新的数据注入一直处在持续动态发展中,即使对于专家也无法做到透明,这使其无法充分地被外界监管。
结语
本研究采用话语研究视角,分析近五年来学术界围绕算法形成的多种话语。在综述既有的智能媒体研究的基础上,本研究以一种较为中立的立场归纳出算法是工具、算法是规则、算法是权力等六种话语,并对不同话语的语境、逻辑进行诠释。
虽然算法在当代社会中的渗透已经十分深入、广泛,但人类社会对算法的理解、适应尚处于起步阶段,这意味着新闻传播学视野下的算法意涵及学术实践正处在不断发展之中。学术界在探究算法的运作、影响及规制等问题之余,也要时刻以更宏观的视角反思算法研究背后所依托的认识论基础,通过观察话语之间的承袭、发展、对抗关系,获得对算法更辩证的理解。需要指出的是,这些围绕算法形成的话语并无对错之分,只是学者们多元的研究语境在算法理解上产生的差异化投射,它们共同构成了新闻传播学视野中复杂、立体、动态的算法。
参考文献:
[1] 刘海龙. 大众传播理论:范式与流派[M]. 北京: 中国人民大学出版社,2008:4-5.
[2] Milosavljevi M, Vobi I. Our task is to demystify fears: Analysing newsroom management of automation in journalism[J]. Journalism, 2019, 22(9): 2203-2221.
[3] Bodó B. Selling News to Audiences-A Qualitative Inquiry into the Emerging Logics of Algorithmic News Personalization in European Quality News Media[J]. Digital Journalism, 2019,7(8): 1054-1075.
[4] Shmargad Y, Klar S. Sorting the News: How Ranking by Popularity Polarizes Our Politics[J]. Political Communication, 2020, 37(3): 423-446.
[5] 楊洸,佘佳玲. 新闻算法推荐的信息可见性、用户主动性与信息茧房效应:算法与用户互动的视角[J]. 新闻大学,2020(2):102-118,123.
[6] 陈卫星. 智能传播的认识论挑战[J]. 国际新闻界,2021(9):6-24.
[7] 郭小平,潘陈青. 智能传播的“新社会能见度”控制:要素、机制及其风险[J]. 现代传播,2021(9):1-6.
[8] Caplan R, Boyd D. Isomorphism through algorithms: Institutional dependencies in the case of Facebook[EB/OL].[2022-04-01]. Big Data & Society, https://doi.org/10.1177/2053951718757253.
[9] Thorson K, Cotter K, Medeiros M, et al. Algorithmic inference, political interest, and exposure to news and politics on Facebook[J]. Information, Communication & Society,2021, 24(2): 183-200.
[10] Schjøtt Hansen A,Hartley·J.M. Designing What's News: An Ethnography of a Personalization Algorithm and the Data-Driven (Re)Assembling of the News[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.1988861.
[11] Lamot K. What the Metrics Say. The Softening of News on the Facebook Pages of Mainstream Media Outlets[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.1974917.
[12] Stenbom A, Wiggberg M, Norlund T. Exploring Communicative AI: Reflections from a Swedish Newsroom[EB/OL].[2022-04-01]. Digital Journalism, https://doi.org/10.1080/21670811.2021.2007781.
[13] Billard·T.J. Deciding what's (sharable) news: Social movement organizations as curating actors in the political information system[EB/OL].[2022-04-01]. Communication Monographs,https://doi.org/10.1080/03637751.2021.1999998.
[14] Ramizo G. Platform playbook: a typology of consumer strategies against algorithmic control in digital platforms [EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.1897151.
[15] Slechten L, Courtois C, Coenen L, et al. Adapting the Selective Exposure Perspective to Algorithmically Governed Platforms: The Case of Google Search[EB/OL].[2022-04-01]. Communication Research, https://doi.org/10.1177/00936502211012154.
[16] MacDonald·T.W. "How it actually works": Algorithmic lore videos as market devices[EB/OL].[2022-04-01]. New Media & Society, https://doi.org/10.1177/14614448211021404.
[17] Jakesch M, French M, Ma X, et al. AI-Mediated Communication: How the Perception that Profile Text was Written by AI Affects Trustworthiness[C].Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 2019: 1-13.
[18] Masso A, Kasapoglu T. Understanding power positions in a new digital landscape: perceptions of Syrian refugees and data experts on relocation algorithm[J]. Information, Communication & Society,2020, 23(8): 1203-1219.
[19] 彭蘭. 生存、认知、关系:算法将如何改变我们[J]. 新闻界,2021(3):45-53.
[20] 陈昌凤,霍婕. 权力迁移与关系重构:新闻媒体与社交平台的合作转型[J]. 新闻与写作,2018(4):5.
[21] 仇筠茜,陈昌凤. 黑箱:人工智能技术与新闻生产格局嬗变[J]. 新闻界,2018(1):28-34.
[22] 张志安,周嘉琳. 基于算法正当性的话语建构与传播权力重构研究[J]. 现代传播,2019(1):30-36,41.
[23] Trielli D, Diakopoulos N. Partisan search behavior and Google results in the 2018 US midterm elections[J]. Information, Communication & Society, 2020,25(1): 145-161.
[24] 聂静虹,宋甲子. 泛化与偏见:算法推荐与健康知识环境的构建研究——以今日头条为例[J]. 新闻与传播研究,2020(9):23-42,126.
[25] 杨洸,佘佳玲. 算法新闻用户的数字鸿沟:表现及影响[J]. 现代传播,2020(4):145-154.
[26] Zuboff S. Big other: Surveillance Capitalism and the Prospects of an Information Civilization[J]. Journal of Information Technology, 2015, 30(1): 75-89.
[27] 尚帅. 传播的兴趣偏向和浑然不觉的符号暴力——基于《今日头条》的算法控制研究[J]. 现代传播,2018(10):58-62.
[28] Jørgensen·R.F. Data and rights in the digital welfare state: the case of Denmark[EB/OL].[2022-04-01]. Information, Communication & Society,https://doi.org/10.1080/1369118X.2021.1934069.
[29] Madianou M. Nonhuman humanitarianism: when "AI for good" can be harmful[J]. Information, Communication & Society, 2021, 24(6): 850-868.
[30] Kazansky B, Milan S. "Bodies not templates": Contesting dominant algorithmic imaginaries[J]. New Media & Society,2021, 23(2): 363-381.
[31] Velkova J, Kaun A. Algorithmic resistance: media practices and the politics of repair[J]. Information, Communication & Society, 2021, 24(4): 523-540.
[32] Cwerman-Thibault H, Sahel·J.A, Corral-Debrinski M. Mitochondrial medicine: to a new era of gene therapy for mitochondrial DNA mutations[J]. Journal of Inherited Metabolic Disease,2011, 34(2): 327-344.
[33] 毛湛文,孫曌闻. 从“算法神话”到“算法调节”:新闻透明性原则在算法分发平台的实践限度研究[J]. 国际新闻界,2020(7):6-25.
[34] 吴璟薇,郝洁. 智能新闻生产:媒介网络、双重的人及关系主体的重建[J]. 国际新闻界,2021(2):78-97.
[35] 徐笛. 算法实践中的多义与转义:以新闻推荐算法为例[J]. 新闻大学,2019(12):39-49,120.
[36] 甘莅豪,刘欣雨. 维基百科机器人群体性编纂过程中的知识与话语权研究[J]. 新闻大学,2021(10):76-93,120.
[37] Humphry J, Chesher C. Preparing for smart voice assistants: Cultural histories and media innovations[J]. New Media & Society, 2020,23(7): 1971-1988.
[38] Küster D, Swiderska A, Gunkel D. I saw it on YouTube! How online videos shape perceptions of mind, morality, and fears about robots[J]. New Media & Society, 2020,23(11): 3312-3331.
[39] 师文,陈昌凤. 分布与互动模式:社交机器人操纵Twitter上的中国议题研究[J]. 国际新闻界,2020(5):61-80.
[40] Guzman·A.L, Lewis·S.C. Artificial intelligence and communication: A Human-Machine Communication research agenda[J]. New Media & Society, 2020, 22(1): 70-86.
[41] Spence·P.R. Searching for questions, original thoughts, or advancing theory: Human-machine communication[J]. Elsevier, 2019(90): 285-287.
[42] Coanda I, Auper S. Post-human encounters: Humanising the technological Other in videogames[J]. New Media & Society, 2020, 23(5): 1236-1256.
[43] Wojcieszak M, Thakur A, Ferreira Gonçalves·J.F, et al. Can AI Enhance People's Support for Online Moderation and Their Openness to Dissimilar Political Views?[J]. Journal of Computer-Mediated Communication, 2021, 26(4): 223-243.
[44] Gonçalves J,Weber I,Masullo·G.M,et al. Common sense or censorship: How algorithmic moderators and message type influence perceptions of online content deletion[EB/OL].[2022-04-01]. New Media & Society, https://doi.org/10.1177/14614448211032310.
[45] Liu B. In AI We Trust? Effects of Agency Locus and Transparency on Uncertainty Reduction in Human-AI Interaction[J]. Journal of Computer-Mediated Communication,2021, 26(6): 384-402.
[46] 宣長春,颜远绅,朱怡佳. 寒冷的时候更爱你:消费者对拟人化产品态度的实证研究[J]. 新闻大学,2021(11):92-104,124-125.
[47] 韩秀,张洪忠,何康,等. 媒介依赖的遮掩效应:用户与社交机器人的准社会交往程度越高越感到孤独吗?[J]. 国际新闻界,2021(9):25-48.
[48] Lou C,Kang H, Tse·C.H. Bots vs humans: how schema congruity, contingency-based interactivity, and sympathy influence consumer perceptions and patronage intentions[EB/OL].[2022-04-01]. International Journal of Advertising, https://doi.org/10.1080/02650487.2021.1951510.
[49] Dogruel L, Masur P, Joeckel S. Development and validation of an algorithm literacy scale for Internet users[EB/OL].[2022-04-01]. Communication Methods and Measures, https://doi.org/10.1080/19312458.2021.1968361.
[50] Gran A-B, Booth P, Bucher T. To be or not to be algorithm aware: a question of a new digital divide?[J]. Information, Communication & Society, 2021, 24(12): 1779-1796.
[51] Fouquaert T, Mechant P. Making curation algorithms apparent: a case study of "Instawareness" as a means to heighten awareness and understanding of Instagram's algorithm[EB/OL].[2022-04-01]. Information, Communication & Society,https://doi.org/10.1080/1369118X.2021.1883707.
[52] Büchi M, Fosch-Villaronga E, Lutz C, et al. Making sense of algorithmic profiling: user perceptions on Facebook[EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.1989011.
[53] Joris G, Grove·F.D, Van Damme K. et al. Appreciating News Algorithms: Examining Audiences' Perceptions to Different News Selection Mechanisms[J]. Digital Journalism, 2021, 9(5): 589-618.
[54] Bishop S. Managing visibility on YouTube through algorithmic gossip[J]. New Media & Society, 2019(21): 2589-2606.
[55] Pedersen E. "My Videos are at the Mercy of the YouTube Algorithm": How Content Creators Craft Algorithmic Personas and Perceive the Algorithm that Dictates their Work[D]. EECS Department, University of California, Berkeley, 2019.
[56] Kaun A. Suing the algorithm: the mundanization of automated decision-making in public services through litigation[EB/OL].[2022-04-01]. Information, Communication & Society, https://doi.org/10.1080/1369118X.2021.192482.
[57] Bucher T. The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms[J]. Information, Communication & Society,2017, 20(1): 30-44.
[58] Gelman·S.A, Legare·C.H. Concepts and Folk Theories[J]. Annual Review of Anthropology, 2011, 40(1): 379-398.
[59] Ytre-Arne B, Moe H. Folk theories of algorithms: Understanding digital irritation[J]. Media, Culture & Society, 2021, 43(5): 807-824.
[60] Trammell A, Cullen·A.L. A cultural approach to algorithmic bias in games[J]. New Media & Society, 2020, 23(1): 159-174.
[61] Bountouridis D, Makhortykh M, Sullivan E. et al. Annotating Credibility: Identifying and Mitigating Bias in Credibility Datasets[EB/OL].[2022-04-01]. ROME 2019-Workshop on Reducing Online Misinformation Exposure, https://rome2019.github.io/papers/Bountouridis_etal_ROME2019.pdf.
[62] Obermeyer Z, Powers B, Vogeli C, et al. Dissecting racial bias in an algorithm used to manage the health of populations[J]. Science, 2019, 366(64): 447-453.
[63] 許丽颖,喻丰. 影响机器人接受度的因素——道德的作用[C]//中国心理学会. 第二十二届全国心理学学术会议摘要集. 2019:2180-2181.
[64] 白红义,李拓. 算法的“迷思”:基于新闻分发平台“今日头条”的元新闻话语研究[J]. 新闻大学,2019(1):30-44,117.
[65] 陈昌凤,虞鑫. 智能时代的信息价值观研究:技术属性、媒介语境与价值范畴[J]. 编辑之友,2019(6):5-12.
[66] Hermann E. Artificial intelligence and mass personalization of communication content—An ethical and literacy perspective[EB/OL].[2022-04-01]. New Media & Society,https://doi.org/10.1177/14614448211022702.
[67] Orr W, Davis·J.L. Attributions of ethical responsibility by Artificial Intelligence practitioners[J]. Information, Communication & Society, 2020, 23(5): 719-735.
[68] 严三九,袁帆. 局内的外人:新闻传播领域算法工程师的伦理责任考察[J]. 现代传播,2019(9): 1-5,12.