APP下载

算法媒体的生产逻辑与治理机制

2018-01-31罗昕

人民论坛·学术前沿 2018年24期
关键词:协同治理算法

罗昕

【关键词】算法  中介权力  可见性生产  社會建构  协同治理

【中图分类号】G210.7                         【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.24.003

算法媒体是指通过算法驱动的、具有信息传播功能的平台,如Google、Facebook、Twitter、今日头条等平台。算法媒体作为隐形的把关人,是信息和受众间重要的桥梁和纽带,掌握着信息可见性生产的出口,也就是说它决定着人们可以看到什么、不可以看到什么,从而决定人们能思考什么、不思考什么。算法不仅仅是抽象的计算过程,也有能力通过塑造不同程度的社会生活来实现物质现实。[1]正如英国著名的社会学家约翰·汤普森(John Brookshire Thompson)看到的,中介化的可见性不仅影响人们的日常生活状态,还隐含着重要的政治经济学含义。[2]算法媒体在媒体格局中扮演着越来越重要的角色,当前媒体生产和消费的过程越来越自动化,也越来越受到算法的支配。可以说,算法主导了当代媒体技术的话语范式。

作为权力中介的算法媒体

媒体作为社会系统的信息枢纽和神经系统,能够及时敏锐感知社会的冷暖和脉搏,在引导用户、服务用户中发挥着重要的中介化作用。算法是一种新的中介化技术,掌控着信息的可见性。在移动化、智能化趋势下,由算法驱动的媒体的中介化权力日益凸显。

作为“中介化”的媒体。“中介化”理论是媒体学研究中的一个重要概念。法国著名哲学家、媒体学家雷吉斯·德布雷(Régis Debray)在其著作《法国的知识权力》中首次提出“媒体学”(Médiologie)这个概念。他提出的媒体学超越了人们通常所说的“传播”思路,是以技术与文化之间的关系为研究对象的一个“传递”过程,同时明晰传递过程中的种种现象。[3]曾任法国信息传播学学会(SFSIC)主席的内尔纳·米耶热(Bernard Miège)在著作《传播思想》中表示:“德布雷所建立的‘普通媒体学相对于历史文化或意识形态取向,将重点放在传输介质的功能和效力上,引发了一场颠覆。”[4]

德布雷的媒体“传递观”隐设了重要的“中介观”,即媒体是一种作为“中介”的传递工具,其意义不仅在于信息的即时传播,更是文化代代相传的承载物。德布雷在《媒体学引论》中推进麦克卢汉的“媒体即信息”的观点,提出“中介即信息”的理念。他认为“中介是使两者发生关系的第三者,如果没有这个作为第三者的中介,这种关系就不会存在。”[5]由此看来,凡是建构两者关系的都是中介,大众媒体是最具典型意义的中介。美国传播学者托马斯·德·曾戈提塔对“中介化”理论的内涵进行定义:“中介化是指所有艺术及人力所创造出的媒体所表现、所传播的情感经历,同时还特别包含着这些媒体对我们每个人、对世界、对个人生命体验所产生的影响。”[6]

算法媒体的“中介化”。随着人工智能走进人们的生活,媒体与受众间的互动越来越以数字化为中介,越来越多的对象嵌入了芯片和传感器,这就使得信息和受众间产生了一个新的中介层次——算法。[7]算法作为中介,扮演着将人与人、人与信息联系起来的角色,隐形地实施着自己的权力。算法本身虽然没有偏见和主观性,但是编写算法的一方却掌握了算法的可见性权力。算法媒体基于算法指令和大数据,把控信息的可见与不可见以及信息的透明度,是具有中介权力的把关人。算法在信息发布方面的能力被认为是强有力的、代理性的和中心性的。

算法的中介化权力能塑造文化和社会信息,从而改变人的思想,并控制和影响人们的日常生活,还有可能影响到政治和经济的发展方向。当人们关注算法的中介权力时,本质上是关注可见性和意义的问题。正如约翰·汤普森所言,“中介化的可见性不仅仅是引发他人关注社会和政治生活的媒体,它已经成为表达、从事社会和政治斗争的基本手段”。[8]用于决策的算法经常被描述为把关人。算法对媒体环境的侵蚀,“其中一个结果就是把关功能的崩溃,迅速地削弱了精英、公民和学者用于理解民主社会中媒体角色的常识假设”[9]。在这个功能方面,算法在某种程度上类似于传统媒体编辑的角色,但是与线下非互动非计算的类似对象有很多区别,如算法的编辑是动态的,所有一切编辑活动是自动的、不可见的、针对个人的,“都是通过具有技术性质的机制实现的,这些机制在复杂的社会进程中不断发展、完善和调整的,而这些进程又受到组织和超组织的环境条件影响”[10]。算法能够充当悄悄的、相当强有力的把关人,在未经用户的同意下进行编辑决策。算法把关人执行了某些传统的把关功能,但颠覆了或在很大程度上修正了传统把关的其他关键特征,如可见性、信息不对称以及公众理解编辑工作结果的能力。因此,在寻求结果把关的责任心和透明度方面,算法产生了新障碍。算法把关在很多领域提出了重要而新颖的问题。

算法媒体的可见性生产逻辑

算法媒体的中介权力结构包括对信息的优化(推荐排序)、分类、关联和过滤等系列的决策过程,这种决策过程形成了算法媒体的可见性生产机制。可见性生产具有重要的社会建构意义。算法媒体的社会建构运作依靠一套隐秘的可见性生产逻辑,这套逻辑贯穿于信息生产、分发和审核等价值链环节中。“因此从算法仅仅对社会带来的影响看,权力主要不是社会的;但从权力来自于算法关联看,权力则是社会的。即算法的社会权力主要来自于关联依赖”。[11]算法在很大程度上承担了文化的主要责任之一即“重新组装社会”的任务,其运用一系列分析工具发现庞大的数据语料库内的统计关联,这种关联似乎将分散的人们连接起来形成某种可见性的“群体智慧”。

“可见性”理论。可见性是政治哲学、社会学、传播学的核心概念之一,传统上与公共领域紧密有关。随着社交媒体的迅速普及,可见性在建构公共领域中变得越来越重要。可见性具有多种含义,除了能够指揭示、开放和表达外,还可以指一系列其他密切相关的、关键的公开性,包括清晰度、透明性、洞察力、识别性和理解性等特征。可见性可以与更多的公共领域联系在一起,例如,公共关系、市场营销、权力监视、引人注目的炫耀主义、谣言传播以及各种形式的包括那些针对丑闻、嘲讽和羞辱的恶意曝光[12]。面对这个争夺可见性的权力博弈场域,“在这个中介化可见性的新世界中,行动和事件的可见性不仅仅是日益难以控制的传播和信息流系统中泄密的结果,也是一个明确的个人战略,他们非常清楚地知道:在他们日常生活中所进行的斗争中,中介化可见性可以是一种武器”。[13]

可見性不单单是指视觉上的可见性,还包含着空间上的可见性:亨利·列斐伏尔的空间生产思想和米歇尔·福柯的空间规训思想,两者都强调对空间可见性的生产实践;简单来讲就是权力主体的可见性(媒体通过展现来赋予他人可见性)和受众的可见性(在媒体塑造的虚拟空间中的个人如何被“可见”)。可见性生产,通过控制人们视觉和空间的可见性,影响人们认知上的可见性,具有非常丰富的含义。

丹尼尔·戴扬曾针对新媒体出现后公共空间发生的转变状况,提出了“可见性”的概念:“能否被他人看见、能否获得他人的注意力,当获得的注意力达到了一定规模,即产生了可见性。”[14]新媒体一方面促进了信息可见性的增长,但在许多情况下也可能助长了信息可见性的不平等。与代码和算法相关的数字媒体公司能控制信息可见性。这种信息可见性的程度被(意识形态上的)公开表现所掩盖。资本主义新精神与算法结盟并融入到数字媒体公司中,如“谷歌不仅仅是数据监视的机构,也是价值生产的机构。如谷歌的排序算法剥削了网络的群体智慧,因为谷歌用于测量网站价值的每个链接都代表了智力的凝结并创造了剩余价值。因此,谷歌是终极经济监管机器和终极用户剥削机器”[15]。

算法媒体的可见性生产。算法媒体的中介化权力来源于其可见性生产逻辑。算法的可见性生产是优化推荐、自动化生产和过滤审查等手段组成的权力结构或决策程序,这些手段之间相互促进、相互影响,从而形成算法的可见性生产逻辑。“受福柯的圆形监狱的影响,通过结构框架来理解算法媒体可见性的建构,这种结构框架特别注意构成了软件程序和算法权力的基础。算法建构了信息与传播流。所建构的可见性机制对参与主体方施加了一个假想的‘不可见性威胁。而可见性成为了用户积极参与互动的回报。”[16]

(1)算法媒体的推荐机制。算法推荐是算法可见性生产机制的重要构成要素。算法本身是一系列解决问题的指令,它结合大数据来实现精确推荐。算法推荐的对象对算法推荐的内容所做出的一系列反应,如点击、转发、评论等,越是被算法主体挖掘发现,就越具有可视化生产的可见性,就越受到其他网民的关注,从而引发新一轮生产推荐的闭路循环。

信息生产者为了获取用户的关注力和有效的信息可见性而竞争,以利于自己的信息获得公共可见性。由于可见性的关系,接收信息的一方认为自己接收到的信息就是公众关注的,所以就有了某种被动接收信息的“助推”(Nudge)。“助推”是“选择架构的任何方面,以可预测的方式改变人们的行为,而不禁止任何选择或显著改变他们的经济激励措施。”[17]“助推”强调了周边的决策选择语境是如何有意地设计以系统性影响人们决策的方式。比如说,为了鼓励顾客选择更健康的食品,他们建议餐厅经理把健康的食品放在更显眼地方。由于“可获得性”启发和“启动”效应(priming effect),客户会倾向于选择“可获得”的更健康的食品。

目前,算法推荐是新闻网站、搜索引擎、社交媒体、移动客户端等几乎所有网络传播平台的标配。这些网络传播平台上呈现的各种热点搜素、热点推荐、趋势话题等产品,由于具有大数据的客观维度,“被看作是即时的甚至处于直播状态的流行话题的中立或原始的呈现”“影响着与突发事件、流行话题相关的信息流动”。[18]比如Twitter的趋势列表,它为用户提供了目前在平台上讨论的最受欢迎的主题列表。此列表每天发送超过2.5亿条推特的算法生成的内容,部分用于指导Twitter用户的媒体消费行为(将他们指向受欢迎的顶部)。Google的搜索引擎通过算法决策和大数据实现个性化订制服务,为受众推荐他们最需要的讯息。处于最显著位置(首页)的讯息投放者需要支付相应的赞助费用,以取得某种信息的助推力。理论上网民可以在成千上万的排序中自由地翻阅所有网页,但实际上每个搜索者可能只是浏览了算法推荐的那几页,这时候用户的点击行为受到“启动”效应的影响,算法构造旨在“助推”网民的点击行为朝着算法设计师编好的方向进行,从而产生这一系列可见性的效应。

大数据驱动的助推是敏捷的、不显眼的、高效的,给数据对象提供高度个性化的选择环境,因此把这些技术称为“超级助推”(hypernudge)。超级助推取决于强调算法决定的数据包内数据项之间的关联。因此,将“突出”赋予要强调的数据模式,通过“启动”技术运作起来,有意影响用户决策的方式,动态地构造了用户的信息选择语境。算法是能产生、选择、传递公共信息的社会技术机制,也在很多方面具有发现和放大某些信息的权力。

(2)算法媒体的生产机制。当前,一种新的基于算法的定量新闻决策生产技术已经形成,能明确地聚焦于基本受众偏好上。算法成为新闻判断的代言人。自动化新闻(automated journalism)、机器人新闻(robot journalism)、计算新闻学(computational journalism)等类似概念尽管处在婴儿期,但大量的研究开始围绕算法应用于新闻领域考察理论和实践的问题。很多所谓的机器人新闻或自动化新闻都是基于算法大量生产出来的,对传统编辑部带来了深刻的影响。这些自动化可用于完成采编任务的新闻形态,使得记者从标准化的任务分配中解放出来以专注于更深度的报道。由此,媒体生产中出现算法转向。目前,算法在媒体生产领域中执行的两个主要功能是充当“需求预测器”和“内容创造者”。[19]

在需求预测领域,媒体机构拥有越来越多的关于受众媒体消费模式和偏好的数据供应,算法派生的表现预测越来越多地决定生产决策,以努力应对受众对内容需求的持续不确定性。例如,电影工业已经开始依赖预测软件包,使用算法来预测未来电影项目的成功,甚至预测包含在单个电影剧本中的情节元素,并将这些内容特征与票房收入的历史数据联系起来。类似地,Netflix一直在开发它的原创设计,它将大量的观众行为和收视率数据输入到一个预测算法中,然后确定最有可能成功的原创设计类型。这种算法驱动的需求预测器也许最具争议的应用是在新闻领域。在某些情况下(例如AOL失败的超级本地新闻项目Patch),用以分析与个人社区以及他们本地需求相关的人口、社会和政治变量的算法,已被用来确定当地新闻机构的设立地点。在这种情况下,本地新闻运作的存在某种程度上是由算法决定的。在许多其他情况下,新闻机构越来越多地依靠对各种形式的用户行为和反馈数据的分析,精确地校准他们的新闻收集和报道活动。

在内容创造领域,从本质上说,在某些情况下,内容创造过程中直接的人的因素被消除了。这并不是说人类元素正在从内容创造中被淘汰。算法是人类创造的。相反,这里的要点是,人类在内容创建中的角色正在从一个直接的角色迁移到一个间接的角色。算法已经被开发并被用于充当人类内容创作者的角色。由算法驱动的机器人自动生成的软件包,一旦提供了故事所依据的核心数据(例如,体育赛事成绩/统计数据、公司财务报告、住房数据、调查数据),就可以生成完整的新闻报道。新华社开发了媒体大脑“Magic”,该名字由机器生产内容(MGC)和人工智能(AI)的英文字母组合而成。“Magic”平台以大数据处理技术、智能算法技术以及人机协作技术为核心,由智能数据工坊、智能媒资平台、智能生产引擎、智能主题集市四大智能系统构成。Magic平台可以全链路自动完成视频的画面分析、捕获、制作、配乐、加标题、合成、发送到视频站点,还可以通过人工智能技术对已经生成视频再加工。Magic还会在现场寻找有新闻价值的共同主题,通过大数据处理、智能模版方式,迅速生成标签聚合类稿件或数据可视化视频。在俄罗斯世界杯期间,通过Magic平台生产的世界杯短视频就达到了37581条。这些视频占主要视频网站世界杯中文短视频总产量的58.6%,最快一条进球视频的生产时间仅耗时6秒,视频播放量突破1.166亿次。

尽管具有诸多好处,自动化媒体生产也存在大量的伦理问题,如自动化新闻的权威性、敏感性、客观性、可信度、透明度等新闻价值标准。以透明度为例,算法产品或平台的融合有助于测量和优化新闻生产、综合处理和分发,但这种算法系统由于他们自动的决策能力而挑战了透明度标准。一些算法媒体如Google,Facebook,Twitter一直主张自身是技术公司而不是媒体公司的立场,试图以技术中立的逻辑逃避新闻伦理的拷问,“考虑到它们参与与新闻信息流动相关的编辑把关决策的程度,这些平台不仅是媒介公司还是新闻组织”“是时候更严肃地描述当代混合的技术/媒介公司的轮廓和参数,开始阐述这些公司如何融入现有的法律、规制和新闻的框架中,或新的或修正的框架是否反映了它们混合的性质”。[20]不过,自动化新闻将会越来越普遍,新闻的深度、宽度、具体化和即时性不断增加。这种变化提出了伦理和社会议题,也提出了新闻专业主义的需要。

(3)算法媒体的过滤机制。算法媒體基于某种意识形态或法律法规甚至自身规范设置敏感词或关键词,让算法对大数据中的相关词语进行阻挡,使相关信息经过滤后不可见。算法能从人类决策中学习,复制人类的决策过程、操作实践、陈规、习惯和偏见。Facebook算法过滤了大量的内容诸如用户帖子,以决定内容是否允许。如算法也许着手过滤肉色的图片、含有脏话的内容或来自世界某个地方的内容。又如“以极端主义或恐怖主义内容为例,一旦用户看了一篇,推荐系统能推荐更多的极端主义材料,从而强化了‘意识形态泡沫的产生”。[21]

一个典型的案例来自2016年9月Facebook审查删除越战照片“烧夷弹的女孩”事件。Facebook首席运营官雪莉·桑德伯格(Sheryl Sandberg)因其审查算法删除挪威首相埃尔娜·索尔贝格(Erna Solberg)帖文中的著名越战照片“烧夷弹的女孩(Napalm Girl)”而发出一封致歉信。“烧夷弹的女孩”曾获得普利策新闻奖,照片中一名9岁的越南女孩因为汽油弹炸伤,浑身赤裸逃离。桑德伯格承认其审查算法存在技术局限性。挪威作家Tom Egeland发布的越战照片“烧夷弹的女孩(Napalm Girl)”也遭到Facebook删除,其个人账号也被禁用。挪威报纸Aftenposten的主编Espen Egil Hansen给Facebook的CEO马克·扎克伯克写了一封公开信,指责Facebook的审查算法分不清儿童色情和新闻图片的区别。挪威首相索尔贝格在转发这篇帖子后内容也遭到删除。Facebook这一举动引发世界舆论哗然。该公司不得不在事情发生数小时后作出回应。Facebook表示已经重新修改了算法,让其能够“识别照片的历史意义”,并允许用户在该平台上发布这张照片。挪威首相索尔贝格赞扬Facebook作出的迅速反应,但她表示,社交媒体不应该将“责任转交给机器”。不过,这场争论强调了传统新闻出版的编辑决策也应成为社交媒体平台编辑决策的基本部分,即使编辑决策最初掌握在算法中。

算法过滤机制,还可以通过2011年“占领华尔街运动”似乎过早消失在Twitter趋势列表上所引发的争议得到说明。作为对出于政治动机的审查指控的回应,Twitter公布了其“趋势”算法的操作细节。该公司指出,“趋势”算法并不是基于对最常用术语的简单计算,而是考虑到诸如该术语最近是否在人群中激增、术语用户的聚类模式、tweet与转发的比率等因素。“占领华尔街运动”在Twitter趋势列表中的存在与否是一个广泛讨论、有争议和政治意义重大的话题,这一事实说明了产生该运动的列表和算法具有制度特征的程度。在一定程度上,算法过滤机制也可能产生重大议程设置效果。从这个角度来看,Twitter趋势的大量争论突出表明了列表是如何表现个人和组织对网上公共领域和政治动态的认知的根本机制。[22]

算法过滤机制还可以影响国际传播格局和地缘政治,进一步强化了世界信息传播秩序不公平、不平衡的问题。互联网档案馆(Internet Archive)通过算法可以缩小自己的存档。由于它的爬虫算法会优化与它们已经有链接的网站,而链接较少的国家可能无法在档案中完全显示。如果关于应该发生的事情的基于数据的决定与所发生的事情的记录保持一致或故意不同的话,那么我们需要理解算法是如何组织过去的历史,从而影响到国家记忆。[23]

算法媒体可见性生产的社会建构。在移动化、智能化的趋势下,算法建构现实的影响力日益扩大。建构主义是多学科交叉发展的产物,不同学者受不同学科的影响,形成了不同范式倾向的建构主义。所有的建构主义都认为知识不是由认知主体被动获得,而是由认知主体主动建构的结果。算法对建构主义的影响就在于算法推荐的信息(知识)使得认知主体(网民)被动获得,而并非主动建构,其中不免隐含着某种互动的关系。算法媒体对社会现实的建构与重现,受其可见性生产机制的影响。算法是人为构建的,通常是隐形不可见的,但是它对受众的影响是循序渐进且普遍的,影响着人们的日常生活、知识获得和社会图景。

社会建构主义论述了制度提供共同的意义和认知的方式,这些方式是引导行为的重要机制。这一理论视角强调,社会现实是社会过程的产物,其目的是建立共同的知识和信仰体系。制度的文化认知维度强调“行为的形成和限制在多大程度上受到知识的建构和编纂的影响。构成所有这些决策的基础是社会构建的模型、假设和架构”。算法是知识建构者和编撰者的最好例子,特别是诸如搜索引擎的语境中,算法在聚合、分类、组织和呈现信息等方面起着核心的机构作用。

这一理论观点指出了理解算法的社会建构的重要性。正如Berger和Luckmann(1966)所强调的,“要理解任何时候社会建构的宇宙的状态,或它随时间的变化,就必须了解允许定义者进行定义的社会组织”。在许多情况下,将算法视为“定义者”似乎是合理的。理解这些定义者背后的社会组织意味着理解构建算法背后的社会过程,算法在知识的社会建构中扮演着越来越重要的角色。[24]作为中介把关的算法媒体,通过操纵知识生产、信息消费的模因和趋势,微妙地支配着公众意识。算法是虚拟探照灯或镜子,捕获用户的注意力和想像力,影响我们对自我身份、人际交流、社会分层和公共舆论的感知和想像。

(1)算法媒体对自我身份的影响。算法媒體形成“一种新的算法身份”,这种算法身份的形成通过算法在匿名环境下来推断身份分类。它使用统计上具有共同性模型以自动方式来决定一个人的性别、阶层或种族,同时决定这些特征的实际意义。我们正进入一个我们的身份被制造出来的在线世界里。“新算法身份”在监视和记录用户数据方面是史无前例的,由于许多算法的产权性远离了传统规训的自由政治学,计算机算法有能力基于用户的上网习惯对用户身份进行分门别类。Cheney-Lippold认为,编码过的算法分析成为了福柯有关生物政治和生物权力的思想的补充,即他称为的“软生物权力”和“软生物政治学”。这些新的概念工具使我们能在分类层次上更好理解生物权力的工作原理:使用计算机代码、统计数据和监视,通过用户被监视的互联网史来进行人口分类。在网上营销和算法分类的语境中,算法干预作为一种控制模式是起作用的,这种算法认同过程能建构和规制我们的在线生活[25]。“用户没有无限的选择,实际上被给予了一个狭义的解释集——它来自于成功地将其他人、过去的行为和无生命的对象放入到类别中——使用类别来约束行动。”[26]

算法身份的生成机制与算法媒体正在出现的公共性与“持续的媒体”相关,与传统的守时的媒体相反。算法媒体的公共性类似于“分割性”(dividuality)。“我们不再发现我们是在处理大众/个体的这对关系。个体已经成了‘分割(dividuals)。”分割性增加了差异化和碎片化,正如它把用户解剖成许多肖像和数据类型。换句话说,身体公共性正在不断被分割和组装。Deseriis也表达了这种状况:“通过将社会机器人的持续性打破成分割的时域和交易,控制工程师生产了‘多细胞的信息时间,这个抽象的时间不再隶属于任何具体的个体,而是产生于网络里个体时间碎片的自动化重组”。[27]“社会机器人”正在成为“分割的时域和交易”。人们保持着分割化状况。算法媒体表面上动摇了媒体和公共性的传统主观性。这表明公共性不会简单形成,因为在混合的个体时域中,集体性被影响的时域绝不会显示自身。不管怎样,公共性可与算法媒体并存。[28]

(2)算法媒体对人际关系的影响。算法对人际关系最直接的影响,主要通过人们日常接触最为频繁的社交媒体来体现。以全球用户规模最大的社交媒体Facebook为例,截至2018年1月,Facebook的全球月活跃用户规模达到22亿人次,约等于全球人口的三分之一。Facebook虽不是新闻的生产者,但是它的人工智能在信息传播中拥有非常强大的“编辑权力”。然而,Facebook的人工智能是靠算法去运作的,算法不声不响地掌握着海量信息的可见与不可见的权力。正如现象学家梅洛·庞蒂在著作《知觉现象学》中指出的:“人们通常通过不可见的东西来与世界相遇,当我们遇到别人的时候,他们凭借自己的习惯、经历和人格向我们显现。我们不只是通过服装、语言或风度来感知人。”[29]现在,我们通过隐形的算法来与世界相遇,当算法遇到人时,它会通过标记每个人的性别、年龄、爱好、习惯等可见的特征来记忆和感知人。

Facebook算法控制着新闻传播的可见性,主要通过News Feed(信息流)和Trending(流行话题)两个渠道。News Feed被扎克伯格称为“个性化报纸”订制功能,也就是按用户的兴趣爱好推荐他们“感兴趣的内容”;Trending则更强调其他人在关注什么信息,更侧重于时事新闻。这两种渠道都将要传递的新闻主动推送给用户,主动建构这种关系。有学者对40位Facebook用户展开了算法意识的调查,发现62.5%的参与者不知道Facebook的信息流策展(News Feed curation);相比之下,学者Rader和Gray分析了464名受访者的调查结果发现,75%的用户实际上意识到“他们没有看到自己朋友创建的每一个帖子,他们意识到了信息流策展的情况”。[30]

算法有强大的推演能力,对人际关系的影响有积极的一面,也有消极的一面,需要客观辩证地看待。尽管算法会为我们的生活带来众多便利,但是它也会给人们带来一些困扰。假设当你在社交媒体上发布消息时,你可以选择可见的对象,算法会根据你每次发布的消息和消息可见的对象,将你的好友进行分类,从而摸清你的人际关系。算法渗透到了人们生活的各个方面,人在算法面前变得越来越透明、没有隐私。由搜索引擎和社会媒介创造的“过滤气泡”给我们提供了倾向于证实我们观点的信息。这种倾向的批评来自两个原因:一是这些选择算法使得难以接近信息之外的信息,创造了某种程度的独白生活;第二,这些气泡是在没有征得我们同意下由算法媒体创造出来的。不管怎么样,过滤气泡也可能是文化融合的催动要素,在潜在的无限的万维网中提供了一种熟悉感。甚至个性化算法带来的“过滤气泡”还存在三个人文价值:自治、身份认同和透明度。[31]

(3)算法媒体对社会分层的影响。算法在社会分层方面发挥重要角色。算法一直在编织着客观性的神话:没有偏见、缺陷、邪恶意图的无错误的实体;算法作为“客观的造物主”,摆脱了与性别、性、民族、种族或社会阶层相关的任何分化。事实上,算法并没有想象得那么完美。

从社会结构层面看,算法媒体的可见性生产将加一步加大了数字社会阶层的分化,出现新的数字鸿沟,社会日益碎片化。Hallinan和Striphas将算法文化定义为“使用计算过程对人、地方、对象和思想进行分类和层次化,以及与这些过程相关的思想、行为和表达习惯”。[32]基于大数据的算法推荐经常是娱乐消遣类的流行话题、趋势或热点,这些娱乐消闲内容的滥觞导致“玩劳动者”新阶层的崛起。个性化信息的算法推荐产生“回音室”“过滤气泡”“信息茧房”“藩篱效应”“每日我”“利基嫉妒”“同质性”“群体极化”等诸多效应,强化了个体化、碎片化、流动化的社会,日益难以建立社会价值认同。算法媒体“揭示了组织模式与个人角色之间的联系,解释了可见性政治在个人内部产生和结束的过程,该过程最终创建了群体中的个人而不是群体”。[33]

算法媒体也可能产生数字排外或群体偏见。西方不少学者批评Google、Facebook不仅仅是算法驱动的平台,还能框架、塑造和扭曲我们所見的世界。“这个由种族现实主义者和理想主义者组成的团体,是被围困的白人少数派的声音。这个团体正被用来激进新一代极端、暴力、右翼的个人。它们已经成为一个庞大且不断增长的生态系统,正像癌症一样侵入主流新闻和信息基础设施。”以弗格森(Ferguson)抗议案为例。一名警官于2014年8月在密苏里州弗格森杀死一名非洲裔美国少年,随后引发了全国范围的示威活动。该案涉及少数族裔社区的种族不平等、刑事司法制度和警察行为。TUFEKCI记录了Facebook的“新闻源”在算法上压制了抗议的新闻。“Facebook的算法已经‘决定这些报道不符合其‘相关性标准——一个不透明的、专有的公式,它每周都会改变,并且可能导致新闻的巨大转变。算法过滤可能意味着,一场关于警察责任和种族关系的谈话,从此动摇了整个国家,但可能从未从弗格森走出来”[34]。此外,许多公司在招聘、解雇或其他相关决定时都转向算法。有些联邦法律适用于这些决定中的许多情况,例如,雇佣、贷款或住房等情况的决定,往往基于种族、性别、残疾、家庭规模或其他受保护类别的歧视。然而,算法决策为这些类型的歧视创造了潜能,即使算法没有明确和直接针对这些类型的歧视,它们也会悄悄地溜进来。[35]

(4)算法媒体对公共舆论的影响。在社会运动中,政治行动者运用算法和自动化努力煽动公共舆论,主要通过使用Twitter、Facebook、Reddit和其他社交媒介平台的机器人。机器人被理解为“模仿用户并产生内容的代码的合并”或“自动化软件代理”。[36]算法通过影响民众舆论,对政治和经济产生潜移默化的影响。例如,2016年的美国大选,Facebook的算法推荐对最后的结果产生了潜移默化的影响。特朗普成功利用了算法的中介权力,达成使有利于自己的信息具有公共可见性的目的,并找到一个聪明的策略:即通过谷歌搜索算法识别来放大集体性的政治表达,使它们位于一个能够赋予可见性和意义的独特的权力位置。

在2010年,Facebook进行了一项大规模的实验(在6100万受试者中没有任何人注意到的情况下进行,没有一个人被要求许可),结果表明它可以改变美国数百名选民的投票率。Facebook仅仅通过轻微不同的、实验性地操纵的、获得投票信息的推测来引导人们投票。显然,在助推人们投票方面,社交性消息比信息性消息要强有力得多。2014年6月,Facebook通过实验性地操纵用户在算法上策划的“新闻订阅”,展示了“通过社会网络大规模传染的实验证据”。研究表明,Facebook上的新闻和更新影响了浏览Facebook的用户后续帖子的主旨,并且Facebook本身能够通过调整算法来调整和控制这种影响。这场受到广泛关注的实验揭示了一个更大的根本问题:算法平台进行实验操纵舆论的伦理责任。Epstein、Robertson用4556名未决选民测试了他们的理论,这些选民代表了美国和印度投票人口的多样化人口特征。实验包括改变Google给出的结果的顺序,看它们是否影响选民的意图。结果令人震惊:有偏见的搜索排名可以把未决选民的投票偏好改变20%或更多,这种改变可以大大提高。在一些人口统计群体中,那种搜索排名的偏见可以被掩盖,这样人们就不会意识到被操纵的舆论。[37]

算法媒体的治理机制

算法既不中立也不分好坏,而仅仅反映了现有的权力结构和斗争,通过可塑的技术直接影响人们的社会建构。算法运用的几个潜在风险有操纵、偏见、审查、社会歧视、隐私和产权侵犯、滥用市场权力、窄化视野、降低创新能力、减弱对公共事务的热情等方面。这些关注导致从严格的法律规制、审计责任到公民素养的不同治理方式的呼吁。如Gillespie、Tarleton提出算法塑造公共领域的修补建议:积极主动的公开透明、逆向工程、技术和调查机制、设计/工程解决方案、计算/算法素养,治理和公共利益框架,市场和技术的去中心化。[38]Rodríguez提供了社交媒体环境中评价算法体验的五个框架性的指南:算法画像透明度、算法画像管理、算法意识、算法用户控制和选择性算法记忆。[39]

尽管未来算法媒体的治理模式仍然处在变化中,但多主体多层级协同治理模式能提供未来治理体制如何设计的启发和概念指导(见附表)。这种结合了不同的要素以抓住和解决以上提到的大量问题,使之成为多利益相关方共同的责任,能正确处理好权力与权利、控制与自由、安全与创新发展的冲突。我们希望通过技术代码、用户规则、法律法规和公共政策制定切实可行的方案。

技术层面的平台社会责任。处于技术层的平台是算法治理生态系统的基础。具有社会影响的负有责任的算法的建议原则包括:人工干预、公开透明、客观公正、全面优质、标注提醒、反对例外主义、责任心、可解释、准确性、可审计等。通过算法对数据的收集、使用和管理应遵循促进公平和安全的原则,不能有种族、肤色、国籍、宗教、性别、性取向、残疾人或家庭状况的歧视。如AI和自动化系统的IEEE提出普遍伦理原则:不能侵犯人权(如自由、平等、尊严、文化多样性),人类福祉为先,负责任,透明度,加强伦理教育和安全意识以防止滥用风险。

很多研究都在批评算法的黑盒性质,即其不透明性。试图让平台中介打开算法黑箱是徒劳的,使未知面最小化是努力的方向。在透明度方面,算法责任报告应公开以下信息:人的参与、数据、模型、推论、算法的存在。人的参与方面涉及算法的目标、意图,包括编辑目标和人工编辑流程,谁对算法有直接的控制,谁在监管和负有责任。数据方面涉及数据的质量,包括准确性、完整性、不确定性、时效性,数据如何界定、收集、传输、检查和编辑的(人工或自动化)?不同数据标签如何聚合的?它们是否反映了一个更客观或主观的过程?数据是否是私人的还是公共的?模型方面包括算法中使用的变量是什么?这些变量权重如何?用于建模的工具如何?模型背后的假设是什么?这些假设从何而来?模型的某些方面为何不出现在前段?推论(预测)方面包括误差幅度多少?准确率多少?假正和假负有多少?采取了哪些步骤来补救已知的错误?这些错误是人的介入、数据输入或是算法本身的结果?算法存在方面包括A/B测试是否使用以检测不同的效果?与信息可见性问题,如哪些内容你没有看到?你发布的推文别人看不到?[40]

诚然,透明度远不是平衡算法权力的完美方案。“依赖透明度并不能解决问题,公开源代码既不需要也不充分。中心问题是在使这些算法程序更负责时,如何确保公民和整个社会的利益。强调依靠程序规律的技术工具如软件鉴定、密码编写的使命、零知识证明、公平的随机选择。设计算法以确保忠诚于重要的政策选择,非歧视的技术工具如从经验中学习,公平的机器学习,歧视、数据使用和隐私。”[41]希望执行其算法的实体必须能够以所有理性的社会个体能接受的标准的、认知的术语来说明它的算法系统。许多隐私、数据保护和信息自由法包含不同的措施以强迫组织揭示他们部署的系统,他们收集了什么数据,他们推断的模型,它们如何使用的。[42]1995年EU数据保护指南和2016年通用数据保护条例都包含了个体有要求自动决策背后的逻辑陈述的权利。这些规则旨在使公民能审查和挑战这些系统的模糊逻辑。

规制层面的法律政策伦理。当前,要加强人工智能算法的相关法律、伦理、社会问题研究,建立健全保障人工智能算法健康发展的法律法规、制度体系、伦理道德。算法媒体治理的政策路线图应包含几个核心议题和问题:公平、平等、责任、透明、隐私、包容的人类价值,避免新的不平等和偏见。技术伦理层面包括以下几种方式:第一种是植根于政策和法规,试图将技术的道德发展和使用编成法典,制定惩罚错误的标准如告知同意、符合一定比例、具体明确的合法目的等,教授最佳作法,以及防止未来的失灵;第二种不是将伦理规则应用于技术,而是试图预测技术创新引起的伦理关切;第三种侧重于技术人员本身的价值观和信念,要有目的地在一套能评判加工品为“优秀”的标准中包括价值观。[43]

如软件工程的ACM(计算机器协会)伦理准则列举了8个原则:有助于社会和人类福祉,避免对他人的伤害,诚信和值得信任,公平和不采取歧视行为,尊重包括版权和专利的产权,对知识产权给予适当的信任,尊重他人隐私,尊重机密。还提出了8个职业责任:努力在职业工作的过程和产品中获得高质量、效果和尊严,获得和维持职业能力,知道和尊重与职业工作相关的现有法律,接受和提供恰当的职业评论,对计算机系统及其影响包括可能风险分析给予全面深刻的评价,尊重契约、协议和分配的责任,提升公众对计算及其后果的公众理解,只有在被授权情况下才可接近计算和传播资源。

在国家层面,算法的规則和政策被认为符合公共利益并支持民主原则。欧盟的“被遗忘的权利”规定,搜索引擎可以充当编辑,并决定哪些信息不应该再出现在搜索结果中。2018年11月21日,欧洲委员会发布《关于算法系统对人权影响的建议草案》,具体内容包括:(1)各国政府要切实将人权嵌入到算法机制的包括设计、开发、部署运作在内的所有步骤中,加快制定和完善相关的保护机制体制、规章和立法框架。目前各国公司部门在努力制定相关准则,这种举措是值得肯定的,但是各国各自的措施并不能与成员国的责任等同,也没有很好地遵守《欧洲公约》规定。(2)各成员国应建立适当的监管框架,以促进所有行动者尊重人权的技术创新。(3)各成员国要完善算法系统,其准则包括:提升数据质量、完善建模标准、坚持数据透明度和可竞争性原则、提供有效的司法程序和非司法补救措施、实施预防措施。(4)成员国应确保的私人行为者的责任,包括数据质量和建模的相关准则。美国也承认搜索引擎或作为出版商的社交媒体扮演着类似的角色,但持相反立场,认为谷歌的搜索结果受到美国言论自由法的保护,并且可以按照公司认为合适的方式组织。尽管公共规制部门不能影响谷歌的算法,FTC和EU对“搜索中立”的调查涉及到这个问题。规制者能迫使谷歌以某种方式对某些竞争网站采取行动吗?这实际上要求公共规制部门接近算法,雇佣一些能理解其特征的人为了公共利益而有效地修正它。[44]

在全球层面,应采取多利益相关方模式,建立算法决策监管小组或知识联盟以及算法认证程序,制定算法规制的全球准则、基本原则或普遍标准。当前很多公益组织和私人实体为此进行了积极探索。2015年6月,反极端主义项目(CEP)在布鲁塞尔创办。这个高度有影响和快速扩张的组织,要求“不从网站上删除极端主义材料的社交媒体公司要面临惩罚”。该组织关注全球互联网上的内容如何治理,表明了政府资助的非盈利组织有能力通过具体领域的专业性对私人部门行动者施加相当的压力。该组织提出和导致了“能力制度”(regime of competence)的出现。“全球主页”(global default)是一个界定许可的在线内容的全球能力制度。尽管部分制度来自于公共规制甚至国家立法,大部分的制度基于私人规范和实践。制度本身根植于私人部门行动者之间的协议,他们负责制度的界定、管理和执行。德国小型的准公共NGO Jugendschutz.Net确立了儿童图片有关挑逗性姿势的全球标准;美国公司Facebook提出了在社交空间里有关裸体的语言规制的全球标准;英国私人部门组织IWF提供了儿童性滥用材料的基础定义,这些材料不仅在英国会阻挡,也受到全世界的在线服务提供商的阻挡。[45]

社会层面的用户“算法素养”。算法素养在国内还是一个新鲜词汇,但在国外已经有了不少的讨论。“算法素养并不是指能够严格地读写代码,而是说(受众)能意识到算法在他们生活中的存在,以及算法所扮演的越来越重要的角色,不管这个角色是好或是坏。”我们需要越来越多地意识到算法和大数据是如何对我们进行排序和塑造的。算法素养可能包括至少知道算法在什么情况下表现出来,什么时候藏在幕后,以及能够对算法接下来的意图做出推断。意识到它们的存在,以及在我们生活中不断增加的存在,可以被定义为“算法素养”。提升算法素养的目的是能够批判性地理解算法所能带来的影响。美国皮尤中心在2017年的一项针对算法技术的报告中,就指出了在算法技术对人类社会带来了挑战:在算法时代,人类所要探讨的主题之一就是在算法的挑战下,人们“对算法素养、透明度和监督的需求越来越大”。[46]根据凯西·戴维森的说法,人的基本素养是能够阅读、书写和理解算法,并且具有计算能力;算法应该融入教育哲学,作为第四个“R”(“阅读”“书写”“文学”和“算法”,即reading,riting,rithmetic,rithms)。

人们每天都在跟算法打交道,但是问及算法对他们生活的影响时,很多人却很难回答上来。那么人们在什么情况下会意识到算法的存在?鉴于算法的隐藏和隐形性质,人们如何体验和理解这些隐含的算法?算法意识在多大程度上会影响到人们对这些平台的使用?这些都是值得探究的问题。以前是互联网控制着我们的生活,现在变成了算法。我们应当学会发现、认识、了解算法,并且学会用正确的方式利用算法达成便利生活的目的。还要学会怎样防范算法权力、防范算法可见性生产中的“偏见”,不断提升自己的“算法素养”。例如,根据最近的一项研究显示,即使在一所精英大学,62%的本科生也不知道“脸谱”通过算法来策划用户的“新闻源”。

参与策略可能有助于解决算法设计者的意图与旁观者期望之间的脱节问题。参与式设计主要出现在斯堪的纳维亚国家,作为一种赋予劳动者权力的形式,使他们在设计工作场所时有一定程度的控制。参与式方法在信息技术设计,特别是工作场所技术方面获得了显著的推动。然而,并不是所有的例子都带有初始运动的政治方向和分量。从一开始就采用参与性办法未必能解决这种紧张局势。然而,它可能会更早地识别它们。此外,参与性办法可促进那些可能与该系统互动的人与正在设计和实施该系统的人之间的辩证交流。这样做将有助于更好地理解计算想像力的形成,以及如何干预计算想象力的发展过程。[47]此外,应鼓励支持社区、学校、公益组织积极开展算法素养教育运动,不断提升青少年对算法媒体信息的理性批判能力,从而实现更好的知识传播和社会建构。

(本文系国家社科基金重点项目“全球互联网治理的竞争格局与中国进路研究”的阶段性成果,项目编号:18AXW008)

注释

[1]Kitchin, R., & Dodge, M., Code/space: Software and everyday life, Cambridge, MA: MIT Press,  2011.

[2]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22 (6), pp. 31-51.

[3][法]雷吉斯·德布雷:《媒體学引论》,刘文玲译,北京:中国传媒大学出版社,2014年,第1页。

[4][法]米耶热:《传播思想》,陈蕴敏译,南京:凤凰出版传媒集团、江苏人民出版社,2008年,第80页。

[5][法]雷吉斯·德布雷:《媒体学引论》,刘文玲译,北京:中国传媒大学出版社,2014年,第36~38、127页。

[6][美]托马斯·德·曾戈提塔:《中介化:媒体如何建构你的世界和生活方式》,王珊珊译,上海译文出版社,2009年,第8页。

[7]Zeynep Tufekci, "Algorithms in our Midst: Information, Power and Choice when Software is Everywhere", CSCW, 2015, March, Vancouver, BC, Canada, pp. 14-18.

[8]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22(6), pp. 31-51.

[9]Williams, B. A., & Delli Carpini, M. X., "Unchained Reaction: The Collapse of Media Gatekeeping and the Clinton–Lewinsky Scandal", Journalism, 2000, 1(1), pp. 61-85.

[10]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

[11]Daniel Neyland & Norma M?llers, "Algorithmic IF … THEN rules and the conditions and consequences of power", Information, Communication & Society,  2017, 20 (1), pp. 45-62.

[12]Lincoln Dahlberg, "Visibility and The Public Sphere: A Normative Conceptualisation", Javnost-The Public, 2018, 25(1-2), pp. 1318-3222.

[13]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22(6), pp. 31-51.

[14]Daniel DaYan, "Conquering visibility, conferring visibility: visibility seekers and media performance", International Journal of Communication, 2013, (7), pp. 137-153.

[15]Astrid Mager, "Algorithmic Ideology:How capitalist society shapes search engines", Information, Communication & Society, 2012, 15 (5), pp. 769-787.

[16]Taina Bucher, "Want to be on the top? Algorithmic power and the threat of invisibility on Facebook", New media & society, 2012, 14(7), pp. 1164-1180.

[17]Thaler, R., & Sunstein, C., Nudge, London: Penguin Books, 2008, p. 1.

[18]Duguay, Stefanie, "Trending this moment: Examining social media platforms as information gatekeepers through Facebook's Trending topics and Twitter's Moments", In 66th Annual Conference of the International Communication Association: Communicating with Power, June 2016, Fukuoka, Japan, pp. 9-13.

[19]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

[20]Philip M. Napoli and Robyn Caplan, "Why media companies insist they're not media companies, why they're wrong, and why it matters", First Monday, 2017, 22(5).

[21]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics, 2016,10 (1), pp. 5-13.

[22]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

[23]Thelwall, M., and L. Vaughan, "A Fair History of the Web? Examining Country Balance in the Internet Archive", Library and Information Science Research, 2004, 26 (2), pp. 162-176.

[24]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

[25]Cheney-Lippold, John, "A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control", Theory, Culture & Society, 2011, 28 (6), pp. 164-181.

[26]Mike Ananny, "Toward an Ethics of Algorithms:Convening, Observation, Probability, and Timeliness", Science, Technology, & Human Values, 2016, 41(1), pp. 93-117.

[27]Marco, Deseriis, "The general, the watchman, and the engineer of control", Journal of Communication Inquiry, 2011, 35(4), pp. 387-394.

[28]Fenwick McKelvey, "Algorithmic Media Need Democratic Methods: Why Publics Matter", Canadian Journal of Communication, 2014, 39(4), pp. 597-613.

[29]Merleau-Ponty, The phenomenology of perception, London: RKP, 1962.

[30]Eslami, M., Rickman, A., etc., "I always assumed that I wasn't really that close to [her]: Reasoning about invisible algorithms in the news feed", In Proceedings of the 33rd Annual SIGCHI Conference on Human Factors in Computing Systems (pp. 153-162). New York, NY: ACM.

[31]Engin Bozdag and Job Timmermans," Values in the filter bubble: Ethics of Personalization Algorithms in Cloud Computing", 1st International Workshop on Values in Design –Building Bridges between RE, HCI and Ethics, 6th of September, 2011, Lisbon, Portugal, pp. 6-16.

[32]Blake Hallinan, Ted Striphas, "Recommended for you: The Netflix Prize and the production of algorithmic culture", new media & society, 2016, 18 (1), pp. 117-137.

[33]Stefania Milan, "When Algorithms Shape Collective Action: Social Media and the Dynamics of Cloud Protesting", Social Media + Society, 2015, July-December, pp. 1-10.

[34]Z EYNEP T UFEKCI, "Algorithmic harms beyond Facebook and Google Emergent challenges of computational agency", COLO. TECH.L.J. 2015, 13 (2),  pp. 203-216.

[35]Blake Hallinan, Ted Striphas, "Recommended for you: The Netflix Prize and the production of algorithmic culture", new media & society, 2016, 18 (1), pp. 117-137.

[36]Nathalie Maréchal, "When Bots Tweet: Toward a Normative Framework for Bots on Social Networking Sites", International Journal of Communication, 2016, 10, pp. 5022-5031.

[37]Robert Epstein and Ronald E. Robertson, "The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections", PNAS Plus, 2015, Aug 4.

[38]Gillespie,Tarleton, "The Relevance of Algorithms" in Media technologies: Essays on Communication, Materiality and Society. Tarleton Gillespie, Pablo J. Boczkowski, and Kirsten A. Foot (eds.), Boston, Mass: MIT Press, 2014.

[39]Oscar Luis Alvarado Rodríguez, "Towards Algorithmic Experience Redesigning Facebook's News Feed", 2017, https://uu.diva-portal.org/smash/get/diva2:1110570/FULLTEXT01.pdf.

[40]Nicholas Diakopoulos, "Accountability in Algorithmic Decision-making: A View from Computational Journalism", Communications of the ACM, 2015, 59(2), pp. 56-62.

[41]J OSHUA A. K ROLL, J OANNA  H UEY, "Accountable Algorithms", University of Pennsylvania Law Review, 2017, 165,  pp. 1-193.

[42]Reuben Binns, "Algorithmic Accountability and Public Reason", Philosophy & Technology, 2017, pp. 1-14.

[43]Mike Ananny, "Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness,Science", Technology, & Human Values, 2016, 41 (1), pp. 93-117.

[44]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics, 2016, 10 (1), p. 7.

[45]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics / Etikk i praksis, 2016, 10 (1), pp. 5-13.

[46]Pew Research Center, "Code-Dependent: Pros and Cons of the Algorithm Age", February 8, 2017. http://www.pewinternet.org/2017/02/08/theme-7-the-need-grows-for-algorithmic-literacy-transparency-and-oversight/.

[47]Eric PS Baumer, "Toward human-centered algorithm design", Big Data & Society, 2017, July–December, pp. 1-12.

責 编/郑韶武

猜你喜欢

协同治理算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
协同治理视域下政社合作机制研究
基于增强随机搜索的OECI-ELM算法
城乡一体化进程中农村社区治理的创新
一种改进的整周模糊度去相关算法