解构智能传播的数据神话:算法偏见的成因与风险治理路径*
2019-10-11郭小平秦艺轩
■ 郭小平 秦艺轩
基于算法与大数据变革的信息生产传播机制,颠覆了传统新闻生产与分发模式,拓展了新闻传播领域的边界与想象。算法技术主要应用于新闻制作与传播的两个环节:一是算法介入新闻生产环节。算法程序挖掘与采集数据库信息,并利用数据的集合与分析自动生成机器新闻。二是算法介入新闻分发环节,如新闻的个性化推荐。算法程序通过对用户数据的挖掘与分析呈现用户画像,实现信息个性化推荐。
一、展现与幻灭:智能传播的“数据神话”
智能传播以大数据为依托,将机器算法、数据挖掘、传感器等人工智能技术应用于信息的生产与传播,实现新闻生产的智能化与用户体验的个性化。算法技术介入新闻信息生产具有天然的优越性。传统的新闻生产机制中,记者与编辑的新闻判断因人类的“主观性”遭到质疑①,引发受众对传统新闻业的“信任危机”。同时,传统的点对面的新闻传播模式,信息覆盖面较广但精准度却不高。算法的新闻判断遵循的是数学公式与机器程序,而不是人类编辑即时的主观判断,算法的新闻价值判断更加客观中立②(见表1)。此外,在信息过载的大数据时代,算法推荐能够使用户的信息个性化体验成为可能,甚至能够脱离人工记者和编辑,利用数据自动化生成可发布的新闻故事。
算法实践使新闻传播领域产生了新的潜力,拓展了新闻的可想象性,以“技术中立”的姿态昭示着新闻客观性的“回归”与“在场”③。这使人们普遍认为,基于大数据运行的算法技术提供了一种更高形式的智慧和知识,能够产生以前不可能有的洞见,带有真理、客观性和准确性的光环。大量的数据取代了所有其他可能被使用的工具,带来前所未有的客观与真实,数字本身就说明了一切④。大数据意味着一种认知意义上的革命和理论的终结⑤。然而,这无疑是一种乌托邦式的修辞,是将数据与技术“神话”的一种美好幻想。
表1 传统新闻与算法新闻生产机制的比较
从数字到数据,从数据到意义,需要选择和阐释。然而,数据解释却面临伦理争论。首先,数据是否代表一个“客观事实”;其次,如何呈现这些数据以及对它们的解释是否会被某种偏见所影响;最后,是否存在一个“数据清理”的过程:即决定哪些属性和变量会被计算,哪些会被忽略,数据清理的过程本质上是主观的。然而,由于人们怀着对技术“客观中立”的想象,总是忽略数据阐释过程的主观性。芒福德认为,在巨型机器制造的不幸中,首要的就是当今人们对科学技术界无条件的崇拜⑥。机器神话模糊了人们的视线,使人们无法看清技术的本质。现代技术是一种展现(revealing),一种将世界遮蔽起来的具有“挑衅逼迫”性的、预置式的展现⑦。技术的统治将一切存在者都带入计算行为中,遮蔽了人之人性和物之物性⑧,这就使得技术在展现的同时也遮蔽了部分客观世界。因此,在算法技术应用中坚守唯数据论,极易因忽视人的主体性和事物的多面性而使算法产生具有偏见的结果。
Hazlitt认为,偏见是未经详细的调查研究就对某一事物过早判断。同样,道格拉斯·W·贝斯黑莱姆认为,“偏见”是人们对事物所持的观点或信念缺乏实践的检验,或者与检验的结果相悖,或者与逻辑推理得到的结果相悖,或者不符合客观实际⑨。他们都反对简单的将偏见定义为“消极的种族态度”。不少研究者都认为,算法偏见是由算法程序带来的消极的种族、性别和职业态度,这种理解稍显狭隘。事实上,“算法偏见”是算法程序在信息生产与分发过程中失去客观中立的立场,造成片面或者与客观实际不符的信息、观念的生产与传播,影响公众对信息的客观全面认知。
社交网站、新闻客户端宣称,算法技术能够独立于人工编辑,客观中立的为用户呈现个性化的新闻,却在算法实践中被揭露隐含偏见。2016年,Facebook前员工揭露:其“Trending Topic”并非完全根据智能算法的结果排列,而是要通过人工编辑的取舍呈现,并且有意打压保守派的新闻。虽然Facebook在这一披露之后马上将“Trending Topic”版块的人工编辑撤掉,但这场风波还是撕开了算法技术神话的外衣,使人们对算法技术宣称的独立、客观和中立程度产生怀疑。除了社交网站,Google也运用算法捕获与分析用户的信息行为特征,推断用户的搜索意图,为用户高效地提供个性化信息查询结果。然而,有用户在Google输入关键词“三个黑人少年”,Google搜索结果自动呈现的照片中大都是消极晦暗、甚至与犯罪新闻相关的黑人,而输入“三个白人少年”之后的搜索结果呈现的照片大都是青春活力、积极阳光的白人少年。来自于现实社会的结构性偏见在网络世界重现,Google搜索引擎因算法自动呈现的结果而陷入种族歧视的危机。
作为人工产物,算法被人类支配使用,无法完全规避来自人类社会的偏见。“社会现代化的程度越高,我们越要具有反思性的批判。”⑩一味的认为算法关乎数学和方程,而非“肤色”,算法决策是公平的,这不过是对算法的一种误解,对数据和技术的乌托邦想象。现代技术作为一种展现,一方面使人被技术座架所促逼而不自知,另一方面,它成为唯一的尺度,伪装着真理的闪现和运作,这是人类命运“最高的危险”。要对抗算法偏见,将人类从数字技术风险中解脱出来,就亟需打开算法的黑箱并追溯算法偏见产生的根源。
二、解构神话:算法偏见的溯源
算法的运行机制具有不可见性与不可解释性。它被神话为一种强大的规则,通过分类、治理、塑造等控制我们的生活。但同时,算法晦涩难懂,很难让人理解到底什么才是真正的危险。技术的复杂性使算法偏见的发生十分隐蔽,“程序设计、数据挖掘、数据分析”,每一个步骤都可能会使偏见悄然嵌入机器代码。
(一)算法操纵:政治内嵌、资本介入与“技术公平”的幻象
新技术的发明与使用本质上是要反映人的意志,要为人类的社会生活与政治理想服务。摩根(Morgan,2018)认为,虽然算法可以呈现多种不同的文化内涵,但它们最终仍然与定义和部署它们的人、机构以及它们所嵌入的权力关系紧密联系在一起。科技界作为新集权制度成员之一,取得赫赫成就的同时也构成一种威胁。智能技术赋予权力复合体更加先进的统治方式,传播技术手段越复杂,就越有能力和效率过滤掉那些对抗权力复合体的不良信息,从而巩固自身的权力。为了实现某种利益追求,利益集团人为操纵算法程序及其结果,有意识地制造具有偏见态度的信息,继而操控舆论以及公众对事实真相的客观认知。
技术的政治内嵌是利益集团操控舆论、维护权力统治的一种必然手段。算法具有社会性和技术性,其设计与使用的过程也必然会嵌入某种政治属性与权力关系。兰登·温纳(Winner,1988)认为技术在双重维度上具有政治性:一是新的技术或设计内嵌了某种政治属性,为“给定政治体系”提供确立或巩固权力、威望的技术手段;二是政治对技术的需求与生俱来,而技术也在某种意义上回应着它们的需求。2011年9月,美国民众因强烈不满美国钱权交易、党派斗争、贫富悬殊的社会生活与政治制度现状,发起了“占领华尔街”的游行示威。面对这场声势浩大的示威事件,美国媒体集体噤声。以Twitter为例,尽管网民已在#occupy wallstreet#的标签下对这一公共事件进行了激烈讨论,Twitter的“趋势发现”中仍旧无法看到这一事件的热搜。Twitter算法引擎的失灵说明所谓中立客观的智能技术,在某些时刻只是对政治与资本操控的一种掩饰。
利益集团通常利用人们对技术客观性的信任创造“伪公平”的神话,这种隐蔽的操控使人们无法察觉也无力反抗。互联网时代的商业资本遵循流量逻辑,利用智能技术与热点事件创造流量、增加用户,是商业资本与媒体平台的共谋。2018年,为庆祝IG战队在英雄联盟全球总决赛中首次夺冠,王思聪在新浪微博设立113万奖金进行抽奖。参与抽奖活动的男女比例为1∶1.2,然而,在最终获奖的113人中,只有1名男性用户,获奖男女比例为1∶112。获奖用户多为拥有较强的购买力和消费潜力的80后与90后女性。微博算法歧视男性用户,重视女性用户,根本原因在于青年女性是微博平台的黏性用户,拥有较高的市场价值,符合新浪微博及其背后广告主的利益期待。因此,新浪微博不惜修改算法规则来回馈核心用户,提升用户黏度与平台流量,实现资本利益的最大化。智能技术是人类的工具,使用者的价值立场直接决定了技术的立场。
政治内嵌与资本操纵是算法背后强大的操控力量,共同完成了对算法技术的塑造。持有偏见的决策者利用算法技术掩盖他们的真实意图,为传统形式的偏见注入新的活力。在智能算法“客观、中立、准确”的光环下,意识形态内嵌成为技术政治的工具。
(二)偏见循环:社会结构性偏见的智能复制
新技术的诞生必然会携带人类社会的基因,它嵌入了也被嵌入在社会形态、规范标准、言论主张等所有我们称之为构建了人类社会的元素中。在这些元素中,人类社会的结构性偏见可能嵌入算法实践:一是原始数据的采集与数据库的建立受到人类偏见的干扰,二是算法程序设计中人类偏见的渗透,三是算法与用户互动时习得人类偏见。原始数据、算法编程与人机互动继承并强化人类社会的原始偏见,最终导致社会偏见经过算法程序无限循环。
1.原始数据库的偏见复制
用于训练、学习和数据挖掘的原始数据是算法程序中的基石,其客观与中立程度直接影响算法的决策结果。在算法程序中,数据样本边缘化某些群体或者隐含社会偏见,导致样本不全或数据库污染,将会无限循环与强化社会的结构性偏见。
首先,数据对某些群体的边缘化导致智能算法的“选择性失明”。数据对社会公共生活的塑造是显著的,然而并不是所有的人都有机会成为数据的主体。由于贫困,生活方式或者地理位置,生活在大数据边缘的人总会被非随机的、系统性的遗漏,他们的生活比一般人群更少“数据化”。谷歌的图像识别训练数据库ImageNet中,有近四分之三的图像来自欧美国家,而占世界人口三分之一的中国和印度,在ImageNet里的数据量加起来只有百分之三。这就导致ImageNet训练的智能算法在识别第三世界图像时,总会“选择性失明”。数据边缘的群体常常在社会公共生活中已经处于劣势,无法分享技术革新的红利,当社会的政治、经济和文化决策越来越依赖数据和算法的分析,这些“被遗忘的数据主体”就会因此而失去社会流动、经济机会甚至政治平等的权利。大数据和智能算法通过看似公平的计算程序加剧了现代生活的不平等,某些数据的被遗忘,必然扭曲样本数据和算法分析的结果,加剧了智能算法的偏见循环。
其次,原始数据库中的结构性偏见会导致智能算法的偏见复制。算法的原始数据来自人类社会,必然会隐含人类社会的意识形态。研究者通过AI程序识别一组照片,发现凡是照片中系着围裙在厨房做饭的人物,不论男女都被识别为女性。而造成AI失误的原因在于,训练AI进行图像识别的数据库中有百分之九十的图片都把女性和厨房联系在一起,AI通过这样的数据库学习、训练,自然会在图像识别中重现这样的偏见。由此可见,要从现实世界中挖掘、分析数据与信息,算法技术不可避免地会复制现实世界原始数据库中的结构性偏见,继而影响算法的运行及结果。
2.程序设计中的偏见循环
算法程序无法“有意识”地抵制社会偏见,根本原因在于算法模型设计的每一步都很难独立于程序员的控制。算法进行数据挖掘的步骤包括:定义“目标变量”和“类标签”、标记和收集训练数据、使用特征选择,并根据结果模型做出决策。目标变量的定义和数据标签的分类决定了什么数据会被计算机挖掘,标记和收集训练数据能够让机器学习要抓取的数据特征,而这些标准的预设与模型的建构,都取决于操作者。
首先,在算法进行数据挖掘之前,人类程序员需要理解数据挖掘的目标,并将目标任务转换为能够被计算机识别的话语体系,话语转换具有较强的主观性,人类程序员可能在无意识中将个人主观偏见代入程序;其次,算法要根据程序员预设的目标变量和分类标签进行数据挖掘,目标变量及其权重的设定对算法模型的科学程度具有影响。例如,要判断用户对信息的兴趣程度,算法就要依据程序设计者预设的类别标签(用户性别、点击频度、页面停留时长等)及其权重抓取数据,变量与标签的设定具有较强的主观性,不同的规则和权重会使算法得出不同的结果。在新浪微博的王思聪抽奖活动中,平台人为降低了“不发原创微博” “不发图片”等特征的用户的权重,对算法的变量与权重的主观调整就导致了具有偏见的结果产生。
3.人机互动的偏见习得
人工道德智能体(Artificial Moral Agents,简称AMAs)的研究发现,机器学习人类语言能力的过程,也是深度吸取隐含其中的种种偏见的过程。完备的机器道德智能体仍未诞生,现有的机器也无法做到对偏见的“有意识的抵制”。Twitter的微软聊天机器人Tay在上线与用户交流不到一天后就被紧急下线,因为在与人类聊天的过程中,Tay被教成了一个口吐脏话、集性别歧视、种族歧视于一身的极端分子。现有的人工智能机器尚不具备自动识别并抵制人类偏见的能力,因此,在人机互动的过程中,机器会无意识且不加选择地习得人类的一切伦理与喜好。搜索引擎利用算法开发“自动完成”(Auto-Complete)的功能,即用户在搜索框输入关键词后,根据词条的历史搜索量为用户自动显示或补全相关文本,其初衷是为用户缩减在线搜索的时间成本。但是,历史搜索中的关键词文本所隐含的偏见极易影响算法的客观判断和用户的认知。2012年9月,德国前第一夫人贝蒂娜·沃尔夫起诉Google,因为Google搜索引擎“自动完成”的搜索结果把她的名字跟“妓女”“伴游女郎”放在一起。Google被勒令修改其搜索引擎的“自动完成”结果。搜索引擎之所以会自动呈现这一具有严重偏见的结果,与Craigslist和亚马逊土耳其机器人招募的水军所制造的搜索量有很大关系。因此,算法与社会的互动在无形中增加了其继承人类偏见的风险,而当人类恶意的利用算法制造偏见时,算法更是毫无抵抗能力。原始数据库的“污染”、人机互动及程序设计中人类主观因素影响,导致社会偏见在算法实践中重现。与算法干预不同的是,由社会偏见衍生的算法偏见难以察觉且不易避免。
(三)算法遮蔽:量化计算对现实的“理想化”建构
数据表征并粉饰生活世界,使日常生活具有普遍的可量化性。然而,数学逻辑忽视了现实世界及生活在其中的主体无法加以计算的不确定性和特殊性,计算机指令无法对有机世界的永恒变化作出定性反应。因此,在对经验世界的理想化建构中,必然会有部分事实和真相被遮蔽。算法依靠数据形成对用户偏好和信息价值的预判,在一定程度上能够使信息的传播更加精准高效。但是,数据建构的观念世界与经验世界的差距,会导致推荐算法对信息和用户的片面认知,继而在个性化推荐过程中出现偏见与失误。
算法利用系统收集的数据对用户兴趣和信息价值进行量化,在个性化推荐环节中根据量化计算形成的认知为用户推荐信息。算法推荐一般遵循三种规则:“基于内容的过滤”“协同过滤”、基于“单因子”的推荐。算法个性化推荐的实践中,数据测量的不科学,会影响算法全面客观的认知用户和信息推荐的精准度。
1.“社交手势”对用户行为与情感的简化
算法利用“社交手势”(social gestures)推断用户情感倾向与价值立场,会对用户信息偏好产生认知偏见。基于“内容过滤”推荐的算法机制,通过捕获用户的“社交手势”(查询历史、搜索内容、点赞、收藏、转发、评论等)来判断用户的信息偏好(Bozdag E.,2013)。然而,用户的社交手势充满随机性与偶然性,其背后的真实情感与价值立场无法被算法捕获。用户搜索或转发某部电影信息可能是出于好奇,可能是希望进一步接受这类电影信息的推荐,但也可能是为了表达批判的观点,或者仅仅是一场社交展演。用户在新媒体中的信息行为和动机往往是丰富且复杂的,这些社交手势将复杂的人类行为和情感简化为单一的维度,过高地估计了机器与数字对人类感情的量化能力。因此,算法通过跟踪用户的社交手势来绘制用户画像,判断用户对某类信息的兴趣程度,是片面和武断的,必然会造成对用户的认知偏见以及信息个性化推荐的偏差。
2.信息热度的测量对“伪数据”的遮蔽
算法忽略信息热度中的伪数据,会对信息推荐价值的评估产生偏见。在同一监测时段内,点击率、转发量高的信息,一般会被算法列为话题趋势榜首或优先推送给用户。而以点击率、点赞量和转发量等作为测量信息热度的指标是不科学的。数字营销公司能够通过购买“粉丝”“赞”等人为操纵信息的热度和流量。在YouTube上要捧红一个视频,公关公司只需花钱在短时间内维持视频的人气,YouTube就会自动向用户推荐这个视频,造成弥母(meme)自主传播的印象。更严重的是,算法被虚假流量欺骗,在信息推荐机制中为用户设置议程,再次提升“热门信息”的人气,而“冷门信息”无人问津,导致信息的偏见无限循环。
智能算法对客观世界的量化计算,看似使人类掌握了筹划现实生活的预期规律,实则遮蔽了复杂的人性与物性。智能技术为人类带来的数字风险是巨大且未知的,人们亟需对智能算法的数字实践进行反思。
三、算法正义:数字技术风险的治理路径
算法主导的信息传播机制逐渐嵌入人们的日常生活,控制着媒介的内容生产与用户的信息消费行为。斯科特·拉什(Scott Lash,2007)指出:“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中。”算法偏见的治理已经成为数字化社会中无法回避的显性议题。南希·弗雷泽认为正义即参与平等,算法正义意味着从数据输入到结果输出,算法程序的每个环节都要体现参与平等,为“最大多数人”提供“最多的善”,才能最大程度地避免偏见的结果产生。欧盟的规制秉持“以人为本”的欧洲传统,警惕人工智能技术应用的风险后果,强调人工智能发展的“向善”导向以造福个人和社会。与此同时,人们应意识到算法偏见的成因是多样的,缺乏单一的来源或解决方案。因此,要充分考虑到算法技术作为一种社会化信息技术的本质,遵循去技术中心化的理念,从多维度出发,尝试建构对人类负责的正义的算法机制。
(一)数据公正:兼顾数据主体的可见性与自主性
数据是算法运行的基础,非正义的原始数据会导致算法偏见的无限循环,因此,数据公正是保障算法正义的基本原则。数据公正指人们因数字数据的生成而变得可见、被表现和被对待的方式的公平性。
算法的“选择性失明”会导致数据边缘群体丧失社会流动、经济机会甚至政治平等的权利。理查德·赫克斯(Heeks,2016)等研究者依据《世界人权宣言》的准则,提出数据所有权、获取权和代表权是公平和正义的根本。因此,他们关注如何利用数据技术,提升边缘群体可见度,从而实现社会分配的正义。
不过,数据公正不仅要考虑数据主体的可见性,还要考虑数据主体具有不被看到的自由。林内特·泰勒将积极的权利与消极的自由结合,提出数据公正的三原则(见图1):(不)可见,意味着人们应同时拥有平等的数据代表权和信息隐私权,数据主体有权决定是否允许个人数据被算法采纳;(不)参与,在推动平等的数字技术接触权利的同时,要保证人们拒绝使用数字技术的自由;反歧视,指识别和挑战数据驱动的技术偏见的能力,以及不受数据歧视的自由。因此,数据公正的核心问题是平衡和整合人们被看见和被代表的需求,以及对自主性和完整性的需求之间的关系。
图1 数据公正原则框架
从根本上讲,只有彻底消除了人类社会的结构性偏见,才能真正实现数据平等。因此,数据公正看似是一个理想化的矛盾概念,其实不然。数据公正作为技术偏见的实质性治理路径,它促使人们认真审视数据化社会中复杂的权力关系,思考数据驱动技术的安全性、自主性、公平性和可持续性等概念的问题。在信息技术采纳与数据分析全球化的环境中,将数据公正的框架纳入算法偏见治理的讨论,审视并修正不公正的数据采纳可能引发的社会技术风险,是构建公平负责的算法机制、推动人类社会技术正义的起点。
2.算法透明:建构平台与用户的平衡关系
纳塔利·赫尔伯格(Natali Helberger,2016)倡导一种“公平媒体实践”(Fair Media Practices),主张建构媒体和用户之间的平衡关系。提升算法透明度能够有效减少媒体和用户之间的信息不对称,构建媒体与用户的平衡关系。
透明度是新闻伦理学的核心价值,被称为“新的客观性”,是发现社会真理的重要途径。提升透明度意味着媒体要向公众开放信息生产制作的过程。将透明度应用于算法新闻,就是公开智能算法程序设计以及如何与数据进行交互的背景信息并使之具有可解释性,减少媒体与用户之间的信息不对称,在自我与公众的双重监督下保证算法决策的客观中立。
算法不仅关涉商业机密,还具有极强的专业性。这些特性必然会影响算法透明度。对于许多互联网公司来说,算法的运行机制涉及企业机密,算法透明就意味着要在一定程度上公开其技术系统中的运作细节,损害企业的竞争优势和商业利益。此外,算法技术专业性较强,普通用户难以理解算法决策机制的技术细节。平衡公众认知能力、平台的商业隐私与公共利益的关系,是制定算法透明度准则的关键。涵盖“优先级、分类、关联、过滤”(Diakopoulos N.,2015)的算法能力框架,为算法透明和信息公开提供了参照:
1.公开信息优先级的准则
公开信息优先级排序的标准或价值要素,以及每种价值要素所占的比重,充分说明算法排序的结果的合理性。公众要检验这些准则或价值要素是否天然具有偏见,是否与公共利益相悖,以及平台在具体的新闻实践中是否严格遵循这些准则与价值要素。
2.公开用户生成画像的要素及标签
首先,在收集用户信息前应获得数据主体的许可;其次,要向用户公开生成画像的要素及标签,使用户知晓自己的兴趣属性和身份标签;最后,当算法对用户的认知产生偏见,要给予用户及时修正偏见的权利。
3.公开关联的阈值
关联用户与用户、用户与信息时,要设立并公开一个阈值。当用户之间的相似度、用户对某类信息的兴趣度达到规定阈值后,算法才能为二者建立联系。此外,阈值的公开能够使用户自己掌控与其他用户、信息的关联程度。
平台算法透明度的提升,能够使用户监督和检验算法新闻的运作过程,建构用户与智能媒体之间的平衡关系。算法透明的维度和效果,仍需在实践中不断的检验与修正。
(三)算法问责:技术风险治理与数据安全
算法的运行机制非常复杂且具有较强的技术性。仅仅依靠平台自律性地公开数据与信息,仍无法避免算法偏见以更隐蔽的方式出现。因此,对平台和算法的法律监督、调查和问责,是规避风险的重要措施。
在世界范围内,不少国家已逐渐开始意识到算法技术安全与数据安全保护的重要性与紧迫性,并展开一系列立法实践。2018年正式生效的《欧洲联盟通用数据条例》(GDPR)明确规定,算法的功能须具有可理解性。算法对个人数据的收集与使用,尤其是使用技术形成画像必须要获得数据主体的同意。GDPR将数据隐私作为一项基本人权,并已成为其他国家的典范。2017年美国计算机协会公共政策委员会(USACM)制定了一套算法透明的七大责任原则:意识原则、准入和补救原则、问责原则、透明原则、数据来源原则、可审计原则、验证和测试原则(Donghee Shin,2019)。我国《电子商务法》虽然规定消费者具有算法的选择权,但没有强制规定算法透明与信息公开。
在具体的立法实践中,首先,要明确提出平台数据主体的信息安全问题。平台算法要同时兼顾数据主体的可见性与主体性,并促进平台“去身份识别”技术的发展,平衡身份再识别风险与社会效益之间的关系。其次,要对算法透明度的提升维度和标准作出明确的规定并建立相应的问责机制。再次,要明确规定平台算法排序的价值要素不能与公共利益相悖,严格限制人为的算法操纵。最后,平台需要优先显示赞助商的信息时,应主动公开标注广告,避免误导用户的认知。
智能媒体的算法实践深刻影响着现代社会的信息流动。算法正义原则旨在塑造公平、透明、负责的算法系统,倡导媒体利用算法技术生产优质多元的信息,客观真实地呈现事实真相,激发人们的理性思辨,最终导向人类的美好生活。算法偏见的揭示与治理是解构智能传播的算法神话、强化技术社会中用户的主体性与信息产品的公共性、规避技术伦理风险的有效路径。
注释:
① DeVito,Michael A.(2017)FromEditorstoAlgorithms.Digital Journalism.5(6):p.756.
② Matt Carlson.(2017)AutomatingJudgment?AlgorithmicJudgment,NewsKnowledge,andJournalisticProfessionalism.New Media & Society,20(5),p.1757.
③ 张超:《作为中介的算法:新闻生产中的算法偏见与应对》,《中国出版》,2018年第1期。
④ Matt Carlson.(2019)NewsAlgorithms,PhotojournalismandtheAssumptionofMechanicalObjectivityinJournalism.Digital Journalism.Published online:https://doi.org/10.1080/21670811.2019.1601577.
⑤ [加]文森特·莫斯可:《云端:动荡世界中的大数据》,杨睿、陈如歌译,中国人民大学出版社2017年版,第200页。
⑦ 吴飞:《媒介技术演进脉络的哲学考察》,《新闻记者》,2018年第12期。
⑧ [德]海德格尔:《林中路》,孙周兴译,上海译文出版社2014年版,第281-293页。
⑨ [英]贝斯黑莱姆:《偏见心理学》,邹海燕、郑佳明译,湖南人民出版社1989年版,第7页。
⑩ 郭小平、李晓:《流动社会的智能新媒介、移动连接与个人隐私》,《现代传播》,2018年第10期。