价值敏感设计:内容推荐算法进阶之路*
2022-06-17周云倩张记刚
□文│周云倩 张记刚
算法技术的诞生及与传播业的耦合,不仅改变了传统的内容分发方式,提升了信息爆炸时代用户信息获取的效率,也重塑了新闻产品的生产机制和媒介生态。英国社会学家斯科特·拉什(Scott Lash)指出:“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中。”[1]随着“算法权力”应用场景和权力边界的不断扩大,信息的传播与控制方式受到来自技术赋权的挑战。[2]目前,算法主要应用于内容生产和内容推荐两个方面,其中,内容推荐算法已经成为各大资讯平台主流的内容分发方式,在给传媒领域带来革命性变革的同时,其背后的隐忧也逐渐显现。如何破解内容推荐算法的“黑箱”及其权力异化所导致的价值观偏移、用户隐私侵犯、算法歧视与偏见等价值困境,实现工具理性和价值理性的统一,成为其跨越技术樊篱,实现价值进阶的必经之路。
发轫于技术哲学并在信息科学、医学、计算机等学科领域得到广泛应用的价值敏感设计(value sensitive design,简称VSD),为内容推荐算法的适恰运用提供了具有借鉴意义的视角,也是算法治理的一种可选方案。值得关注的是,2022年3月1日正式施行的 《互联网信息服务算法推荐管理规定》(以下简称《规定》),就算法推荐的信息服务规范、用户权益保护、监督管理和法律责任立规明矩。其中,第二章第七条明确提出“建立健全算法机制机理审核和科技伦理审查等”,这无疑为算法价值敏感设计提供了最为有力的政策背书。
一、价值敏感设计的意涵与特征
价值敏感设计研究源于20世纪末期欧美技术哲学的经验主义转向,并形成了以美国华盛顿大学为代表的美国学派和以荷兰3TU(荷兰代尔夫特理工大学、特文特大学和埃因霍温大学的简称)为代表的欧洲学派。[3]1996年,美国华盛顿大学的芭提雅·弗里德曼(Batya Friedman)最早提出价值敏感设计的概念,认为其是一种基于理论的技术设计方法,是在整个设计过程中以原则性和综合性的方式考量人类价值的方法。[4]价值敏感设计欧洲学派的代表荷兰霍文(Jeroen van den Hoven)教授认为技术并不是中立的,而是负载了某种对个人和社会产生重大影响的价值。[5]赵迎欢最早把价值敏感设计概念引入中国,并总结概括了荷兰技术伦理学理论的体系框架;[6]刘瑞林等则对弗里德曼的价值敏感设计概念及其应用实践进行了较为系统的介绍。[7]
1.价值敏感设计的意涵
弗里德曼认为,“价值敏感设计是一种基于理论的技术设计方法,通过概念性、经验性和技术性三种方法的迭代重复,来实现人类价值观的置入,以综合性和原则性的视角阐释和解读技术设计与运用过程中的人类价值”。[8]价值敏感设计确立“技术—价值”并重的设计理念,强调在技术的构思设计阶段即加入人的价值和道德考量,充分考虑直接利益相关者和间接利益相关者的价值诉求,以有效解决信息技术领域不断涌现的技术弊病和伦理道德失范等问题。目前,国内外学者对价值敏感设计的研究和应用尚未形成一个统一的价值框架,但是将技术的设计运用与人类的伦理价值和行为方式相结合,将人的价值观内嵌于技术人工物之中,使技术人工物符合人的价值观和行为方式,已成为共识。[9]
2.价值敏感设计的特征
前涉性。价值敏感设计注重在技术的设计构思阶段即加入人类价值的考量,使技术设计人员在设计之前就倾听各利益相关方的利益诉求,充分考虑该项技术所涉及的人类价值,以期从源头就规避技术的价值缺失以及由此导致的社会伦理问题。
迭代性。价值敏感设计所提出的概念性、经验性和技术性三种设计方法,遵循循环往复、迭代发展的逻辑理路。每一环节所确定的价值结果需要在其他两个环节加以确认、整合和验证,进而再对之前的价值结果进行螺旋式调整和完善。
开放性。在技术的设计与运行中保持开放态度,与技术密切相关的各利益群体都可以参与到技术设计中来,技术设计活动也是各利益相关者价值观念、利益诉求交流协调的过程。
全程性。价值敏感设计强调技术的早期设计、中期制作和后期反馈,把价值敏感作为一个全程性理念和行为置入技术应用的全过程,从整体上平衡和把握技术与人类伦理价值之间的关系。
二、内容推荐算法的价值理性
基于内容推荐算法显见的工具效用,其甫一发轫,短短几年便在内容分发领域形成席卷之势。与此同时,对内容推荐算法价值理性的呼声也日益高涨。具体而言,其须具有用性、便捷性和无害性等价值理性。
1.有用性:提供用户欲知、未知与应知的信息
用户信息行为理论认为,用户的信息需求是用户在特定的信息环境下,从个人需求出发而进行的信息查询、选择和使用行为。[10]该理论强调用户在信息消费中的主动性和自主性。内容推荐算法擅长对用户显在的兴趣点进行识别、记录和匹配,满足用户对“欲知”信息的需求,但对用户潜在的、未明确呈现的信息需求则显得“力不从心”,而“未知”信息往往是能帮助用户消除对现实环境不确定性、满足用户特定需求、帮助用户实现自我发展的重要信息。
内容推荐算法作为一种“技术人工物”,拥有形塑社会和文化形态并直接作用于个体的能力。[11]除“欲知”“未知”信息外,算法用户还应接触体现主流价值观和社会合意的“应知”信息。主流价值观是在当代社会复杂的、多元的价值观冲突中凸显出来,得到社会大多数成员接受与认同,并由社会主流意识形态倡导和支持的思想形态。[12]社会合意是指社会主体间在共同实践的基础上达成的一致性认识,是一个国家和民族存在的基础,也是社会价值系统的核心组成部分。[13]因此,内容推荐算法必须把对用户有用的“欲知”“未知”和“应知”的信息全部传达给用户。
2.便捷性:高效对接信息产销
与传统的人工分发相比,内容推荐算法依托大数据、云计算等先进技术,在自动化、智能化自主学习的基础上,高效、便捷地连接信息生产和消费。国内外以今日头条、百度、脸书(Facebook)、谷歌(Google)、泰晤士报等为代表的资讯平台、搜索引擎平台,正是凭借内容推荐算法技术,不断提升信息分发与消费的便捷性,成为用户信息获取与意见表达的主要渠道。其服务的核心是基于大数据和智能算法技术实现用户兴趣和个性化信息的高效、精准对接,极大地提升了信息分发效率,降低了用户获取知识的“费力程度”。随着内容推荐算法技术的迭代升级,其“便捷性”程度也将不断提升。
3.无害性:构建技术善的道德规范
无害性是指某事物或技术的使用和普及不对人类整体或部分群体产生心理、生理等方面的伤害。技术上的“可能”不等于伦理上的“应该”。维纳在论及互联网技术时也提出,技术的发展,对善和恶都带来无限的可能性。[14]技术的善恶与技术设计及其使用人员的价值观和主观性密切相关。黑格尔曾指出,当个人的兴趣、利益干扰了他正在看待的事物时,就必然产生“坏的主观性”,使事物偏离公共价值。技术价值观也认为技术不是中立的,是包含特定价值的,技术可以带来益处,也可能带来侵害。正确的技术价值观要求把精神价值、伦理价值置入技术发展的全过程,充分发挥技术对大自然改造、社会生产力水平提升和人的人文关怀等效用价值,防止技术的滥用、误用对人类造成的侵害。
三、内容推荐算法的价值困境
内容推荐算法通过对用户画像、消费偏好、内容标签及信息环境等因素的匹配,实现信息的“千人千面”,[15]解决了社交过滤导致的信息垄断。[16]但内容推荐算法的“黑箱”特性,遮蔽了媒体的可见性,[17]改变了以往新闻实践的逻辑和价值原则,导致主流价值观偏移、[18]用户隐私侵犯、算法偏见与歧视等价值困境。
1.主流价值观偏移
陈昌凤、霍婕指出,内容推荐算法渗透着多重价值观,首先是目的最大化、利益先行的商业价值观。[19]当下内容推荐算法大都由算法设计公司和资讯平台把控,追求极致的流量价值从而获得资本回报是其主要目标。其次,资讯平台的理念和文化也会影响推荐算法设计。比如脸书奉行的“3F”(Friend and Family First)原则,即在内容推荐中优先把互动关系强的朋友和家人感兴趣的信息推荐给用户。最后,算法设计人员的个人偏好和认知也体现着价值观。比如在进行用户画像扫描时,算法设计师会基于个人认知选择性别、年龄、民族、区域等因素,并决定各因素所占的比重;在数据录入、数据分析及数据输出中可能同样存在类似情况。算法设计者、建造者的社会责任感、新闻素养等同样包含着价值判断。因此,算法是带有价值观的,常受到来自经济、政治等非技术力量的影响,在代码运行之下潜藏着各种力量的博弈。[20]
2.用户隐私侵犯
算法平台基于对用户姓名、电话、邮箱、密码等隐私信息的获取,来实现“千人千面”的精准匹配。平台一旦对用户个人信息管理不当或超出合理使用范围,则将对用户隐私安全构成威胁。2019年,脸书数亿条用户信息被公开发布在亚马逊的云计算服务器AWS上。[21]无独有偶,据《21世纪经济报道》披露,即使在未授权的情况下,今日头条仍然会读取用户的手机通讯录,并推荐通讯录好友注册今日头条账号。[22]上述案例足以说明,国内外内容推荐算法平台很难做到对用户个人隐私信息的安全管理和合法使用,这给用户隐私信息安全带来巨大风险。
3.算法歧视与偏见
长久以来,由于技术在推动人类社会发展中起着越来越重要的作用,因而人们更关注技术的正向价值而忽视了技术的负向价值。随着社会的发展,人们逐渐认识到技术及其异化给人类带来的灾难和祸患,技术的负向价值也犹如打开的“潘多拉魔盒”。内容推荐算法技术由于其“不透明”和“无法解释”性,往往也会给用户带来虚假信息、算法歧视与偏见等负向价值效应。“在数据的时代,数据的采集者和算法的设计人员很可能存在一些他们自己都意识不到的偏见”。[23]澎湃新闻记者曾用12520个热词测试了百度搜索引擎的排序结果,发现首页中89.8%的搜索结果来自百家号、百度百科、百度文库等百度自家产品。[24]这种“把用户留在自家平台上”的排序算法,本质上是对用户的信息歧视与偏见。
四、内容推荐算法的价值敏感设计与操作
依据美国心理学家吉布森(Gibson)提出的“可供性”(affordances)概念,可供性强的技术和媒体更能够满足用户的需求,更容易得到社会的认可。这一研究视角强调技术与社会、受众之间的微观互动。[25]内容推荐算法也可通过技术性方法强化自身的可供性,并为进一步凸显应然价值找到切实的抓手。某种程度而言,技术性方法也因此成为价值敏感设计中最核心、最重要的内容和手段。
1.全流程的价值检视和偏差剔除
从具体的流程上看,内容推荐算法技术可分为设计构思、程序实现、数据处理和结果呈现四个阶段(见图1)。在内容推荐算法设计的每个阶段,均可能受到构思者、设计者、管理者、内容生成与运营者等个人社会责任感、新闻素养及偏见的影响,还可能受到经济、政治、社会文化等特定因素的左右或驱使。其中,在设计构思阶段,内容推荐算法会更多地受到资讯平台、算法公司等机构利益先行的商业价值观、公司理念和文化的影响;在程序实现阶段,程序编码技术人员的个人偏好和认知也会渗入算法环节;在数据处理阶段,数据的筛选与采集可能会侵犯用户的个人隐私,数据的输入也或受到操作人员价值观的左右,算法程序自身的局限也可能造成歧视与偏见;在数据呈现阶段,也可能融入广告主或其他经济、政治等非技术因素。以上因素或整体性或个别性造成内容推荐算法技术的偏颇或不足。鉴于此,在内容推荐算法价值敏感设计中,上述环节和阶段均应推进价值检视,并对各行动主体可能存在的价值偏差进行有效识别和剔除。
图1 内容推荐算法的技术流程及其价值弊病
依据图1,笔者提出了内容推荐算法的价值敏感设计模型(见图2),并且针对概念性方法和经验性方法中的价值应然和价值困境,有意识地进行算法技术纠偏和价值弥合,以期统筹推进算法工具理性和价值理性的和谐统一。
图2 内容推荐算法的价值敏感设计模型
从图2可以看出,其通过多阶段、多主体、多层次的操作流程来确立并凸显内容推荐算法的价值理性。具体而言,在内容推荐算法价值敏感设计的程序实现阶段,一方面可通过语境核心词提取、权重强化等技术手段,为主流价值观等“应知”信息的采集和推送开通“绿色通道”,注重用“开天窗”的方式打破“信息茧房”效应,纠正算法歧视与偏见等技术偏向和价值偏差;另一方面可倚重敏感词汇过滤、用户隐私信息加密等技术手段,在设计构思和数据处理环节通过“普遍可用”、便捷性、知情同意、无害性等人文精神和价值理性来弥合隐私侵犯等技术缺陷。上述价值纠偏和技术弥合手段并非单向和单次的,而是双向、持续和循环往复的,也就是说在内容推荐算法设计和运行的每一环节所识别到的问题,都可以在其他环节进行检视、确认、整合和验证。
2.重视利益相关者的诉求
利益相关者是美国管理学家弗里曼(Allyn Freeman)提出的理论,是指与企业的生存与发展密切相关的个人、机构和组织。[26]内容推荐算法的直接利益相关者包括算法公司、资讯平台、广告主、新闻媒体、政府管理部门等;间接利益相关者一般包括广大用户、社会团体、一般企事业组织等。需要特别指出的是,由于内容推荐算法的设计和使用直接掌握在资讯平台和算法技术公司手中,作为直接利益相关者,他们的利益往往能够优先得到最大程度的保障,而间接利益相关者,由于处于算法技术的从属地位,他们的利益诉求往往很难被满足,乃至成为利益牺牲的对象,需要在价值敏感设计的流程中予以格外注意。
具体来说,在价值敏感设计中要充分考虑内容推荐算法直接、间接利益相关者的利益诉求,可通过借鉴国外平台的有益经验,组建由政府或行业协会牵头,由媒体平台、技术公司、法律机构、社会团体、用户代表等组成协同设计团队,通过有效的信息公开(算法程序透明)和集体参与设计的方法,以此协调并实现各利益相关者的价值诉求。2018年,今日头条首次公开其推荐算法技术原理,并邀请学界、业界和政府管理部门组成专家团队进行协同把关。该平台经历了从创立之初单一性的算法把关,到算法与人共同把关,再到多主体协同把关的迭代过程,借此提升了社会认可度。
3.评估运行结果
从系统论的角度看,内容推荐算法必然受到社会关系、社会制度、法律法规、民族信仰等社会环境因素的影响。因此,内容推荐算法在完成技术性操作并投入使用后,还需在实际的社会环境中检验并评估运行效果,这一点也必须在算法的价值敏感设计模型中得到充分的重视和实际体现。如通过定时或不定时收集相关评价,以及编撰算法社会责任年度报告等,进行内容算法的正负外部性的科学测评,并将相关结果输入设计构思、程序设计等进行优化,以此对数据处理和结果呈现产生直接的影响。这一过程与新近实施的《规定》中的“算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果”等要求不谋而同。基于算法“公共性”的考量,及时有效地依据评估结果持续对内容推荐算法及价值呈现进行调适,使算法推荐技术在有用性、便捷性、无害性等价值上愈发彰显,而且可有效规避主流价值观偏移等硬伤。
五、内容推荐算法价值敏感设计的“三立三破”
内容推荐算法价值敏感设计的出发点和目标正是回到算法的技术根源,并且引入利益相关者和社会环境等因素进行价值调适和权力增减的探索,试图构建公平、可责和透明( Fair,Accountability,Tr ansparency,FAT) 的算法价值体系,其实质乃是建立算法自身的规范性,并且凸显“破中有立”“立中有破”的“破立之道”。从实践脉络看,借重概念性、经验性、技术性“三重方法”的叠加使用,以此有力破除内容推荐算法技术可能引发的负向价值,并大力激发其正向价值。
1.立“道德”算法,破算法“偏私”
价值敏感设计以道德认识论为基础,通过一种考察概念、经验和技术问题的三重迭代设计方法,凸显设计过程中的人类价值。而且必须注意到,区别于常见的无意识的价值输入,内容推荐算法的“价值敏感设计”是有意识且旗帜鲜明地纳入主流价值因素。这一方案的可行性,除了可以找到《规定》中要求算法应用“向上向善”“坚持主流价值导向”等政策依归,还依存于两条具可操作性的技术路径:一方面,基于清晰的价值敏感设计,通过内部的正向价值赋予,对算法此一技术人工物建构规范性,合理内嵌正当的道德标准,确保“善”的构建;另一方面,在做好正向价值“加法”的同时,还以“减法”方式规避价值异化等问题,由此有效弥合技术工具性和价值伦理之间尚存的差距,达到一种立“道德”算法、破“偏私”算法的理想状态。
2.立“透明”算法,破算法“黑箱”
“算法黑箱”掩盖并可能在一定程度上加剧了算法偏见和对基础数据的使用问题。在内容推荐算法中的价值敏感设计环节,突出了对利益相关者诉求的落地和强化,依托平台、社会、媒体等多方参与设计和合理的信息公开,以技术性方法推进算法平台做好算法的透明化和可解释性,包括合理公开算法决策的内在因果性和相关性等。
2017年,美国计算机协会(USACM)将算法透明度和可问责性作为基本的原则。在我国,《个人信息保护法(草案)》明确了算法自动化决策的透明度要求。《规定》也阐明了算法推荐提供者应着力“优化检索、排序、选择、推送、展示等规则的透明度和可解释性”“以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”原则。在内容推荐算法的价值敏感设计中,正是要以通俗易懂的方式揭开“算法未知之幕”,从而确立可理解的“透明算法”。正如阿里尔·扎拉奇和莫里斯·斯图克所言,算法在透明化的环境中运行对算法相对人最为有利,不仅能够降低检索成本还有利于避免算法致害。从更为宏观的视野看,算法价值敏感中对透明度的设计和落地,也是我国算法治理中的重要环节,具有极为重要的社会价值和现实意义。
3.立“限权”算法,破算法“霸权”
以往制度化的权力只存在于公权力体系中,但在信息时代,算法借助算力和架构已经演变成控制社会资源的非制度化权威。依托所涉技术的高门槛性,算法使用者可以占据支配性地位,一旦与资本合谋,更可能形成事实上的“算法霸权”,甚至发展为“算法独裁”,改变了算法使用者与算法相对人的平等地位和对等权利状态,甚至会侵蚀他人合法权益。内容推荐算法价值敏感设计在限权方面的尝试,凸显了“基于设计来确立权力边界”的限权原则。通过算法程序设计、算法价值审查、算法结果评估和反馈等多元方式,既发挥技术设计的基础性和预防性作用,也同时倚重制度设计的方式规范算法使用行为,全维度、多层面保护算法相对人的权益和应有的社会价值。而且,相对于公权力的“事后结果处罚”的威权控制模式,内容推荐算法价值敏感设计是对算法私权力的“事前限权”,也是算法治理中规制成本更低,成效更为显著的优选项。
六、结语
作为新兴的信息技术规制的理论和方法,弗里德曼提出的价值敏感设计理念已在国外的浏览器、APP、网络社区等信息产业和计算机信息系统、机器人、城市建设模拟系统、纳米制药等领域得以成功实践,荷兰技术哲学学派等也对此予以积极的呼应和行动支持。以上种种,为价值敏感设计应用于内容推荐算法规制提供了良好样本和实战经验。针对国内治理困境,本研究提出价值敏感设计方案,乃是综合算法技术、利益相关者、现实影响等多元因素所提出事先调控的解决方案,既着重对算法可能产生的价值偏差和权力越界加以规制,也注重助推其作为公共性应用产生更大的正向价值,凸显“三立三破”的积极效用。
价值敏感设计的本质是处理“技术—人—价值”之间的关系。在此方案中,概念性、经验性、技术性的方法是一个系统整体,它们相互作用,互为影响。每个阶段的工作都至关重要,都为其他阶段提供信息和判断依据。“三重方法论”基础之上的价值敏感性设计是一个持续发展、相互迭代、不断变化的过程,也是内容推荐算法不断进行自身调适的过程。[27]