数字中国背景下算法决策的社会信任机制研究
2021-10-31黎梦兵
摘 要:算法决策已成为建设数字中国的一项基础性技术。由于算法决策系统的复杂性和科技依赖性等特征,在决策过程中容易引发隐私泄露风险、算法决策错误风险、算法偏见风险和声誉风险等算法风险,使用户面临不确定的算法决策环境。算法风险会引发公众对算法决策的信任危机,产生算法恐慌情绪并可能导致算法污名化,进而阻碍数字中国的进程。应对算法决策的信任危机,理念层面,要明确算法决策的技术理性;规制层面,要提前规避算法决策的风险;声誉层面,要为算法决策正名,实现算法“去污名化”;用户层面,要营造一个良好的算法用户环境,以构建算法决策的社会信任机制。
关键词:数字中国;算法决策;算法风险;社会信任
中图分类号:C91
文献标志码:A文章编号:1002-7408(2021)10-0090-06
作者简介:黎梦兵(1992-),男,土家族,湖南张家界人,湘潭大学法学院博士研究生,研究方向:社会信任、算法治理。
一、數字中国背景下算法决策的普适性
“算法”一词原指使用数字进行加、减、乘、除的方法。现代意义上的算法决策是指以海量数据为基础,进行自我运算、学习,以提供备选决策的过程,其运算模式可以理解为“输入数据——输出结果”的输入输出模型,算法决策的结果多用来进行具体事物的管理,并可以实现社会资源的配置。相对于人类决策或借助其他数理工具决策而言,算法决策具有其不可替代的优势,如应用场景丰富、适应能力强、计算精准程度高等,能够在复杂环境下执行大量复杂的任务,包括信息安全加密、用户偏好推荐、风险预测、结果分析、深度伪造和系统优化等,能够大幅节约时间和提升工作效率[1]。
《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》[HTF](以下简称《纲要》)提出要加快数字化发展,建设数字中国,明确了通过数据要素推进网络强国建设的宏观目标。算法决策作为大数据时代智能决策的基础,将对生产方式、生活方式和治理方式产生重要的影响。在数字中国环境下,算法逐渐运用于社会生活的各个场景,从信息精准推送到智能路线导航,从预测治安风险到辅助法官量刑,算法可以适用于新闻、教育、医疗、执法、金融、社会保障等不同领域,并发挥着越来越重要的作用。
科学技术成为国家强盛的基础,通过创新引领高质量发展是我国未来的发展趋势。第四次工业革命以来,世界范围内的许多国家都开始注重以信息产业主导经济发展,大数据、人工智能、量子信息、物联网、区块链等新兴信息技术逐渐成熟,应用场景逐渐丰富,而算法决策成为这些新兴信息技术的重要纽带,可以说没有算法决策,信息技术发展将寸步难行。在算法决策的作用下,新兴数字信息技术不断推陈出新,逐渐发挥技术群的系统作用和规模效应,以此衍生的数字经济成为经济增长的新动力。世界各国纷纷借助“技术东风”,调整优化经济结构,以实现经济发展速度稳步提升。
十九大以来,中国大力推动数字技术与实体经济深度融合,算法决策作为重要的基础性工具,逐渐成为我国发展数字经济和共享经济的技术支撑。然而,算法在给社会生活带来便利的同时也引发了一系列社会问题,算法规制逐渐成为社会科学领域的研究热点。在大数据时代,各类信息都可通过数据化途径储存,数据成为信息与社会利益的载体。换言之,大数据时代将面临处理海量数据的难题,由于处理海量数据所需的算力超出传统计算工具的能力范围,这便意味着社会资源的分配权力从人工转向算法,而基于数据所进行的算法决策则成为一种事关社会公众利益消长的社会建构。“这使得算法逐渐脱离数学工具的角色,并与数据资源结合成为重要的新兴社会力量。”[2]可见,大数据时代算法决策已经成为一项普适性技术,并逐渐超越其技术范畴,具备了社会属性。
二、算法决策的风险表征
随着人类社会从弱人工智能阶段向强人工智能阶段过渡,算法自动化决策存在的局限性逐步显现,也引发了诸多问题,如“算法霸权”“信息茧房”效应以及“算法杀熟”现象等,而算法人为“操纵”等风险将妨碍数据主体的人格尊严及经济利益等合法权益[3],进而引发算法自动化决策风险。随着一系列算法妨害案例的出现,如针对罪犯再犯概率的预测系统出现种族歧视、谷歌算法操纵排除竞争、电商营销中的算法杀熟以及深度伪造的假新闻等等,对算法决策的不信任逐渐成为普遍的社会现象,一时间“谈算法色变”。
大数据时代的算法决策较为特殊,因此算法决策的风险表征亦更为隐晦。一是算法的公开和透明程度较低,容易形成“算法黑箱”;二是算法的复杂程度较高,其工作原理难以被社会公众所理解;三是算法结果具有不可预测性,算法结果的科学性依赖于算法设计、数据量及监管等多重因素,实践中算法设计要考虑一定的随机性,这意味着算法结果难以预测;四是算法结果不可控性,由于算法决策多应用于海量数据的处理,需要针对某一类特殊情形而及时、精准及多次输出特定结果,这便意味着算法决策需要针对不特定主体及情形多次输出类型化的结果,而一旦出现算法妨害,往往会引发不可控的算法决策危机。
在大数据时代,随着算法应用场景更广,各行各业可以提供更加丰富的源数据,数据采集主体更为广泛。算法决策过程涉及到数据采集者、算法设计者及算法使用者等主体。由于算法技术本身的特殊性和算法使用过程的不确定性,致使算法自身可能存在缺陷,使技术的公正性、合理性和可行性达不到要求。对于一般公众而言,算法决策往往具有较强的科技背书特征或监管机构背书特征,要么被科技外观所隐藏,不被理解;要么被自动视为中立的、权威的、科学的。因此,在数据采集者、算法设计者和使用者之间存在算法认知的鸿沟,容易引发算法决策的风险。如图1所示,算法决策系统涉及多重主体,从源数据输入到输出算法决策的过程中,存在隐私泄露、算法决策错误、算法偏见和算法声誉等算法风险。
其一,隐私泄露风险。算法系统运行立足于大量的基础数据,其输出结果的准确性以足够全面的样本为基础,因此算法系统往往需要采集、掌握或存储大量数据信息。这一过程可能存在过度搜集数据的情形,如大量收集个体的敏感数据或企业的涉密信息,引发数据隐私保护问题。由于个体和一般企业无法突破“算法黑箱”,处于相对弱势的地位,而互联网企业可以利用其优势地位逐渐形成“技术割据”,加剧了互联网企业和其他主体之间的强弱对比,导致算法系统中主体地位不平等[4],出现随意流转、买卖数据等现象,造成隐私数据泄露等危机。
其二,算法决策错误风险。由于算法本身是一种计算程序,尽管可以通过自我学习进行优化,但算法决策系统的科学性受到设计缺陷、源数据的体量、决策程序等客观因素影响,难免出现错误的结论。如新闻媒体算法决策错误,在信息传递过程中根据“用户画像”推荐大量虚假新闻,不仅不利于应急管理,反而会引发公众的恐慌。
其三,算法偏见风险。由于算法决策系统可能被人为操纵,导致决策过程存在偏见因素,使得算法系统重复输出不公平、不合理的结果。算法偏见存在于算法设计和运行的每一个环节,包括算法设计者的偏见、输入数据的偏见和算法局限的偏见[5]。算法歧视主要表现为输入相同而结果不同或输入不同而结果相同,进而引发“针对种族、性别、年龄、消费及弱势群体的算法歧视”[6]。算法偏见的存在是导致算法信任危机的主要成因之一。
其四,算法声誉风险。在数字中国建设过程中,算法决策应用将进一步推广,影响社会的方方面面,其中还包含了公共事业管理、新闻媒体、医疗、教育乃至司法裁判等公共利益领域,良好的声誉对公共利益领域而言至关重要,也是获取公众信任,实现社会稳定的压舱石[7]。算法的科学决策是新时期我国实现社会治理能力现代化的必然要求,但如若算法妨害导致算法声誉受损,乃至出现“算法决策污名”,则必然影响公共事业管理,不利于社会稳定,造成社会多重信任危机。
三、算法决策信任危机
算法决策本身存在着“黑箱”“信息茧房”等特质,其高度不确定性易造成“算法恐慌”“算法污名”等问题。因此,社会公众对算法决策易于产生的不信任情绪,进而导致算法决策的信任危机。
(一)算法决策风险的社会放大
按照风险的社会放大理论,如果某项危机受到社会公众强烈关注时,基于各种机制,有关算法决策的风险可能会在风险传导过程中被放大[8]。这种风险放大表现为社会公众的强烈风险感知,并逐步演变为用户对算法风险的愤怒情绪。具体而言,算法决策风险的社会放大一方面会导致算法污名,使公众无差别地不信任算法决策,妨碍算法决策的社会效果;另一方面也会影响算法决策的合理使用进程,不利于算法技术本身的革新。
在互联网时代,算法等新兴技术借助互联网平台定向推送感性化的信息進而导致谣言的泛滥,“是一种利用群众情绪极化谋求流量及利益从而掩蔽真相,破坏网络传播秩序,阻碍主流价值传播及舆论引导的时代现象”[9]。这造成了算法决策的“后真相”现象,算法决策的实际危害已然显现。学者多以选民投票为例证实“后真相”社会的算法妨害,其实现模式为:“第一步,根据已掌握的数据隐私群分选民,形成有不同偏向的群体;第二步,通过算法决策实现精准的信息推送,构筑‘信息茧房;第三步,通过精心选择、制作内容以搭售操控者意图,引导选民群体投票。”[10]算法决策的“后真相”特质不仅成为部分群体操纵选民投票的方式,更是社会层面算法决策信任危机的重要原因之一。
随着互联网和移动智能终端的进一步普及,信息的“点击量”“关注度”“转发率”等指标可以转化为经济利益。为攫取更多利益,传统媒体和新媒体在传递信息过程中,往往会迎合用户偏好对既定的事实进行加工或渲染,导致信息的传递过程中其经济价值、娱乐价值及猎奇价值优先于真实价值,算法针对用户偏好的定向推送则会加深这种偏见,如出现迎合用户口味的“深度伪造”短视频,鉴伪难度更高、影响更为深远[11]。在事实被澄清后,会出现信息的反转,而大量的反转信息和反转新闻会持续冲击主流意识形态的价值共识,导致社会公众对算法决策和定向推送的普遍怀疑,进而引发算法污名化现象。
算法决策污名是指不特定主体形成的针对算法决策的一种不合理负面评价,造成算法决策普遍的负面形象。在算法决策模型中,社会信任是不同群体价值共识得以形成的社会基础,这种信任可以节约社会资本。但算法决策“后真相”会引发针对算法等新兴技术的污名,在反转信息的不断证实下,污名的影响范围将不断扩大,导致付出信任的成本大于不信任造成的损失。在互联网、自媒体所主导的虚拟“赛博空间”之中,“算法等技术污名”的妨害进一步放大,在这种不信任基础上,社会公众的判断和决策将脱离科学事实的理性证据和高尚道德的感性情愫,形成一种泛化且武断的不信任判断,最终引发针对算法决策等技术的社会信任危机。
(二)算法决策信任危机的表征
卢曼认为:“熟悉与信任是吸收复杂性的互补方式。”[12]对于具备复杂性外观的算法技术,算法决策信任危机将打破原有的熟悉机制,使复杂性简化困难重重。熟悉机制可分为传统群体层面的人际信任和社会宏观层面的系统信任,与之对应,算法决策的信任危机亦可分为人际信任危机和系统信任危机。
就算法决策人际信任危机而言,随着算法逐渐改变用户的传统生活状态,公众形成算法依赖,这冲击了传统的人际信任基础——相同地域范围内熟人社会。在算法决策的影响下,公众获取信息的渠道多元、内容复杂繁多,但所获取的信息具有一定用户偏好,持续反复的偏好信息会强化公众对“特定事实”的认知,甚至形成偏见,进而导致公众在个性定制的碎片化信息中强化个人认知而不信任其他人,引发人际信任危机。
就算法决策系统信任危机而言,由于算法决策的普遍性和“黑箱”特质,很多用户不知道其利益是否为算法所影响,会产生对算法决策的泛化恐慌情绪。换言之,在日常社会生活中,用户会形成一种“它为什么这么懂我”式的疑问,不知道生活场景中有没有算法,不知道算法在何处,不知道算法是否科学及不知道如何救济等。在这种多维不确定性情绪主导下,公众会对整个算法决策系统产生怀疑。算法决策系统信任的确立依赖于算法制度监管体系,算法决策的系统信任具有提高社会活动效率、节约交往或交易成本等重要作用。在监管措施不够完善的情况下,由于算法决策缺乏必要的安全外观,用户对算法损害救济缺乏信心,导致对算法决策的不信任扩大至对算法决策及监管体系的不信任,此时怀疑情绪演变为系统的不信任,增加达成合作或交易的社会成本,形成算法系统信任危机。
四、算法决策社会信任机制的构建
世界各国都意识到算法决策的风险,并采取了相应措施,从立法实践等方面关注涉及到算法决策的个人信息保护、数据保护等内容。如2018年欧盟《通用数据保护条例》生效,被称为“史上最严数据保护条例”,明确算法决策者应当以合法、合理和透明的方式处理个人数据等。我国立法也回应了算法决策风险,如《网络安全法》《数据安全法》《信息网络传播权保护条例》等法律法规,以及《个人信息保护法》草案大多提到要约束算法自动决策,强调个人信息保护等。但是,针对算法决策的争议却愈演愈烈,并逐渐形成信任危机。算法决策通过技术进行综合决策是一个社会建构的过程,法律是其中较为重要的一环,但并非唯一一环。基于此,如图2所示,在数字中国背景下,应对算法信任危機不仅要立足于法律规制,还应以算法风险防治为核心,不断修复算法等新兴信息技术的信任链条并形成信任闭环,最终构筑算法决策系统的社会信任机制。
(一)算法理念更新:技术理性
技术信任以技术理性为基础,在算法决策过程中,算法使用者不仅要考虑算法技术的应用功能,还要考虑通过算法进行决策的目的正义、过程公正以及结果正当。尽管每一次技术的迭代、更新都会在带来便利的同时引发风险和不确定性,但这种不确定性也间接促使技术自身的革新,推动技术配套制度体系逐渐完善。申言之,技术风险与技术理性之间存在一种伴生关系,由技术风险促成技术理性不仅是技术推陈出新的规律,也是技术信任的必然要求。
算法决策的社会信任需要树立算法技术理性,具体可从合理、动态、规范和价值等方面展开。首先,算法决策技术要符合技术合理性要求。合理要求技术使用达到价值期许,算法决策原理具备科学性、可行性和可操作性,算法决策规范有效。其次,算法决策技术需要动态调整。技术是使用者意愿的具象化,具有统筹多重抽象可能性的作用,这近似一个创造理想的过程,因而算法技术需要不断调整、更新和完善,“算法技术发展中伴随而来的各种风险可以通过增强技术可靠性以及开拓技术周边措施的方式来增加公众信任”[13]。因而算法决策技术要符合技术原理,借助科学技术规律动态应对算法决策风险。再次,从算法决策的规范视角而言,由于技术本身不具备价值评判,因此应对算法决策风险要强化技术创造者、使用者及监管者等参与主体的行为规制。要发挥法律、道德、市场等多重规制机制作用,使算法决策公开、公正及可责,这也是算法决策社会信任机制的重要抓手。最后,就算法决策技术理性的价值层面而言,要体现对算法决策用户的终极关怀,并以此为出发点,促使技术创造者和使用者形成高度自律的道德约束体系,促使监管者形成高度完备的监管体系,这种技术理性价值也成为算法决策系统信任的最优形态。
(二)算法规制提前:风险预防
算法决策风险是算法决策信任危机的主要诱因,针对算法决策过程中可能存在的隐私泄露、算法决策错误、算法偏见和算法污名等风险,要通过法律规制实现风险的防治。而区别于算法决策产生危害后再行处理的“末端反应机制”,算法决策风险的应对需要提前,在事前阶段就采取有效的风险预防措施。这种风险预防不仅可以从实然层面降低算法决策风险,还可使算法决策监管者树立积极应对的形象,增加公众的信心。
然而,在风险社会,绝对的风险预防是无法达到的。换言之,我们无法逃避在日常生活中面临各式各样的风险,形成“在未知之中决策、监管、工作及生活”的状态。因此,并非所有算法决策风险都需要采取预防措施,要实现技术革新与风险预防的动态平衡。一方面,算法决策风险需要被怀疑到一定程度,以合法权益受到威胁的可能性、紧迫性及破坏性为限度,此时风险的法律规制需要采取谨慎的态度,将合理审查作为风险预防措施的适用前提。另一方面,要依据算法风险特征灵活选取所采取的风险预防措施,在采取风险预防措施所获得的成效与放弃的利益之间进行权衡,如算法决策涉及到国家秘密等敏感信息,造成的损害难以挽回,对此无论需放弃多少利益都要严格采取风险预防措施。
算法决策风险预防要从风险识别、风险沟通及应急管理等层面开展,并在制度层面予以回应,如监管者与互联网企业合作,建立算法决策风险评估制度及算法决策突发事件后评估机制等。首先,算法决策风险识别,是指在算法决策系统设计、输入、运算及输出的全过程中,运用各种方法或技术持续地辨识不同时间节点的各种算法决策风险。其次,风险沟通是算法决策公开透明的要求之一,要及时与用户之间传递风险信息。最后,应急管理是发生算法决策妨害之后的冲突协调预案或措施,如对某些特殊领域使用算法决策“白名单”制度,即为了保障该领域的信息安全,只有那些被证实不存在风险的算法决策才可以被使用。
公众对风险高度关注且本能存有恐慌情绪,实践中多依据其社会生活经验进行感性的危机判断,因此社会信任的程度与信心相关[14]。尽管算法决策风险较为隐蔽,但风险预防的出现使得风险规制提前,让算法用户获取足量有效的风险信息,掌握风险辨别的手段,实现算法决策的透明化和公开化。可见,风险预防可以增强公众对风险监管的信心,消解负面的风险感知,形成理性的风险认知,因而风险预防是算法决策社会信任机制的关键。
(三)算法决策正名:“去污名化”
算法决策的“污名化”会加深用户的恐慌,“去污名化”则成为算法决策社会信任机制构建的重点。从污名化的产生来看,用户对于算法决策的恐慌往往并非基于直接利益损害,而是基于害怕、从众等情感所形成的认知。为应对公众对算法决策所形成的非理性判断,防止风险的社会放大,需要去除算法决策的污名化标签。首先,算法决策污名化源头的管控。在自媒体时代,大量有关算法偏见、算法歧视的报道获得了公众的关注,对公众而言算法“看不见、摸不着”,较为复杂晦涩,这加强了公众对算法决策的反感或恐惧,并逐渐形成了算法不好的认知模式。因此,要从源头改善这种负面形象,通过算法解释实现公开、透明;此外在信息传递时,使用简明扼要、直观的表述方式表达算法决策,消除用户对算法的恐惧,淡化对算法决策的负面情感认知。其次,保障算法决策技术本身的安全。批判性与建构性是辩证统一的,算法决策的正面形象立足于算法技术本身的安全可靠,这要求通过法律、道德等不同约束体系建构算法决策技术的监督体系,形成相对安全的算法决策系统。要强化监管部门对算法决策的监管,结合技术特征形成专业的算法监管主体,如借助第三方主体参与算法决策风险评估等,构筑精细化、场景化的算法决策监管框架,形成全面的算法监管体系。这种“家长式”的监管体系不仅是算法决策风险防治的需要,更是塑造算法良好形象的最有力措施。最后,加强对算法决策污名化信息传播的管控与引导。媒体在污名化信息传播中起到至关重要的作用,尤其是近年来流行的短视频、微信公众号等新媒体渠道,具有无可替代的信息传播优势。技术的“双刃剑”特性使新媒体同样为算法决策污名信息的管控与引导提供了便利,要通过媒体渠道积极宣传算法知识,介绍算法决策的功效及作用等,让公众通过学习算法决策的知识,自主判断算法决策风险,并建立起算法决策风险的理性认知。
(四)用户环境优化:社会信任
由于算法决策人际信任危机和系统信任危机是同步出现的,算法决策的社会信任机制构建便需要关注人际信任与系统信任的协调问题,这就需要营造一个信任的算法环境。此时多数公众认为社会上大多数人和技术都是值得信任的,从而在实现人际信任和制度信任相互配合、彼此平衡下,达成算法决策社会信任链条的闭环效应。
算法决策的社会信任环境立足于算法技术理性、算法风险预防及算法声誉正名,同时要体现对算法决策用户的价值关怀,着眼于用户的多样性需求,系统全面地加强算法决策环境优化。一是关注用户的“生理需求”。算法与信任结合多集中在算法决策具体操作层面,如算法决策不仅要符合用户的偏好,更要保障算法决策的正确性,避免产生负面影响而导致用户放弃算法系统。二是关注用户的“安全需求”。确保用户使用算法系统是安全可靠的,避免隐私泄露等安全风险,同时算法决策往往会对用户利益消长产生直接或间接影响,合法权益的保障是获取信任的最基础要素。三是关注用户的“知情需求”。要突破“算法黑箱”“信息繭房”等。在算法决策等全新的决策模式中,信息、新闻、商品和服务的虚拟性和隐蔽性更强,因此要完善算法公开、算法解释等制度,并通过法律制度予以保证,如在未来的《个人信息保护法》等立法中对此进行相应的规范。四是关注用户“尊重需求”。算法决策系统要尊重用户,建立起制度化沟通机制,充分尊重受众的情绪。五是关注用户“参与需求”。在大数据时代,算法决策逐渐为行政监管所吸纳和运用,算法决策并不意味着公众参与权利的让渡或放弃,同传统决策机制充分重视公众参与一样,算法决策同样需要关注公众参与,并不断创新参与方式来保障公众参与权。
结语
在数字中国建设中,算法决策是建设数字经济、数字社会及数字政府的重要工具。然而,在风险社会,算法决策又不可避免会带来不确定性,这种不确定性冲击了当前的社会信任机制。作为一项技术,算法决策存在于数字中国的每一个场景,自然也得到了公众、企业、监管机构乃至全社会的关注,一时间算法偏见、算法歧视及算法风险规制成为理论研究的宠儿。通观技术风险规制的理论研究范式,其核心是对掌握技术、使用技术的“人的规制”,社会信任在这种规制体系之中既是目的也是手段。在未来的数字中国建设中,我们要强化技术的社会建构,在拥抱技术革新的同时营造社会层面的信任机制,以避免“马拉火车式”的荒诞。
参考文献:
[1] 刘友华.算法偏见及其规制路径研究[J].法学杂志,2019(6)∶55-56.
[2]张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4)∶63-75.
[3]解正山.算法决策规制:以算法“解释权”为中心[J].现代法学,2020(1)∶179-182.
[4]吕炳斌.个人信息权作为民事权利之证成:以知识产权为参照[J].中国法学,2019(4)∶44-60.
[5]LEPRI B, OLIVER N.Fair, transparent, and accountable algorithmic decision-making processes: the premise, the proposed solutions, and the open challenges[J]. Philosophy and technology,2018(4)∶611-627.
[6]汪怀君,汝绪华.人工智能算法歧视及其治理[J].科学技术哲学研究,2020(2)∶101-103.
[7]孙建丽.算法自动化决策风险的法律规制研究[J].法治研究,2019(4)∶108-117.
[8]珍妮·X.卡斯帕森,罗杰·E.卡斯帕森.风险的社会视野:公众、风险沟通及风险的社会放大[M]. 童蕴芝,译.北京:中国劳动社会保障出版社,2010∶92.
[9]郭明飛,许科龙波.“后真相时代”的价值共识困境与消解路径[J].思想政治教育研究,2021(1)∶54-55.
[10]肖冬梅.“后真相”背后的算法权力及其公法规制路径[J].行政法学研究,2020(4)∶3.
[11]黎梦兵,吴勇.新媒体的社会信任问题研究:基于“深度伪造”短视频视角[J].理论月刊,2020(12)∶81-84.
[12]尼古拉斯·卢曼.信任:一个社会复杂性的简化机制[M]. 翟铁鹏,李强,译.上海:上海世纪出版集团,2005∶22.
[13]张欣.从算法危机到算法信任:算法治理的多元方案和本土化路径[J].华东政法大学学报,2019(6)∶27.
[14]张璇,伍麟.风险认知中的信任机制:对称或不对称?[J].心理科学,2013(6)∶1333-1338.
【责任编辑:张亚茹】