算法透明何以提升公众的政府信任?
2024-03-05李晶晶
李晶晶
一、问题的提出
随着大数据、算法和算力的紧密结合为社会运行方式带来颠覆性的影响,我们已迈向“算法社会”。算法逐渐成为公共部门的重要决策支持主体,在风险评估、预测性警务、应急管理等诸多领域发挥了重要作用(Kroll et al.,2016;吴进进、何包钢,2023)。我国数字治理浪潮之中,算法已在“金税工程”等税务相关领域崭露头角,推动治理精细化、信息化,加速国家治理能力现代化进程。在算法被赋予数字裁量权辅助公共决策时,算法透明成为政府善治的应有之义(Busuioc,2021)。算法黑箱、“不可解释隐忧”等算法自身特性触发了诸多风险,引发了学界对于算法透明度缺失、难以问责监督的关切(Janssen &Kuk,2016)。更为重要的是,公共部门算法自动化决策系统的不可见性与不可理解性极易冲击公众对政府公权力的信任(张凌寒,2020)。
与此同时,计算机科学、公共管理学者在信任视域下对于算法透明的呼唤日渐强烈。本文将负责任人工智能、可解释人工智能(explainable artificial intelligence,XAI)的技术逻辑与透明公共价值结合起来(public value)(Schiff et al.,2021),进一步提出:算法透明是指利用解释算法逻辑过程、算法决策结果等手段,以算法解释(algorithmic explanation)为核心机制,所实现的面向公众的可解释、有意义的透明。政府信任是现代公共治理长期以来追求的关键目标,是公众在与政府互动关系中所形成的对政府可信赖性的评估,反映了政府的公共治理能力(Wang &Guan,2022)。人工智能等信息技术造就的治理变革为构筑政府信任增添了不确定性,愈来愈多的学者主张以算法信息公开疏解黑箱、增强公众信任(Diakopoulos,2016),但算法透明对公众政府信任的影响并不明朗(Grimmelikhuijsen,2022)。面向算法赋能治理的未来,政府信任何以为仍有待深入讨论。
全球范围内,各国已进行了算法透明的政策实践。欧盟通用数据保护条例(GDPR)明确了算法解释权;新西兰于2020年颁布了世界首个政府机构算法使用标准;我国最新算法治理文件《互联网信息服务算法推荐管理规定》指明了算法透明的要求,具体机制尚待明确。然而,关注公共部门内算法透明建构路径的研究目前较为有限,且算法透明与信任的关系存在争议,需要在系统理论框架之下检验其与政府信任的关联机制。本文立足于这一研究空间,基于委托-代理理论,从公众感知一侧出发,探索算法透明的实现机制,以及算法透明对政府信任的影响机制。本文主要关注两大研究问题:(1)在政府利用算法进行决策的场景中,何种算法透明机制能够提高公众的感知算法透明?(2)算法如何嵌入政府与公众的关系?在此基础之上,感知算法透明是否会影响公众对于政府的信任?其影响机制如何?
本文可能具有两方面的贡献。在理论层面,本文尝试界定算法透明的内涵和不同实现机制,并立足于算法时代的治理现实,分析算法如何嵌入公众与政府的传统委托-代理关系,进而影响政府信任,为公共部门算法辅助决策场域的透明信任迷思提供启示。在实践层面,本文实证检验了基于过程和结果的算法透明具体策略,为提升算法透明、强化政府信任提供了政策借鉴。
二、文献回顾
(一)公共部门算法及算法透明
算法原指用于任务分析系统的抽象的数学结构,亦是一种权威的表达方式和权力结构(Beer,2017)。根据算法自身的特性,从历史数据中推断趋势、改变传统政府行政范式的“预测型深度学习系统”,不仅使政府更有效地回应了复杂的社会需求,在交通、税收、司法等领域制定了更为智能的方案,更冲击了官僚机构与国家权力的运行(肖红军,2022;吴进进、何包钢,2023)。逐渐膨胀的算法自动决策系统催生了系统性官僚与数字裁量权,对程序正义性、合法性及自由裁量的道德价值提出了挑战(Nagtegaal,2020)。
随着“算法”一词的内涵逐渐从逻辑预设的专家系统(expert system)跃迁至预测能力强大但难以剖析的机器学习算法(machine learning),学界对算法透明的关注与日俱增。算法透明可被视为基于算法解释,对算法相关结构、程序、决策理由、性能、数据等信息,以受众可理解的形式加以披露与公开(Kleizen et al.,2023),其价值意义存在支持论、无效论、有害论的争议(Zerilli et al.,2019)。一方面,算法透明度被认为是解决算法偏见等新技术伦理问题的重要手段,亦关乎公众监督权、知情权等权利,是实现算法问责的重要基础(Busuioc,2021)。以提供算法解释为路径,提升算法透明度能够增强用户对算法的接受度(Cramer et al.,2008),并化解人类对算法决策可能失控之风险的忧虑。但另一方面,公众往往由于缺乏相关技术知识,无法理解高度复杂的算法,致使信息公开的效用有限(Ananny &Crawford,2018),算法信息公开更可能危及商业秘密、泄露个人数据隐私(Spiegelhalter,2020)。就算法透明的受众而言,算法透明面向开发者、用户、公众、政府监管人员、第三方研究机构等不同主体,由此引申出验证系统可靠性、测试安全标准等多种透明设计(徐琦,2020)。从实现方式而言,算法透明的核心是可被理解,公开源代码既不可行、也不必要,因此须以算法解释为主要手段(Ribeiro et al.,2016;Rader et al.,2018)。算法解释可分为“以算法功能为中心”和“以决策场景为中心”两大路径,前者要求提供对算法的模型逻辑、一般功能的解读,后者则围绕具体案例和个体,提供针对性的分析结果(Esdwards &Veale,2017)。
(二)政府信任研究
政府信任与政治信任具有内在关联,其既可被理解为政治信任的组成维度,是对政治系统中具体政府机关的信任,也可以被认为是公众信任政治体制的表现(Citrin,1974)。从微观心理层面而言,政府信任是一种公众在与政府互动过程中所形成的积极预期和信心,往往来源于对政府能力、诚信与良善的评价(Grimmelikhuijsen,2012),也有学者认为公众可能会基于理性信任、感性信任及外部环境来评估政府的可信任性(徐贵宏,2009)。政府信任过弱可能会导致公众的政策遵从意愿下降,从而影响政策的正常执行。对政府信任进行溯源,社会人口属性、社会资本、文化以及政府透明等政府行为因素均对公众的政府信任有重要影响(刘米娜、杜俊荣,2013;卢春天、权小娟,2015)。其中,各国文化传统及公众的政治价值观、年龄、社会地位等背景变量均会影响公众对政府的信任。综上所述,多数研究认为政府信息公开等政府透明活动能够减少公众与决策者之间的信息不对称,对公众的政府信任有正向促进作用(Hood &Heald,2006;Wang &Guan,2022)。
(三)算法透明与信任研究
算法透明与信任的关联近年来开始受到管理学、传播学、人机交互学者的关注,但正如政府透明与信任的理论迷思,这一领域仍处于辩论与探索阶段,尚未形成统一观点(Schmidt et al.,2020)。部分研究从应然理论分析入手,认为算法透明揭示了算法内部的原理与规则,能够成为驱散不信任的一支利箭(Glikson &Woolley,2020;Schiff et al.,2021)。Lu等(2020)通过实验发现,公众在接收算法解释和示例后,将对算法有更深入的理解。然而,算法透明并非是构筑信任的“万能灵药”,比如对于公平性争议较大的学生成绩评估算法,公开算法相关信息反而降低了学生对于算法的信任(Kizilcec,2016)。算法的应用场景特性相较于透明对于构建信任可能具有更显著的影响;在算法复杂度较高时,提升算法透明度能够强化用户对算法的信任,而面对逻辑简单的算法系统,将算法相关信息公之于众反而会成为信任的阻碍(Giest &Grimmelikhuijsen,2020;Lehmann et al.,2022)。同时,亦有实验研究发现,展示包括算法特征在内的信息对于公众信任影响甚微,公众有关算法的态度倾向及其过往经历可能扮演了更为重要的角色(Kleizen et al.,2023)。针对公共部门决策场域的算法透明与政府信任,Grimmelikhuijsen(2022)基于调查实验表明,能够被公众所理解的算法透明能够提升公众对政府以及算法的信任,但在不同算法决策场景中影响并不稳健。综上所述,既有研究就算法透明与信任的关联在理论分析、实验研究层面进行了一定程度的探讨,但相关研究结论存在较大分歧,具体机制还需要系统性理论分析以及实证解释。
三、理论模型与研究假设
(一)理论模型:公众、政府和算法的三重委托-代理关系
委托-代理理论(principal-agent theory)作为经济学、政治学和公共管理领域的经典理论框架,遵循新古典经济学范式,以经济人为核心假设,在分析多主体互动方面具有较强的解释力(Hölmstrom,1979)。在确定委托-代理关系时,需要考察两个核心假设:一是委托人和代理人之间存在信息不对称(Thomas,1998),二是委托人和代理人的目标不一致(Kim,2020)。此外,委托-代理理论扎根于理性选择理论,认为信任必须基于一定的信息披露而形成,只有当行为人被提供关于对方活动、意图和行为的足够信息时,才能建立信任。相较于社会技术系统理论(socio-technical system)、人机交互(human-machine interaction)等关注技术与人类互动关系的理论视角,委托-代理关系能在考察各主体权责关系的同时,捕捉到行为体在信息、目标、责任等方面的多重不对称、不均衡性,从而分析在透明干预下、委托人与代理人关系中的信任变化(肖红军,2022;Wang &Guan,2022;Kim,2020)。因此,委托-代理理论为本文分析算法嵌入政府与公众关系以及信任生成提供了理论基础,本文据此构建了公众、政府、算法三者之间的三重委托-代理关系。
其一是公众-政府委托-代理关系。在公众与政府之间天然呈现的委托-代理关系中,政府作为公众的政治代理人,具有垄断权威与信息优势,公众无法充分了解政府权力行使的过程与结果,从而形成信息不对称(Thomas,1998)。同时,政府亦是自利人,行政人员肩负公共利益与个人权益,易滋生目标不一致的道德风险。公开披露有关自身决策过程等的程序信息,能够让公众了解到组织的内部运转,减少组织和利益相关者间的信息不对称,增进公众信任。据此,政府透明度能有效提升作为委托人的公众对于政府代理人的信任感。
其二是政府-算法委托-代理关系。随着算法嵌入到政府决策中,算法官僚得以产生(Bozeman &Youtie,2020)。技术官僚是有权做出政策决策的专家,其权力来源于技术专长而非政治权威,而专长是官僚权力不可或缺的要素(Bendor et al.,1985)。机器学习算法与办公自动化系统等信息技术工具的显著差异在于,机器学习算法能够随着数据的累积从现有数据中学习和更新模型,故而外化为一种技术自主性(Ellul et al.,1964)。另外,两大维度的算法黑箱加剧了政府与算法委托-代理关系中的信息不对称问题。一方面,“技术黑箱”之下,算法不透明性是具有高预测能力的机器学习算法的固有特征(Rudin,2019);另一方面,政府使用的算法往往交由企业开发,其往往出于商业利益和垄断目的故意对算法操作信息保密,使得“治理黑箱”形成(Carlson,2017)。同时,在传统的官僚决策中,自由裁量权被用来权衡效率、公平问题(Bovens &Zouridis,2002)。尽管算法数字自由裁量权看似消除了人类官僚决策中的偏见,但它实际隐含偏见,使得算法决策极易偏离政策目标。
其三是公众-算法委托-代理关系。算法技术官僚被政府授权,进而获得了数字裁量权(Young et al.,2019;Busch &Henriksen,2018)。传统的自由裁量权是指街头官僚在复杂和不确定的情况下执行政策的自由,数字裁量权伴随算法嵌入公共决策中而产生,使得算法成为处理公众政策需求的技术官僚,公众和算法之间由此形成了第三层委托-代理关系。若公众缺乏相关知识,很难完全掌握算法结构复杂的功能逻辑,算法决策中的信息不对称就会更为严重(罗映宇等,2023)。同时,由于算法设计不可避免地会受到社会制度和结构的影响,且算法训练数据嵌入了既定的价值取向,因此算法决策系统必然具有价值偏倚性。一旦算法出现偏差,基于算法的政治活动将更新训练数据集,将算法偏见置于难以检测和纠正的正反馈回路中(Veale et al.,2018),从而引发委托-代理关系中的道德风险问题。
(二)研究假设:三重委托-代理关系中的算法透明与信任
算法是嵌入政府决策中的社会技术系统,算法透明的建构自然需要衔接技术特征、算法技术的实际使用,以及人与算法的互动(human-algorithm interaction)(Peeters,2020)。透明度是指通过一系列故意披露过程,告知信息、意图或行为的可能性(Grimmelikhuijsen,2012),可理解性(explainability)是其中的一个关键维度(Larsson,1998;Grimmelikhuijsen,2022)。囿于多重黑箱的存在,算法透明的实现更应该考虑可理解性,即普通人如何理解算法解释,从而在关系性(relational)层面实现算法透明(Felzmann et al.,2019)。换言之,通过自然语言和模型可视化提供公众可理解的算法解释,阐明算法模型的工作原理和特定决策结果原因,是实现算法透明的有效路径。
Mansbridge(2009)首先区分了政府透明中的过程透明(transparency in process)和结果透明(transparency in rationale),为本文建构算法透明概念提供了理论依据。具体而言,过程透明关注政府决策的具体过程,而结果透明则需要提供达成决策结果的依据和理由(de Fine Licht &de Fine Licht,2020)。本文将这一理论视角与致力于解决算法内在不透明性的可解释人工智能研究相结合,关注以算法功能为中心(function-centric)和以决策案例为中心(decision case-centric)的两类算法解释(Guidotti et al.,2018;Miller,2019),提出算法过程透明(process-based algorithmic transparency)与算法结果透明(outcome-based algorithmic transparency)两大实现路径。其中,算法过程透明与政府过程透明的逻辑相似,侧重于破解算法发挥预测功能的过程逻辑,借助自然语言的阐述和模型的可视化,解释算法模型的工作原理。能够被普罗大众理解的算法运行过程解释破除了决策程序的隐蔽性,使公众能够获知算法的模型逻辑和一般功能,从而提升感知算法透明度。政府结果透明以“决策结果何以得到”的正当性、合法性为基础(Kaufmann et al.,2020),与之相应,算法结果透明则需要解释算法决策结果的关键变量(Kizilcec,2016;Grimmelikhuijsen,2022)。如Guidotti等(2018)所言,基于结果的算法解释无需阐释黑箱背后的全部逻辑,而是通过说明关键参数的变动与决策结果的关联,解释特定实例何以引致结果(Schmidt et al.,2020)。这也与“让算法负责”的主张契合,即用人类能够理解的方式说明关键因素如何引向算法决策结果(Busuioc,2021),允许公众评估决策结果为何如此,由此公众对算法的感知透明度得以强化(Lu et al.,2020)。因此,本文提出以下一对假设。
H1a:算法过程透明对公众的感知算法透明有正向影响。
H1b:算法结果透明对公众的感知算法透明有正向影响。
算法被政府授权支持公共决策之后,公众与算法之间的第三层委托-代理关系得以形成。机器学习算法的自学习、自适应特性使其在一定程度上获得了决策代理权(delegation),成为决定公共价值分配的关键主体(Kim,2020)。算法的技术理性与其嵌入的公共价值理性重叠,公众对算法的信任不仅仅是一种技术信任(Gefen,2000),同时也包括了对于算法使用自由裁量权行使公权力的可信赖性感知(Wenzelburger et al.,2022)。由于黑箱效应的存在,信息不对称问题加剧,公众无法完全理解算法决策过程的具体逻辑,难以评估算法的可信赖性(Bozeman &Youtie,2020)。立足于委托-代理理论的基本假设,信息是理性人在委托-代理关系中进行可信赖性评估的基础,透明度的提高将增加委托人对代理人的信任(Kim,2020)。因此,当公众更能理解和感知算法时,会对算法形成更积极的预期,认为算法将会按照其所欲的方向辅助政府治理。同时,根据程序正义理论,对算法决策过程和输出结果的解释可以提高公众对算法基本操作规则和内部逻辑的理解,为评估算法辅助公共决策提供认知依据,从而加强公众对算法决策的程序正义性感知,提升对算法的信任(Tyler,2006;de Fine Licht et al.,2014)。本文故而提出以下假设。
H2:感知算法透明对算法信任有正向影响。
在传统的公众-政府委托-代理关系中,作为主权所有者的公众将管理权委托给政府。当算法被视为获得部分决策权力时,就形成了公众与政府、政府与算法、公众与算法的三重委托-代理关系。技术原理与公共治理场域的双重算法黑箱并存,加剧了政府与算法、公众与算法关系中的信息不对称,极易引发对政府的信任危机。一方面,机器学习算法辅助公共决策提升了政策方案选择的效率、效益,却也获得了可能偏离政府公共利益的能动性(agency)(Peeters,2020)。算法的公开透明减少了不确定性,增强了公众的控制感,提高了公众对授权于政府的信心。另一方面,政府决策者与算法共同生成公共政策方案,这一过程亦是决策责任的重新分配。机器学习等算法的不可解释性限制了算法决策的可问责性(accountability),而向公众公开算法程序逻辑、判定依据的具体信息,能够彰显政府公开决策依据(rationale),进而对算法决策负责的意愿与行动(Janssen &Kuk,2016)。因此,公众感知的算法透明度提高后,将对政府如何通过算法解决政策需求具有更全面深入的感知,增强政府算法决策的合法性,并促进信任的建立(Busuioc,2021)。因此,本文提出以下假设。
H3:感知算法透明对政府信任有正向影响。
在公众与政府的传统委托-代理关系中,由于权力和信息的不对称,公众对公共部门及公共决策的了解往往有限,这就促使公众采用启发式(heuristics)方法,借助其他渠道及相关线索塑造对政府可信赖性的感知(Ingrams et al.,2022)。政府采纳算法作为决策代理人,无疑放大了信任形成的脆弱性,决策风险可接受性的传导机制也随之延伸。信任转移理论指出,信任方往往基于和其他客体的共同特征,将信任转移到另一客体上(Pavlou,2002),算法信任即是公众对政府公权力的信任形成链条上的重要节点。在公众-政府-算法的三重委托-代理关系中,作为政府代理人的算法的可信任性(trustworthiness)实际上成为政府向公众传递的信号,对算法加以授权的政府也会被认为将以更为公正、合理的方式进行决策。换言之,使用算法的政府会被认为即使在没有监督的情况下,也会遵守对公众的承诺,真诚地对待公众诉求(Grimmelikhuijsen,2012)。由此,政府在公众眼中成为一个值得信任的主体,公众对于算法的信任将传递至作为算法委托人的政府。因此,本文假设,如果公众对算法的积极预期和信心得以提升,那么公众的算法信任将随之传递给政府,从而提高公众对政府可信任性的感知,进而提出以下假设。
H4:算法信任对政府信任有正向影响。
以算法为代表的数字技术为政府治理智能化、精准化提供了巨大驱动力,也提出了数字社会中政府信任如何存续之问。在考察算法透明作为一种外部制度建构的影响时,公众在微观层面的既定态度可能对信任产生具有深远影响(Wenzelburger et al.,2022)。在解读政府信任的诸多流派中,社会文化视角的研究就指出,政府信任外生于政治生活,狭义的政治信任根植于特定的社会文化传统,政府信任的形成必然受到社会信任、公民社会以及个体政治价值观的影响(Newton,2001)。认知失调理论(cognitive dissonance)也提供了同样的见解,确认偏见(confirmation bias)的存在,使得公众面对新信息时会无意识地加深其现有的个人信念(Desroche et al.,1958)。以信任形成的心智模型而言,人类的思维是在捕捉到更新的经验之前,根据已有的规范、价值观和经验组织起来的。在接受新信息后,既有观念便会成为公众快速进行信任评估的锚点。因此,在政府使用算法辅助决策的情景之下,公众结合与政府相关的有限信息,可能更多依赖于已有价值观和态度,评估政府的能力、诚信与良善程度(Ingrams et al.,2022;Kleizen et al.,2023)。因此,具有低信任倾向的公众将会继续对使用算法决策的政府持怀疑态度,从而证实其对政府的负面信念;而具有较高信任倾向的公众则反之。据此,本文提出以下假设。
H5:信任倾向对政府信任有正向影响。
综上,本文提出的研究假设如图1所示。
图1 研究假设
四、研究设计
(一)实验设计
本文选取“金税工程”中的支持向量机(support vector machines,SVM)税务稽查算法作为实验情景。自20世纪末以来,“金税工程”通过数字技术赋能税务机关工作,规范税收执法、优化纳税服务、赋能税务数据,是我国数字治理战略在税务领域的生动体现,亦是目前我国应用算法辅助决策的代表案例。早在2018年,广东省等地方税务机关就已开始将深度学习算法应用于年度税务稽查,识别税务风险较高的纳税主体。2021年3月,中共中央办公厅、国务院办公厅印发《关于进一步深化税收征管改革的意见》,明确了以税收大数据系统、人工智能算法在内的多项信息技术推动税收征管改革。在“金税三期”税务稽查的风险管理工作中,已可见机器学习等预测型算法的身影,助力税务机关研判企业税务风险、提前排摸高风险对象,从而精准锁定稽查目标。具体而言,政府税务机关引入支持向量机等机器学习算法辅助决策系统,并基于既有企业税务、稽查行为等数据识别征管规律,形成预测模型,根据企业税务风险预测值高低,决定是否优先进行税务稽查(如图2所示)。基于此,机器学习算法已成为税务部门行政活动的核心流程,而非简单地实现流程自动化(吴进进、何包钢,2023)。相较于传统税收征管模式,算法辅助税务决策能够有效降低对于税务稽查人员业务工作经验、主观判断的依赖,缓解纳税风险评估不准确、稽查选案时间成本高等问题,明显提升了税收征管的信息化、智慧化、精准化水平(Nazarov et al.,2020)。与此同时,税务工作承载了公共决策中的高价值敏感性,涉及公共利益分配,并直接关乎公众的经济福利(Ingrams et al.,2022),算法嵌入该场景的公众感知值得探究。
图2 算法嵌入后的政府税务机关工作流程
调查实验法(survey experiment)是调查法与实验法的有机结合,即研究者通过问卷进行变量操纵、收集数据,从而识别不同水平的自变量对因变量的影响。作为目前公共管理、公共政策前沿研究使用频率最高的实验方法(张书维、李纾,2018),相较于其他实验方法,调查实验法在兼顾内外部效度方面具有优势(代涛涛、陈志霞,2019)。考虑到本文所关注的算法透明,一方面政策实践不足,缺乏代表性表征形式,另一方面可依托不同场景信息材料进行针对性模拟,本文采取情景调查实验法(vignette survey experiment),通过向被试呈现算法透明相关的不同情景描述,探索算法透明路径的可能性。
具体而言,本文设计了一个单因素3水平组间(between-subject)情景调查实验,分为算法不透明、算法过程透明、算法结果透明三组,通过“问卷星”调研平台的“情景随机”功能实现随机化分配,被试者将随机得到其中一个版本的问卷进行作答。具体而言,实验的第一部分为指导语及部分变量测量,第二部分为政府使用算法进行税务稽查决策的虚拟案例,第三部分为基于随机分组进行的算法透明实验操纵,第四部分为因变量与控制变量的测量。实验材料主体为虚构的政府文本,即A市政府税务机关推行了“让算法透明起来”的新政策,这一政策对政府所使用的税务稽查算法的相关信息进行公布。
本文共设计了3个版本的实验问卷,并对应3个实验分组:控制组1“算法不透明”不展示算法相关信息;实验组2“算法过程透明”与实验组3“算法结果透明”参考Lorenz-Spreen等(2020)、Esdwards和Veale(2017)的研究,均以可视化图片进行操纵。组2、组3首先介绍了A市政府税务机关使用的SVM算法,随后组2通过流程图对该税务稽查算法的运行过程逻辑进行可视化,组3通过列举参数实例对算法计算出的税务风险结果进行解释。
(二)变量操作化
本文核心变量的操作化见表1。政府信任的测量方式主要参考徐贵宏(2009)、Grimmelikhuijsen(2012)的研究,从计算型信任、关系型信任、制度型信任三个方面进行测量。感知算法透明主要考虑信息可得性和可理解性。算法信任借鉴了Grimmelikhuijsen(2012)的表述,依据本文关注算法的特征进行了适当调整。信任倾向主要参考Grimmelikhuijsen和Klijn(2015)、Gefen(2000)的研究,从三个方面进行测量,均采用李克特五级量表。
表1 变量操作化
(三)数据收集
2021年4月至5月,本研究通过“问卷星”平台,基于便利抽样法,线上回收了555份有效问卷。在正式实验前,共对11位被试进行了预实验。在向被试展示“算法过程透明”“算法结果透明”的操纵材料后,多数被试能够理解算法透明机制的操纵材料。在正式实验阶段,研究共回收了922份实验问卷。为保障数据效度,实验设置了注意力检测的问题:“算法过程透明”组的被试需回答“您刚才看到的A市政府税务机关使用的算法中含有?”,“算法结果透明”组的被试需回答“您刚才看到的A市政府税务机关使用的算法使用的信息包括?”,回答错误者即未通过注意力检测。同时,对阅读实验材料及题项的时间存在明显异常的问卷亦予以删除,最终删除作答时间异常、注意力检测未通过的265份无效问卷。最后,考虑到算法解释信息的复杂性,实验设置了指导性操纵检验(instructional manipulation check)(Ejelöv &Luke,2020;Cullen &Monds,2020),问题为“您刚才看到的A市政府税务机关公开的算法信息是关于哪个方面的?”,删除了未正确理解算法透明信息的102份实验问卷,最终收集了555份有效问卷,统计效力为0.805(Cohen,1992)。
对于实验样本,男女比例基本均衡,以大学本科及以上学历人群为主,算法知识比例基本均衡,卡方检验结果显示通过平衡性检验(见表2)。考虑到实验法的内部效度具有优势,本文的研究结论对于考察高学历年轻群体的感知具有重要参考意义。
表2 样本的描述性统计
五、实证分析
(一)信度效度检验
在信度方面,本文实验问卷题项因子的总体Cronbach’s Alpha系数为0.882,大于0.8;而针对“项已删除的α系数”,任意题项被删除后,信度系数并不会明显上升,说明题项不应该被删除处理。分析项的CITC值均大于0.4,说明分析项之间具有良好的相关关系,数据信度质量高。在效度方面,本文首先使用KMO和Bartlett’s球形检验进行了整体效度检验,KMO值为0.867,KMO值大于0.7,显示收集数据效度较好。且Bartlett’s球形检验值显著,同时旋转后累积方差解释率为75.631%>50%,研究项的信息量能够被有效提取。本文对各量表进行了验证性因子分析,从模型整体拟合指标、各潜变量所属题项的因子载荷系数两方面检验模型的构建效度。因子模型的RMSEA为0.078,CFI为0.955,TLI为0.938,SRMR为0.061,表明因子模型的整体拟合良好(见表3)。
表3 因子模型拟合指标及其评价
表4中的因子载荷系数值展示了因子与分析项之间的相关关系情况。除了政府信任与感知算法透明测量项的标准化载荷系数小于0.7,其他各测量关系的标准化载荷系数值均大于0.7。由于本文的量表基于成熟量表构建,且政府信任、感知算法透明的因子标准载荷系数均大于0.6,因此能够进行后续分析。
表4 各题项因子标准载荷系数
表5展示了基于平均方差萃取和组合信度的聚合效度分析。4个因子对应的CR值均大于0.7,但政府信任的因子AVE值有出现小于0.5的情况。AVE数值一般需达到0.5,但考虑到数据的实际面向,若AVE值小于0.5但组合信度高于0.6,聚合效度仍被认为是达标状态(Fornell &Larcker,1981)。
表5 聚合效度检验:模型AVE和CR指标结果
在区分效度方面,政府信任因子、信任倾向因子、感知算法透明因子、算法信任因子的AVE平方根值均分别大于因子间相关系数绝对值的最大值,表明数据具有良好的区分效度(见表6)。
表6 区分效度检验:Pearson相关与AVE平方根值
对于潜在的同源方差问题,本文通过Harman单因素检验法进行了同源方差分析,结果显示未旋转时得到多个因子,且第一个因子的解释变异量为44.381%。该指标小于50%,表明数据的同源方差是可控的。
(二)结构方程模型的路径分析
本文选用结构方程模型(structural equation modeling),探讨感知算法透明、算法信任与政府信任整体模型的路径。本文使用Mplus软件,基于极大似然统计方法进行SEM检验,加入性别、学历、年龄、月收入水平、算法知识、社会阶层感知作为控制变量,对感知算法透明、算法信任、政府信任间的影响路径进行建构。对于模型各项拟合指标,RMSEA值为0.069,CFI值为0.928,TLI值为0.883,模型拟合效果能够接受。
表7汇报了结构方程模型结果。H1a检验结果显示,提供算法过程解释能够增强公众的感知算法透明(B=.154,p<.01),同样,H1b路径显示,算法结果透明和公众的感知算法透明存在正相关(B=.128,p<.01)。对于算法透明的影响,H2得到了(B=.580,p<.001)结果支持,符合委托-代理关系之下的程序正义逻辑,公众感知的算法透明度对其算法信任有积极影响。同样,感知算法透明度对公众对政府的信任有积极影响(B=.167,p<.01),处在三重委托-代理关系中的公众在感知到算法透明度有所提升时,将增强对政府的信任度,检验了H3。此外,分析结果验证了H4(B=.595,p<.001),即在公众对算法信任提高时,同样会转移至与算法存在委托-代理关系的政府主体,进一步提高其对政府的信任。与此同时,H5得到支持(B=.246,p<.001),公众的信任倾向与他们对政府的信任之间存在正相关关系,表明倾向于信任他人的个体对政府的信任度更高。
表7 结构方程模型的回归系数
因此,上述结构方程模型的分析结果显示,公众在感知到算法透明提升后,在委托-代理关系之下的信息不对称问题将会得到缓解,从而提升其对政府的信任。算法信任对政府信任的中介效应表明,对于嵌入政府决策、成为代理人的算法,公众对其信任具有显著的信任传递效应。算法成为政府代理人后,在对算法持有信任的情况下,公众更倾向于认为作为算法委托人的政府具有可信赖性。
(三)中介效应分析
Bootstrap法将样本容量充足的样本视为总体,通过有放回抽样,得到更为准确的标准误,因此具有较高的统计效力。在结构方程模型的路径基础上,本文采取抽样1000次的Bootstrap的中介效应分析,对感知算法透明、算法信任、政府信任的影响机制进行了中介效应检验。感知算法透明对政府信任的间接效应上界为0.277,下界为0.416,上下界之间不包含0,因此感知算法透明和政府信任之间存在中介效应,且中介变量为算法信任。基于感知算法透明和算法信任之间系数的显著性,以及感知算法透明和政府信任之间的直接效应的置信区间亦不含0,上界为0.015,下界为0.248,算法信任的中介效应为部分中介效应(见表8)。
表8 Bootstrap中介效应分析
(四)稳健性检验
考虑到建构的结构方程模型可能存在模型依赖,本文采用替换模型估计方法,进行稳健性检验。本文采用WLSM加权最小二乘法估计伴均值校正卡方检验,再次进行结构方程建模,模型的各项拟合效果达标,且模型中的各项回归系数显著,显示了本文构建模型的稳健性(见表9)。
表9 WLSM结构方程模型的标准化回归结果
五、结论与讨论
本文关注数字治理时代中,辅助公共决策的算法这一新变量,基于委托-代理理论,构建了一个整合性框架,在公众、政府、算法的三重委托-代理关系下,探讨算法透明的实现机制及其对政府信任的影响机制,并通过结构方程模型加以实证检验。结果显示,算法的过程透明、算法的结果透明均能提高感知算法透明,“可理解”“有意义”的算法解释公开是提升算法透明度的有效路径,算法解释机制的透明效应得到检验;同时,对于感知算法透明对政府信任的影响路径,结果显示感知算法透明能够提升公众的算法信任以及政府信任。Bootstrap中介效应分析显示,在感知算法透明能够正向影响政府信任的同时,算法信任可在其中触发部分中介效应,公众的算法信任对政府信任亦具有正向影响。本文提供了以下几个方面的理论启示。
首先,本文明晰了算法透明的概念,提出了基于算法解释、可理解的算法透明,证明了基于过程与结果的算法解释是算法透明的有效机制。部分研究已关注到,仅仅依靠算法代码信息披露无法通向透明(Spiegelhalter,2020;Grimmelikhuijsen,2022),本文则进一步考虑到受众如何理解算法的互动关系问题(Felzmann et al.,2019),实证检验以公众为导向、真正可被理解的算法解释是否能够切实提升公众的感知算法透明。H1a、H1b检验结果显示,算法过程解释、算法结果解释均具有透明效应,公众在接受关于算法逻辑过程、决策结果的相关解释信息后,将增强对于算法透明的感知。这一结论回应了可解释人工智能等交叉领域对算法透明的争论(Rader et al.,2018;Rudin,2019;Lu et al.,2020),将人机交互研究与透明度的理论探讨连接起来(Peeters,2020)。
更重要的是,本文构建的两类算法透明路径与政府透明中的过程透明、结果透明理论框架直接对话(Mansbridge,2009),延展了算法透明的概念边界。本文的研究结果表明,无论是剖析算法的逻辑功能,增强对决策程序的理解(Miller,2019),还是以决策结果为导向,用易于理解的方式证明关键决策因素的责任(Busuioc,2021),均对公众的感知算法透明起到催化作用。另外,本文的结论同样表明,算法透明可以超越应然层面的想象与伦理原则,有关其实现进路的理论空间还待继续丰富与扩充(Giest &Grimmelikhuijsen,2020)。换言之,学界对于算法透明是否必要的追问,或许可以转化为对实现机制的深挖,让这一公共价值追求真正落地(Zerilli et al.,2019;Lehmann et al.,2022)。
同时,本文构建了算法和政府、公众形成的三重委托-代理关系,厘清并检验了算法透明提升政府信任的理论路径,验证了算法治理时代信任的形成机制。借助委托-代理理论推演(Kim,2020),本文提出了算法辅助政府治理的公众-政府-算法三重委托-代理框架,用以分析公众信任的产生以及传导逻辑。H2检验结果表明,感知算法透明对算法信任有正向影响,与关注算法透明积极效应的研究一致(Kizilcec,2016;Lu et al.,2020)。在算法扮演政府代理人辅助公共决策时,公众对算法透明的感知将提升其对程序正义性的感知,由此增强的合法性感知能够带来算法信任(Grimmelikhuijsen,2022)。本文H3获得了检验,公众的感知算法透明对政府信任有正向影响,回应了公共部门的算法透明与公众政府信任的关联争论(Miller,2019;Schiff et al.,2021;Kleizen et al.,2023)。尽管算法透明对公众政府信任的赋能作用在不同场景下并非是确定的(Grimmelikhuijsen,2022),本文的结论证明了委托-代理理论的信任机理,算法透明能够增强公众对政府代理人的控制感和可问责性评估,为透明增进信任提供了经验证据(Wang &Guan,2022;de Fine Licht et al.,2014)。
另外,本文揭示了公众对算法的信任作为一种启发信号,在政府信任形成过程中具有传导效应(Pavlou,2002)。H4检验结果表明,算法信任对政府信任有正向影响,并在感知算法透明与政府信任的关系中起到部分中介作用。公众面对政府算法决策的多重信息不对称,需要依赖已有线索评估其可信赖性。如果作为政府代理人的算法向公众释放积极信号,公众对政府的信任将会随之强化,这一结论深化了既有研究对算法治理时代信任分配与转移逻辑的理解(Ingrams et al.,2022;Grimmelikhuijsen,2022)。最后,如本文H5预期,在算法辅助政府决策的背景下,公众自身的信任倾向对政府信任具有正向影响。这与政治文化视角研究相呼应(Newton,2001),也表明了相较于外部透明制度,个体的价值观倾向塑造政府信任这一方面同样不可忽视(Wenzelburger et al.,2022;Kleizen et al.,2023)。
在理论价值外,本文的研究发现对于推动算法透明、构筑政府信任也具有一定实践意义。面对势不可当的算法决策,一方面,政府应加强算法透明的制度供给和策略设计,以可理解性为基点,持续探索算法解释的政策方案,让看似难以破除的算法“黑箱”成为可理解的“白箱”;另一方面,可理解的算法透明指向了公众的算法素养,政府需加强算法教育,打破“知识性不透明”的桎梏,以对算法权力进行有效问责监督。
同时本文也存在以下不足。首先,本文采取便利抽样,研究结论对于考察高学历年轻群体的感知具有重要参考意义。但考虑到学生群体对税务稽查场景感知可能较为模糊,且多数被试具有一定算法知识,感知算法透明实验结果的外部效度有待进一步提升。未来研究可使用大规模抽样,精细考察公众对于算法透明与信任的感知。其次,未来研究可采用具有时间跨度的纵向设计、收集多源数据等方法,降低同源偏误。最后,本文以税务稽查单案例作为实验场景,自主构建并检验算法解释的透明效应,而未来研究可进一步考虑被试对场景的熟悉度、场景自身的复杂度,关注不同领域、不同类型算法的决策应用,设计、检验并比较相应的算法透明策略,丰富算法透明的内涵,探索信任的生成路径。