APP下载

算法嵌入政府治理的优势、挑战与法律规制

2021-12-07王文玉

关键词:决策算法政府

□王文玉

随着大数据、云计算、深度学习等技术的迅速发展,算法决策已经被广泛应用于行政执法、商业竞争、司法审判、社会征信等领域,以大数据、算法决策为核心的算法信息社会正在到来。其中,政府运用算法这一新兴的决策方式展开治理,为改良传统政府治理模式,全面优化政府的治理流程、治理精度、治理成效等提供了前所未有的机遇。但在具体实践中,政府运用或依靠算法展开治理往往既需要面对数据污染、算法黑箱等技术上的难题,还需要面对算法歧视、算法权力滥用、算法责任分配不明等伦理、法治上的挑战。通过梳理和总结,笔者发现,现有研究多从当前算法在政府治理的应用实践中总结和分析诸如算法歧视[1]、算法黑箱[2]、算法权力异化[3]等某一具体问题,而较少从可信赖的角度系统审视我们为什么需要将算法嵌入政府治理以及我们需要什么样的算法展开治理的问题。这就导致现有研究所提出的应对算法嵌入政府治理风险的方案往往缺乏全面性、系统性以及可预见性。是否值得信赖,是我们享受科技带来的便利的前提和基础,因而本文将从可信赖的角度,对算法嵌入政府治理的意义及限度展开全面梳理和反思,并系统性地提出应对相关风险的规制方案,以期为化解政府应用算法展开治理的风险、全面提升政府治理能力提供完善的制度环境保障。

一、算法嵌入政府治理的优势

在人文社会科学领域,算法往往被定义为对相关技术的运用过程,也即侧重于认为算法是一种决策产出方式或者建构社会秩序的模型。如布伦·米特斯塔特等学者就指出,“公共话语主要关注的是一类特定的决策算法,例如在特定情况下采取的最佳行动,对数据的最佳解释,等等。这种算法往往起到增强或取代人类的分析和决策作用”[4]。因此,本文所指的算法是一种决策产出的过程,其通过输出决策结论的方式实现对社会秩序的建构。将算法嵌入政府治理的进程,就是要发挥算法在帮助或替代政府做出决策过程中的优势,从而全面提升政府治理能力。算法嵌入政府治理对于发挥算法决策优势、提升政府治理能力有着良好的前景。

其一,算法决策具有中立性,可以有效避免传统政府治理模式下行政裁量的偏向性问题。决策者是否能够基于当前事实展开客观中立的决策,是保障决策公平性、正当性和可预测性的前提。实践中,即便能够排除个人私利以及人情关系等显性因素的影响,个人决策还是难免会受到决策者原有的生活经验、政治倾向、知识水平、个人情绪等隐性因素的侵蚀而做出具有偏见性的治理选择。尤其是当面对不确定的治理决策时,个人直觉往往会起到决定性作用,在“信念固着”[5]和“锚定效应”[6]影响下,决策者个体很容易受到虚假或无效信息的影响而做出不公正的裁量。

基于个人决策难以避免个体偏见的事实,“许多人实际上都希望让机器人来决策,而且最好是那种不是由人来设计运行程序的机器人决策者。只要由人来担任决策者,总会面临人类大脑存在的各种局限”[7]。与传统代码编程不同的是,当下算法是一种建立在神经网络上的最大似然应用程序,其主要运转方式是对给定的数据集展开要素抽取、建构对应的相关关系,并通过反复学习和不断自我完善,从而自主产生决策事项的最优解决方案[8]。数据信息的客观性、要素抽取标准的一致性、算法建模的统一性以及决策方式的标准化保障了算法决策的中立性、客观性,从而可以有效避免人类决策的偏见性。如面对卢米斯对再犯风险评估系统COMPAS的评估方式是否符合程序正义的质疑时,威斯康星州最高法院法官就认为,“COMPAS系统的运行逻辑是参照独立子项以及复杂化的算法而生成1~10级风险评估和量刑标准展开的,其内在具有中立性和客观性,因而并不能推定出其决策违背程序正义”[9]。

其二,算法决策具有高效性,可以减轻政府治理负担,提升政府治理效率。治理成本始终是政府治理进程中需要着重考量的问题,由于需要付出高昂的人力、物力、财力等成本,如何以最小的投入获得最大的治理成效是优化政府治理的核心问题之一。这一问题在行政执法领域尤为突出,如选择性执法就是行政机关为了节约长期、全面执法的高昂成本而集中有限人力资源解决某些突出问题的方式之一。但选择性执法违背了法律普遍性和平等适用性的基本要求,同时它还是滋生执法人员腐败、不作为、乱作为的温床,长此以往,会对政府执法公信力造成不可逆转的伤害[10]。

算法则凭借其自动化、全天候运转的特质,能够通盘考量全局、科学调整资源配置以减少高昂的政府治理成本。一方面,机构和人员的投入是当前政府治理最繁重的开支之一,而运用算法展开治理则能够有效减少治理人员数量和时间的投入,从而从源头上降低治理成本。如深圳市将算法应用于人才引进落户、企业投资备案等行政审批工作而推出的“秒批”服务系统,可在无人干预下展开材料的比对、核验,从而瞬时完成审批并自动将结果反馈给申请人[11]。这一系统在全面提升行政审批工作高效性和精准性的同时,还能够有效精简审批人员和机构的设置。又如,英国政府将算法应用于政府购买家庭护理服务的管理中,从而降低了重复评估、信息收集等费用,在减少人员投入的同时有效提升了政府购买家庭护理服务的水平和效率[12]。另一方面,算法可以通过优化资源配置的方式,化解“低质低效”“供需错配”等政府治理困境。凭借信息收集、存储以及算力优势,算法能动态监测治理对象的需求,将处于闲置、分散、碎片化的公共资源进行合理的重组和分配,以最大限度发掘相关资源的内在潜力,从而减少治理成本投入,显著提升治理成效。如杭州市的“城市数据大脑”系统能够自动监测交通实时信息,从而自主展开交通违法行为查处、信号灯时长调试等决策,在原有道路交通资源不变的情况下,有效缓解了城市拥堵的问题[13]。

其三,算法决策具有针对性、精准性,可以做到因人施策、因地制宜、精准治理。社会转型的加剧以及发展的高速化、动态化对当前政府治理提出了较高的机动性、精准性要求。囿于信息收集、处理能力,传统政府治理往往只能以提出一些原则性方案的方式展开相对粗犷、简约的治理,而算法则能凭借其存储和算力优势,实现对数据的实时收集,并在短时间内完成数据分析和决策生成工作,从而及时满足社会动态运转过程中的精细化、时段化、区域化、个体化等的治理需求。

算法精准治理的核心是精准识别和精准施策。一方面,对治理对象的精准识别和分类是展开精准治理的前提。由于传统人工识别和分类的方式受到分类标准不统一、分类信息完整度要求过高、分类主观化、分类成本高昂等因素的制约,政府不得不时常在宏观层面上展开模糊治理,最终可能进一步加深发展不平衡、不充分的困境。如囿于贫困户认定标准的不一致、贫困户信息的不完善以及人为认定存在偏私等因素,传统人工统计分类的贫困识别方式不但需要耗费大量的人力和时间,还会出现识别不准确、识别遗漏等问题,而研究人员开发的“随机森林算法”就能够较好地处理具有非平衡性、不完整性、多元线性的人口数据,从而较为精准地识别出贫困人口。在具体的应用中,罗丽提出的一种“随机森林算法识别模型”能够从繁杂的贫困数据中精准识别出贫困人口,其准确率高达95.02%[14]。另一方面 ,精准治理还意味着需要以治理对象的需求为靶向,依照需求和反馈而精准施策。由于个体、区域、行业等差异,治理对象的需求具有弥散性、差异性、多元性等特征,传统政府治理往往只能参照大多数治理对象的需求展开模糊治理,而算法则能够高效收集多元、复杂、连续的个体需求信息,并细致描绘出数据集中颗粒个体的数据纹理特征,从而通过这些纹理特征对多元个体实施个体化、细致化的单粒度治理[15]。如有学者建构的“政府精准购买公共服务的大数据应用模型”,就可以通过检测数据的动态交换以及流动过程,精准获得公共服务对象的实时服务需求以及服务质量反馈信息,从而帮政府完善新一轮购买计划[16]。

其四,算法还具有预测性,能够对给定的已知数据样本进行深度学习并精准画像,从而获得样本数据中的相关关系函数,并将这一函数应用于预测诸如某地的犯罪、社会纠纷等治理风险发生的概率;同时,算法还能够依照所预测的信息,提前做出治理决策以预防或者减少相关治理风险的发生,达到先发制人的效果。当前,科技进步带来的现代化风险日益增多,而且这些风险开始逐渐脱离人类直接感知的能力,呈现出越来越不确定的趋势。乌尔里希·贝克指出,现代化风险的不确定性既可能体现为其出现的地理区域的普遍而不确定,也可能表现为其加害路径的飘忽不定和不可捉摸[17]。面对不确定的风险,危机的预防是危机管理的关键,其能够最大限度地减少甚至避免危机带来的损害[18]。基于对全量数据收集和分析能力的优势,算法能够较为全面地对当前情势展开理性、周全的评估,并做出具有前瞻性的规避或防范治理风险的决策,从而有助于克服传统政府部门应对治理风险时被动、滞后且低效的困境。

如美国PredPol公司开发的犯罪预测软件,可以根据某一地区历史中的犯罪数据记录,预测出将来某一犯罪可能发生的时间、地点,从而帮助警局提前在这一地区部署更多的警力以预防犯罪。这一软件在亚特兰大、洛杉矶、雷丁等地应用后,当地的犯罪率都出现了明显下降的趋势[19]。又如舆情的预测与治理一直是政府治理工作的难点。尽早预测舆情走向,并提前采取应对措施是治理舆情的重要方式。对此,秦涛等就提出了一种“网络舆情的无监督演化趋势评估方法”,经验证和分析,其能够在缺乏标注数据集的情形下,自动实现对舆情演化态势的预测,从而为有效化解舆情风险提供决策支撑[20]。

二、算法嵌入政府治理的挑战

随着算法参与政府治理的广度和深度不断提升,一系列实践经验表明,算法并没有理论预设的那么客观和公正,其还面临着诸多异化的风险,因而我们并不能对算法无条件信任,尤其是当前尚未形成技术锁定效应之前,我们更有必要全面发掘算法参与政府治理的内在限度,从而帮助我们有针对性地提出风险预防方案,最大限度地发挥算法决策的优势。

(一)技术上的难题

其一,算法的运转需要大数据支撑,而政府获取的大数据的完整性和优质性往往难以得到有效保障,这就使得算法决策的科学性、周全性和准确性面临挑战。算法决策的优势之一就在于其是通过对全量数据的挖掘和学习而建构的治理模型,因而数据的数量和质量关系到算法治理优势能否实现。然而对应用于政府治理的算法而言,可供其学习的数据集的全面性和优质性面临一定程度的考验。一方面,受制于数据获取方式以及条块管理体制,政府往往难以获得全量数据。对于数据获取难易度而言,民众的日常生活、行为习惯等是大数据的主要来源,而现实中,这些数据大多掌控在少数互联网企业手中,由于数据资源的稀缺性,政府很难轻易从互联网企业手中获得这些数据。对于条块管理体制而言,不同部门、地域之间的数据收集系统的研发、数据收集的标准、数据统计的方式等都存在较大差异,因而不同政府部门之间的数据统计和对接存在一定难度。此外,还存在一些政府部门出于自身利益考量而不愿公开数据、一些涉密数据无法公开以及一些政府部门怠于公开数据的情形[21]。这些因素导致政府难以获得完整、全面的数据用于建构智能社会治理系统,进而算法决策的正当性和合理性会遭受质疑。另一方面,数据质量问题也困扰着算法的精准性和高效性。除去数据污染、数据失真、数据冗杂、数据价值密度不足等一些大数据共性困境之外,大数据样本的不平衡问题也是困扰算法决策科学性的重要方面。由于数量上的差异,小样本数据往往会被当做“噪声”淹没于大样本数据之中,这就可能引发算法忽视少数族群利益,做出偏误或不公正决策。

其二,可信赖的算法决策应当是透明的、可被理解的,因而算法黑箱问题是困扰算法嵌入政府治理可信赖性的又一重要因素。詹娜·布瑞尔指出,算法黑箱的形成原因主要可以归为以下三类:一是出于保护国家或商业秘密的目的而引发的“刻意的不透明”;二是因技术壁垒而出现的“专业技能上的不透明”;三是因算法本身的复杂性、自主学习性而造成的“运行方式的不透明”[22]。首先,由于算法本身往往蕴含极大的商业价值或关系一国的重大利益,因而为了防范数据和算法被恶意盗取、复制和篡改,无论是商业机构还是国家机关往往都倾向于对应用于政府治理的算法尤其是关键、核心算法予以保密。如2018年美国纽约就以出台“自动化决策特别工作组法”的方式,赋权监管部门以推动算法的透明化。但在商业利益的驱动下,诸多科技公司都表达了对这一方案的强烈不满,并迫使相关机构取消了法案中有关披露算法的全部内容[23]。其次,“专业技能上的不透明”指的是由于算法技术的复杂性和专业性,非相关专业人员对算法有天然的认知鸿沟,即便相关代码和运行逻辑被公开,普通人也很难理解其决策方式。最后,“运行方式的不透明”则是指由于拥有自主学习、自主革新、自主适应的能力,算法决策往往是一个动态变化的过程,这就使得独立运行的算法甚至早已超出算法设计者的认知能力,即便是专业人员也很难对算法的运行逻辑做出清晰的解释。算法的这一特性使得“开发这些应用的工程师即使对于那些表面上看起来相对简单(诸如推荐广告或歌曲)的应用程序,也无法完全解释运行这些服务的计算机编程行为”[24]。与之相比,用于政府治理的算法的决策环境和决策方式要更加复杂,这无疑会进一步加剧理解算法运行方式的难度。

(二)伦理上的困境

其一,用于政府治理的算法看似中立客观,但“算法技术并不是凭空而来的,而是建立在现有分类手段、思想和类别之上的”[25],因而人类主观价值偏见难免会映射到算法决策之中,造成算法决策存在偏见、歧视的风险。例如,有研究表明,美国执法部门所运用的面部识别工具就存在歧视非洲裔人种的情形,预测犯罪的警务软件则对少数族裔存在歧视[26]。一般而言,以下三点是造成用于政府治理的算法歧视的主要原因:首先,作为人类社会镜像的大数据往往会内含人类自身的偏见,因而依靠大数据“喂养”的人工智能决策系统便难免会从中“习得”人类原有的价值偏见。数据是现实世界的映射,现实世界中的歧视问题往往会根植于数据的基因之中。在“偏见进,则偏见出(Bias In,Bias Out)”[27]定律的影响下,人工智能算法做出治理决策时便会如实归纳和遵循这些数据集中的偏见。其次,当前主流的机器学习模型仍然是监督式机器学习,其不但需要专家通过打标签的方式选择数据特征,还需要算法设计人员依照委托人员的构想设计初始的算法决策模型。而无论是数据标注人员、算法设计人员还是委托设计人员都有可能为了维护自身利益或基于其内在偏见而将歧视因子植入用于政府治理的算法模型之中。最后,为了保障治理成效,降低治理风险,算法会针对个体的数据身份特征展开精准治理。当决策的代价和回报被精准计算之后,社会弱势群体获得诸如贷款额度、政策偏向、发展机遇的概率也将随之降低。个体不公正的“结构性锁定效应”可能会进一步加剧贫富分化的马太效应,而被囚困于“算法监狱”之中的数字弱势群体将陷入被反复歧视的系统性困境之中。

其二,算法嵌入政府治理还可能造成民众被算法驯服,无法理性地监督治理方案、反思治理成效、参与制定治理方略。民众既是政府治理的对象,也是政府治理的重要参与者和监督者,而在算法参与治理决策的模式下,则可能出现民众被算法引导和操控,进而参与社会治理的空间和判断力被逐步侵蚀的风险。嵌入日常政府治理的算法一般会通过以下步骤塑造或整合民众的判断或选择:首先,通过跟踪、收集线上线下数据痕迹,刻画不同用户的主观偏好并进行群组分类;其次,运用个性化推荐算法,针对不同类型用户的偏好展开信息推送,从而营造“信息茧房”,进一步固化群体的先入之见;最后,偏见的固化会使得被情绪所裹挟的群体日益封闭,在群体极化效应下,民众可能不再关注决策内容的正确与否,而更注重自身感受的表达和自我价值的实现。此时,操控者通过推送经过其精心选择的、负载其意图的内容,便可以轻易实现对偏向性群体的操控目的[28]。如在2016年美国大选中,特朗普竞选团队就通过定向推送“暗贴”——通过脸书向特定的非裔美国人推送“希拉里称黑人为掠食者”的视频的方式,引发特定群体对希拉里的排斥情绪,从而在一定程度上助力特朗普成功获选[29]。

其三,政府在治理的进程中难免需要面对价值选择问题,而人工智能算法对于治理进程中的价值选择难题往往无能为力。首先,价值争论存在于政府治理的诸多方面,且始终没有一个统一的价值排序 ,这就需要决策者依照治理决策做出时的社会环境而展开具体的价值判断。由于价值判断需要参照的社会环境(诸如纠纷当事人的心理活动、民众的道德文化观念等)难以采取数据化形式充分表征,交由算法展开价值衡量就可能引发决策片面、偏激等风险。其次,无论是预设价值规则的理论进路还是复制、学习人类价值决断的实践进路,当前主流算法都遵循了道德机器设计的计算主义这一基本方法[30]。这也就意味着人工智能的价值判断是以计算方式展开的,其通过量化不同价值比重的方式模拟人类的伦理抉择[31]。治理领域价值冲突的道德计算主义往往从增进整体福利的普惠角度,选择投入更小、产出更多的治理方式。但在政府治理领域,高效性虽是重要的价值,却不是唯一甚至不是最重要的价值,当出现价值冲突时,高效有时需要让位于公平、正义等价值理念。最后,价值自决和价值选择是人类个体保持独立性、体现人类存在意义的重要方面,算法替代个体或群体做出价值选择,帮助其选择算法自认为更好的生活方式,无疑会危及个体的独立地位,造成人类主体性的丧失。

(三)法治上的风险

其一,算法自动化以及不透明决策的特性会造成相对人不但无法参与决策过程,而且也无法获得决策结论的合理解释,因而政府运用算法展开治理面临着程序正义的拷问。虽然算法决策具有中立性优势,但有学者通过对比研究发现,在判定决策是否符合程序正义方面,决策过程对于当事人的开放程度以及决策理由的充分程度所占的比重要大于决策者的中立性[32]。在政府治理过程中,被治理对象能否深度参与决策过程,能否获得便捷的沟通机会,在遇到不合理对待时能否及时、有效进行申诉以及能否获得合理的决策解释和救济是程序正义应当重点关注的。而技术鸿沟、算法黑箱以及算法自动化决策的特质,都决定了我们无法通过行使陈述、申辩、听证等程序性权利深度参与决策过程,获得决策理由,最终民众的基本程序性权利可能会沦为无用的摆设。对此,伊恩·克尔、杰西卡·厄尔充满担忧地指出:“具有预测性的算法会在我们不知情的情况下做出对我们产生重要影响的决策,这是和无罪推定以及正当程序价值观对立的。算法先发制人的策略,既损害了我们获得听证的权利和质疑那些试图对你不利的人的能力,也削减了我们得到律师的帮助、获得公开的决策理由以及在某些情况下对决策提出上诉或寻求司法审查的权利”[33]。

其二,算法在政府治理领域的大规模应用会带来公权力被商业技术公司俘获的风险。由于算法技术壁垒的存在,缺乏技术手段和人才的政府部门,不得不将许多关涉公共利益决策的算法外包给相关技术公司开发。这样,技术公司不但实质上获得了政府掌握的相关基础数据,而且还掌控了算法的设计、改良和操作权。如在对伦敦、纽约等城市的智能管理建设经验分析之后,罗伯·基钦指出:“一些体量巨大的软件服务和硬件公司正在积极谋求为新兴以及老牌城市提供数字技术和数据方案,其目的在于通过提升城市对特定技术平台和供应商的依赖性,从而形成垄断地位。最终政府将逐渐被边缘化,智能城市治理被企业利益俘获和公然塑造,私人利益将成为城市管理的实质目的。”[34]当公权力被商业利益俘获后,相关算法决策的出发点将不再是以公共利益为主导,相应的算法决策结论也就失去了正当性和可靠性,进而可能引发公众对政府治理的信任危机。

其三,算法决策绕开了原有的法律规则体系,造成技术赋权与约束的非对称性,随之而来的行政权力扩张会引发公民个体权利空间被压缩的风险。算法通过对海量数据的深度学习,建立数据模型,并不断自我进化,以实现自动决策。在这一过程中,数据和算法逻辑取代了原有的法律规则,进而依法决策过程被算法自动决策过程取代。当显性的法律规制被架空,原有权力制约机制也将面临空转的局面。在权力扩张以及简约治理法则的驱动下,脱离了法律规约的治理主体往往会凭借数据垄断、技术霸权优势,将原有的限制权力、保障权利的格局替换为“权力–支配”格局。因而,算法嵌入政府治理在为权力扩张和治理简化带来诸多诱惑的同时,也无形中减损着治理对象的自由。公民的个人权利诸如个人信息权、平等权以及教育、就业、获得社会保障等权利均有可能遭到“新型机器官僚主义”的长期、连续、普遍挤压和损害。“数字技术在推动社会进步的同时,也让我们付出了牺牲自由、平等、隐私等权利空间的代价。随着信息的成倍增长和广泛共享,有关个人健康、位置和在线活动的信息都会被收集和分析,这不得不引起我们对隐私、歧视和失控的担忧”[35]。如苏州借鉴健康码治理经验推出的极具争议性的“文明码”,就存在政府部门通过数字治理技术过度扩张权力的延伸界限,收集个人信息或隐私,不合理介入个人私域的风险[36]。

其四,政府运用算法展开治理还面临诸多责任分配上的难题。由于相关法律规定的概括性、缺乏可操作性以及不一致性,我国行政追责制度一直面临着责任认定标准模糊、责任形式繁杂、担责主体难以确定等困境[37]。在传统行政追责制模糊不清的背景下,如何建立与算法决策这一人机混合治理模式相配套的追责制度显然更加棘手。例如,在追责启动的标准问题上,由于算法决策的隐蔽性以及相关法律法规的缺失,传统行政决策违法或者不当标准在算法决策领域将难以适用;对于担责主体的认定上,“人工智能是否能够作为独立的法律主体”就存在很大争议,因而传统的“谁决策,谁负责”的基本追责原则可能失效。同时,如若需要人工智能担责,其应当以何种方式、在什么范围内承担相应的责任?而若人工智能无法担责,那么是由人工智能算法的设计者担责还是由政府有关部门抑或商业保险机构承担相应的责任?诸如此类的难题都是亟须我们进一步探索和明确的难题。

三、算法嵌入政府治理的法律规制

学者对于规制算法参与政府治理风险的路径已经开展了诸多有益探索。一些学者从宏观路径设计的角度提出了应对算法决策风险的基本思路,如张欣从时间维度提出我们应当制定算法规制的长期、中期和短期方案,以稳步推进的方式逐步实现智慧化治理目标[38]。丁晓东提出以场景化的方式对算法展开规制的路径,认为应当依照不同的场景类型制定不同的规制方案,从而推动算法可信赖目标的实现[39]。还有学者则从具体制度建构的角度出发,提出针对算法嵌入政府治理某一方面风险的规制方案。如张凌寒从行政正当程序的角度出发,认为坚持和发展正当程序制度是解决运用算法展开治理中信息不对称困境的主要方式[40]。孙庆春、贾焕银则更强调算法的透明性和可问责性,认为建构以算法公开、算法解释以及算法责任为框架的算法治理风险防范体系是治理算法的核心和关键[41]。通过对现有研究的反思和借鉴,本文认为,对于算法嵌入政府治理风险的法律规制方案,应当从宏观的原则指引和微观的制度建构两个方面着手,建立完善的法律规制体系,这样既能保障相关制度建构的包容性、全面性,又能提升具体制度建构的针对性和可行性。

(一)算法嵌入政府治理法律规制的基本原则

其一,政府运用算法展开治理风险的评价和规制应当遵循浮动的比例原则。比例原则是行政法的基本原则之一,指的是政府治理的手段和目的之间应当保持适当的比例,“不可用大炮打蚊子”便是对这一原则的形象描述。由于算法技术爆发期所带来的成本与收益不断发展变化以及算法参与政府治理领域的不断扩展,单一的或固定的比例已经无法满足应对算法决策风险的需求。对此,我们可以借鉴巴萨伊针对确定算法责任而提出的“浮动的比例原则”[42],并将其扩展应用于对算法参与政府治理的法律规制之中,从而根据算法决策的自动化程度、参与治理领域的不同特点以及算法决策技术发展的不同阶段等设定不同强度的、可以适时变动和调整的弹性规制方案。例如,针对算法责任的分配问题,可以依照决策自动化程度而适用不同的责任分配方案。又如对于算法可以替代政府展开治理领域的划定,可以依照行政自由裁量权的高低展开划分。随着技术的发展和完善,算法参与的治理领域以及参与程度也是可以不断浮动变化的。总之,这一原则的适用既强调了对算法决策风险的治理需要根据具体情况提出具有针对性、可行性的具体方案,又能为技术发展提供充足的空间和积极的引导,对于完善算法嵌入政府治理的法律规制方案具有积极意义。

其二,算法嵌入政府治理的规制应当采取主体自觉和法律制度建构相结合的原则。主体自觉是我们理性看待技术发展,保持人对技术的控制而不是被技术所驯服的前提和基础。美国《为人工智能的未来做好准备》第1条就指出:我们应当鼓励公共机构以及私人强化自我审视,从而明确自己是否有能力以及应当通过何种方式,有担当地利用和发展人工智能以及机器学习[43]。因此,对于算法的使用者而言,政府部门应当对算法参与治理的进程展开全方位监管,努力防范权力转移和异化。对于算法的开发者而言,其应当克服私利和偏见对算法设计过程的影响,还应当努力完善算法决策逻辑,保障算法决策的公平性和公正性。对于民众而言,其不但需要主动了解算法决策的机理与风险,还应当在遭遇不公算法决策时,勇于并善于拿起法律的武器维护自身的公平待遇和合法权益。在提升主体自觉性的同时 ,对相关法律制度建构也是必不可少的。在数字技术飞速发展、政府治理权责格局被重塑的背景下,现有法律法规的覆盖性、前瞻性、针对性不足,立法层级不高等造成算法参与治理的限度、程序、救济方式等模糊不清的问题日益凸显。实践中,无论是对民众数据权、隐私权等权益的保护,算法供应商权力的限制,政府权力转移风险的防范,还是对算法黑箱、算法歧视等算法固有风险的规制,都亟待相关立法的进一步完善和明确。当然,完善相关法律制度的目的并不是要限制用于政府治理的算法技术的发展,其主要目的在于规范算法参与政府治理的边界范围,明确算法参与政府治理的发展目标,从而避免因技术野蛮生长而造成算法决策应用误入歧途。

其三,对于算法嵌入政府治理风险的规制应当遵循内部过程控制和外部结果控制相结合的原则。信息技术的发展使得虚拟空间逐步成为与自然物理空间并行的空间,传统的对物理空间的规制方案往往无法内嵌于对虚拟空间的治理之中,因而我们应当转变原有规制思路,将视角从单一的物理空间延伸至物理和虚拟的双重空间,将规制路径从单一的对算法的外部结果控制扩展为对算法的内部运行过程控制和外部结果控制相结合的双重路径。“当代对于技术的控制,更多的需要以代码而不是法律的方式展开,或者可以说,法律本身也将更多的以代码的形式表达”[44]。这就要求我们充分重视通过代码而不单单是法律规则的方式对算法参与治理的风险展开规制。将法律规则转译为代码,以代码规制代码以及转变原有思维方式,树立代码即法律的观念,能够帮助我们建构适应双重空间、人机协作的信息社会,以内嵌和过程控制的方式化解算法参与政府治理的决策风险,推动政府治理健康发展[45]。

(二)算法嵌入政府治理法律规制的具体方案

在确立算法决策风险法律规制原则之后,我们应当以这些原则为指引,针对算法嵌入政府治理所面临的技术、伦理、法治风险提出具有针对性的法律规制方案,从而为最大限度发挥算法决策优势、提升算法决策的可信赖性做出努力。

1.应当建立算法决策应用领域的清单制度

算法决策并不是适用于政府治理所有领域的,在当前算法应用的初级探索阶段,划定算法决策的适用领域是我们应用和推动算法参与政府治理决策的核心和关键。算法决策的自动化程度以及政府在某一治理领域内自由裁量的限度是分别根据算法本身特性和政府治理领域的特征而划定算法治理适用领域的两个重要标准。一方面,机器学习算法存在无监督学习以及有监督学习两种模式。无监督学习算法的设计和运营者是无法预设和控制算法的学习方向以及决策结果的,而脱离了人为干预,人类便无法保障算法的决策是以契合法律法规以及伦理规范的方式做出的[46]。有鉴于此,欧盟《一般数据保护条例》第22条规定,如果某一决策对个人产生法律效力或与之类似的重大影响时,数据主体拥有免于受到完全自动化决策约束的权利。因而对于政府治理而言,算法决策的自动化程度越高,就意味着其参与政府治理的合规性和合伦理性越弱。另一方面,在政府治理裁量权限的维度上,对自由裁量权的限制越大,便意味着算法参与决策的程度就应当越低。这是因为在实践中,如若裁量可能会造成更严重的后果,那么相应自由裁量的权限就会被控制得更严格,尤其在国家安全、限制公民权利、刑事执法等涉及国计民生的重要领域的行政决策问题上,政府的行为往往会受到法律规则、法定程序和法治理念的严格控制,目的是加强决策的可预测性和对任意行使权力的限制,尽量降低裁量出错的概率。此时,由算法展开决策所带来的附加值,诸如效率的提升、控制个人因素对结论的影响等,便十分有限;而算法本身缺乏透明性,沟通–说理能力不足,以相关关系替代因果关系可能导致错误的任意性风险等方面的缺陷则可能被进一步放大。因此,当政府在决策中享有广泛的自由裁量权时,他们应该利用机器学习的好处;而当政府自由裁量权受到高度限制时,他们应该避免使用机器决策工具[47]。

但是,完全的自动化决策以及算法全面涉足政府治理领域是当前人工智能技术发展的大势所趋,无论是限制自动化决策参与政府治理,还是严控低自由裁量领域运用算法决策,都可能和技术发展趋势相抵触,因而我们还需要建立相应的豁免机制,以契合算法决策的治理应用实践。对此,我们有必要探索建立以自动化决策维度和裁量权限维度为基础,以豁免机制为补充的算法决策应用领域清单制度。这一清单既要包含可以应用算法决策的正面领域清单,也要包含禁止或限制算法决策应用的负面领域清单。具体清单的制定可以考虑采取向社会公开征集意见、举办听证会、专家论证会等方式,并建立适当的清单变动制度,从而有效保障清单的合理性和可行性。实践中,中国电子技术标准化研究院发布的《人工智能深度学习算法评估规范》,以实际应用场景为基础,建立算法可靠性评估指标体系,其对建构算法应用领域的清单具有积极的指导意义。今后我们应当在此基础上进一步精细化算法决策应用领域的评估体系和应用清单,从而为用于政府治理的算法发展划定适当的界限,指明努力的方向。

2.完善算法解释制度,提升算法的可解释性

算法决策的透明化是破解算法黑箱、防范算法歧视以及算法被商业公司俘获等风险,保障算法决策公正性的重要方式。由于算法代码的专业性、与商业秘密的强相关性以及算法的安全性需求,通过开放源代码的方式并不能解决算法透明性不足的困境。实际上,公众所关心的也不是算法代码是否公开的问题,而是用于政府治理的算法决策目标以及实现这些目标的建构逻辑能否被公众理解和接受的问题。“公共实体所应着重关注的是用于社会治理的算法的设计、采购和实施流程是否以深思熟虑和透明的方式进行。公共实体在采购算法的合同中并不一定需要供应商披露精确的算法代码,而是应当要求供应商交付算法模型的生成记录和运行逻辑,从而用来解释关键的政策和帮助展开验证工作。”[48]因此,算法解释制度的建构才是推动算法透明目标实现的可行路径。

鉴于用于政府治理的算法往往是通过对外采买的方式获取的这一现状,政府应当利用其买方优势,要求算法供应商提供包括用于算法学习的数据集、对数据集进行标注以及排除或加权某些数据的依据和标准、建构算法时做出的主要政策选择、算法的缺陷以及相关防范措施、对算法的验证和审核结果等在内的算法建构和测试记录。这些记录应当由算法供应商或者政府予以公布,以主动接受民众和第三方机构的监督和质询。在政府运用算法治理的实践中,相关部门还应当负有主动告知相对人“决策由算法做出”的义务,以便相对人行使其获得算法解释以及拒绝自动化决策的权利。当利益相关者提出合理质询时,算法供应机构还有责任以通俗易懂的方式提供治理决策的解释。实践中,华盛顿州于2019年拟推出的有关算法问责法案,就提出公共事业部门决定采用算法决策系统之前,应当提前将系统的创建方案和数据报告提交给州隐私部门,并向公众公开,征求公众意见,从而帮助公众理解以及监督算法决策[49]。此外,我们还应当重视对相关算法解释技术的应用。如有学者通过引入“概念激活向量测试(TCAV)”的方式,可以较为直观地显示用户定义的概念对分类结果的重要性程度,从而以对人类友好的方式解释神经网络的内部状态[50]。

3.压实与算法决策相关的沟通、监管制度

首先,我们应当探索设立独立的人工智能监管、协调、问责机构。由于现有监管和协调体制的分散化、非专业化等原因,对算法发展的引导、支持、监管等工作处于一种被动、松散、无序的状态。在信息社会到来的背景下,人工智能的发展和应用呈现爆发性趋势,因而提早筹划建立统一的人工智能技术发展协调、监管机构便十分必要。在机构设置上,可以采取设立独立的监管机构并配备专业技术人才的方式以统一协调、引导和监管人工智能技术的发展。在机构职能上,除了对用于政府治理的算法行使监管职责之外,这一监管机构还应当担负起制定相关规范标准、协调建立统一的数据开放平台等协调沟通职能。如对于数据平台的建设,由统一的监管机构建立政府信息收集和公开平台便能够克服当前政府数据条块分割的困境,同时还可由其审查数据的类型,决定数据是应当完全开放还是需要通过申请——许可的方式开放,从而既维护了数据的安全性,还能够保障用于政府治理的算法所学习的数据的完整性。

其次,建立和完善算法验证评估许可制度以及针对投入使用的算法的审计制度。相关监管制度的完善是保障监管机构有效运转、防范算法决策风险的另一重要方面。一方面,我们应当完善算法投入应用前的验证评估许可制度建设,根据算法不同应用领域的重要性以及算法决策自动化程度,分别展开强制性的、抽样性的或依申请的验证评估。对于那些涉及国家重要事项、限缩公民权利等的算法应当在投入使用前,由专业机构对其展开全面的验证评估,只有符合评估标准的算法才能投入到治理实践中。另一方面,对于已经运行的算法,可以根据算法参与治理事项的重要程度,由独立的监督机构采取定期年检、抽样审计或者依申请审计等方式,重点对算法的运转逻辑及决策结论是否存在歧视、漏洞、偏误等展开事中和事后检测。此外,如若算法决策相对人或利益相关者对算法决策提出异议,算法监管机构还有义务对相关算法展开审查,并将审查结论及时告知异议提出者。

最后,对于算法的监管和协调工作,要善于运用现有技术手段,从而以代码规制代码,以技术治理技术。例如,对于统一数据平台的建设,就可以充分发挥区块链在整合信息以及保障数据全流程可追溯、公开透明、自动留痕、不可篡改等方面的优势,消解不同地区和政府部门之间的数据鸿沟、数据孤岛,实现用于算法学习的数据的真实性、完整性和可信性[51]。又如,对于算法审计而言,日益成熟的“歧视感知数据挖掘”技术,能够帮助我们自动识别算法是否存在歧视等偏离公正伦理的情形[52]。此外,通过预先埋入审计线索的方式,也可以全面记录用于政府治理的算法决策过程,为审计人员审计工作的开展提供便利。

4.积极引导并努力保障算法决策符合基本伦理要求

面对算法嵌入政府治理存在算法歧视、算法霸权等伦理风险,通过立法和技术规制的方式提升算法决策的伦理正当性尤为必要。一方面,在人工智能时代,“代码创作者开始越来越多地扮演立法者的角色”[53],因而我们应当通过立法的方式,划定算法设计、开发者所应当遵循的伦理道德底线。立法是平衡效率与公平的重要方式,通过立法加权数字弱势群体,为算法设计、开发者划定伦理道德底线,可以有效避免小样本数据被淹没、弱势群体被算法决策系统性歧视、算法决策忽视公共利益而被商业公司俘获等诸多算法决策风险,从而保障算法决策符合基本伦理要求。

另一方面,我们还可以通过代码嵌入的方式将法律规定的基本伦理、正义理念植入算法模型之中。实现这一目标可以通过以下两种路径展开。一种路径是依照政府治理的特点,参照现有法律基本规定,事先制定用于治理的算法所应当遵循的基本价值准则,然后通过法律代码化的方式,将这些伦理要求编入算法决策的主要节点之中。当算法的决策过程偏离这些伦理要求时,便会因不符合相应的触发条件而无法启动代理节点,从而阻断违背基本伦理准则的算法决策生成[54]。另一种路径就是运用算法自身的学习能力,让其自主学习治理先例中不同情境下各要素在价值衡量中所占的比重,并将当前治理事项与先例比对,对于二者交叉或重复的区间则采取与先例相同的价值选择倾向,从而保障算法决策符合政府治理的基本价值判断。匹兹堡大学的托马斯·萨蒂依照这一进路开发了等级层次和网络层次分析算法,其将定量分析和定性分析相结合,能够有效缓解算法决策的伦理选择困境[55]。

5.建立合理的算法决策责任分配机制

在当前技术发展背景下,将用于政府治理的算法决策责任分配给机器的做法不符合现实需求,因而算法决策违法或不当的主要责任应当在政府和第三方供应商之间分配。无论是由政府这一算法决策的目标设定者和最大受益者担责,还是由作为算法具体设计者的第三方供应商担责,都有一定道理,因而对于担责问题的分配也存在诸多争论。此时,我们认为可以从因治理决策违法或者不当而遭到损害的治理相对人的角度来对这一问题展开思考。首先,民众将治理决策权交由政府掌管,是出于对政府决策能力和担责能力的认可和信任,政府也以自身的公信力为算法决策做出相应的背书,因而从政治合法性的角度讲,由政府担责更为合理。其次,若由第三方供应商承担责任,那么不但会增加算法决策相对人的维权成本,而且由于算法决策的专业性,对算法了解不足的相对人还要承担更大的维权失败风险。最后,还有学者提出了一些反对政府担责的观点,其认为“政府机构很少或根本没有实际参与系统的设计、实施或测试。因而,国家只是一个容纳违法行为的空壳,而不是实施违法行为的主要行为者。对政府机构追责可能会削弱软件供应商投入更多成本以减少算法治理损害的动机”[56]。但笔者认为对于政府机构的追责恰恰是倒逼政府主动参与或监督系统设计、实施和测试的有益尝试,这对于提升算法决策的科学性和公正性具有积极意义;同时,由于政府属于算法的购买方,其还可以通过事后追偿或者更换供应商的方式激励算法供应商提升算法决策的可靠性。

四、结语

随着算法决策技术的日益成熟,将算法嵌入政府治理对于提升政府治理成效、降低政府治理成本具有根本性的变革意义,但这并不意味着我们应当无条件地对嵌入政府治理的算法予以信任。无论是理论预设还是实践经验都表明,算法决策会带来诸多新的风险和挑战。因而,面对算法决策,我们既不可盲目乐观,也不可过度悲观,我们应当做的是在参与政府治理的算法技术尚未完全定型的情况下,及时提出有效的法律规制方案,尽可能地保障算法决策在可信赖的轨道上行稳致远。当然,本文所提出的法律规制方案还存在诸多局限性,如:独立的算法监管机构与现有监管机构之间的关系问题,如何判定算法决策是否违法或缺乏正当性问题,如何具体保障数字弱势群体的权利问题,等等。因而对于算法嵌入政府治理法律规制方案的讨论并不是一劳永逸的,我们应当依照实践经验不断完善相关法律规制方案,从而努力推动政府治理现代化转型目标的实现。

猜你喜欢

决策算法政府
哪种算法简便
为可持续决策提供依据
Travellng thg World Full—time for Rree
知法犯法的政府副秘书长
决策大数据
进位加法的两种算法
根据问题 确定算法
决策大数据
诸葛亮隆中决策
省级政府金融权力榜