数字政府视阈下的算法行政:兴起、风险与法治纠偏
2024-07-10李牧王俊
李牧 王俊
摘 要: 随着数字政府建设目标的确立,算法技术嵌入行政成为一种必然趋势,但是算法在促进行政的同时,也带来了法治价值失序的隐忧。算法基于海量数据运算配置社会资源,辅助甚至独立作出行政行为,或许将会成为行政权行使的中枢性力量。但是,过度依赖算法可能导致强调技术理性而忽视价值理性。算法技术本身所带的内生性风险与算法应用中潜在的风险,暗含着行政权力的“技术延伸”和公民权利被侵蚀的隐患,算法行政遭受合法性和合理性的诘难,数字政府建设与法治政府建设面临耦合困境。为防范算法行政异化风险,政府的数字化必须与法治化同步建设,警惕技术理性凌驾于价值理性之上的观念,并从算法的创制、适用以及事后追责的各阶段构建起算法行政的合法性约束机制,避免“权力—权利”格局的失衡,从而促进政府数字化建设和法治化建设的深度融合。
关键词: 数字法治政府; 算法行政; 异化风险; 公民权利; 行政法治
中图分类号: D922.114; D922.112 文献标识码: A DOI: 10.3963/j.issn.1671-6477.2024.02.001
一、 问题的提出
随着数字技术的兴起,先进的算法技术在政府治理中被广泛适用,政府行政迈入数字化、网络化、自动化、智能化时代。2021年我国发布的《法治政府建设实施纲要(2021-2025年)》第九条中专门提出“全面建设数字法治政府”的目标,并要求借助技术手段实现治理信息化和法治化的深度融合,大力提升法治政府建设的数字化水平。2022年国务院提出“整体协同、敏捷高效、智能精准、开放透明、公平普惠”的数字政府建设目标,政府行政数字化的步伐进一步加快。
在数字政府建设浪潮下,公共行政日益依赖算法,但算法行政中潜在的黑箱、扭曲、不公等异化现象可能侵蚀公民的正当权利,算法行政面临合法性危机。过多的人机交互、人机交往不啻使得“人越来越像机器,机器越来越像人”[1],并且容易导致过度崇拜技术理性而忽视价值理性。为缓解国家负担过重和提升治理效能,我国兴起了一种新型的合作治理模式,即政府借助私人力量来完成行政任务[2]。受个人利益驱动的算法开发者与旨在维护公共福祉的政府机构展开合作,算法由此借助正当的制度形态嵌入行政权力,但“公私合谋”“算法黑箱”等问题仍引发了巨大的争议,算法嵌入行政对行政权力的运行产生了一定的风险,如算法技术被公务人员用作规避个人责任的工具,本应由公务人员担负的责任归咎于机器算法,“算法卸责”现象频发。此外,算法拘囿于自学性、“黑箱”性与极速性的特性[3],基于机器学习作出的决定具有一定的独立性甚至不可预测性,有偏离预计行政目标、侵犯公民权利的可能。综上所述,以效率为导向的数字政府建设与以公正为基石的法治政府建设出现了异步风险,算法行政引发了“破坏政府公信力”“加剧社会不平等”“侵蚀公民权利”“损害行政行为的公正性”等一系列隐患。
从法治的角度审视,算法驱动的行政活动本质上仍然属于行政权力的行使,应当被纳入行政法治框架之中,受到法律的约束。然而,问题在于,在面对技术密集、快速迭代、依赖于代码和算法作出决定的新型行政管理模式时,现有的行政法治体系应如何有效地适应和监督?为此,笔者认为算法行政必须以法治的根本价值为依归,明确算法行政的价值目标,通过从算法嵌入行政的创制、适用以及事后追责等各阶段,搭建算法行政的合法性框架,以回应数字时代算法行政所提出的各种挑战和诉求。
二、 算法及技术的演进与算法行政
(一) 缘起:从技术到权力
“算法”这一术语的历史源远流长,其中文命名可以追溯到《周髀算经》和《九章算术》等中国古代数学文献;而算法英文名称“Algorithm”,是来自于9世纪波斯数学家花剌子米,他在数学上提出了算法这个概念,乃表示数字或符号的运算规则。随着数学的进步,演绎推理的逻辑过程也逐渐转化为算法形式,使得计算与推理在“算法”这一概念下实现了融合。算法已超越了简单的计算规则,转而成为从数学问题中抽象出的通用计算程序,并且旨在实现标准化,以便进行机械化的重复迭代[4]。1936年,英国科学家艾伦·图灵提出了一个名为“图灵机”的数学计算模型。这一模型的核心思想是将人类的计算过程简化并抽象为数学逻辑上的机器操作,其被认为是人工智能的先河。算法因此突破了传统数学应用的界限,扩展到计算机科学领域,逐渐演变为技术和场景应用中的关键驱动力。自此以后,算法被认为是基于数学原理,通过计算机编程语言表达的一系列程序化指令或操作规范,其实质上是一套求解逻辑。
20世纪中叶以降,随着人类将算法应用于众多领域,算法在很大程度上改变了人类生活,为决策者提供了更加精准的信息作为决策判断的依据,公共机构、私营企业、公民个人日益依赖算法,有学者甚至提出“算法即规则,代码即法律”的观点。算法已超越了单纯的计算机科学范畴,开始具有社会属性。任何能够让特定主体控制他人或对他人产生影响的资源,都可以被称作权力[5]。而算法调配资源的力量使其形成了一种事实上的技术权力。凭借其固有的优越性,算法被整合进社会权力架构之中,对社会运作和人际交往模式产生了变革性质的影响,它基于机器学习优势挑战并争夺人类的决策权;通过架构优势塑造人类的认知与行为模式;通过嵌入优势,以指数级的速度放大其影响力,进而反过来影响和塑造社会运作的方式,最终形成了所谓的“算法权力”[6]。简言之,算法权力就是某一主体因掌握相应的算法技术而得到了其他主体不具备的一种优势[7],这种优势的实质是技术权力的获得。
(二) 区分:算法系统类别
基于不同的角度,算法系统有不同的分类。从生成方式来看,公共领域已使用的算法系统主要包括两种类型,一种是规则导入型算法,另一种是机器学习型算法。前者是指算法设计者将预先编写的程序规则写入计算机神经网络,该算法比较简单或者是具有固定的模型,仅遵循设计者设定的指令,其输出完全处于人类的控制之下。后者不是基于明确的人工编写的规则,而是依赖于从历史数据中自主归纳出的规则。通说认为,机器学习是程序依据提供的数据自动地学习,进而获得识别和进行预测的能力[8]。机器学习的本质在于应用算法构建量化分析框架,使得计算机模型能够通过数据进行“学习”[9],其得出的结果具有不可预测性,譬如智慧警务背景下部署的“预测性警务系统”,预测犯罪活动可能发生的地点和涉及的参与者,让公安机关能够及时采取预防措施,从而防止犯罪行为的发生[10]。从算法对人类决策的影响力程度来看,算法系统可以被划分为辅助决策系统和全自动决策系统两大类。辅助决策系统中,算法一般承担着辅助职能,例如,系统在分析了气象数据之后发出潜在风险的预警,或者依据道路交通状况的数据提出在特定区域安装交通信号灯的建议等。这种系统的应用,决策者保留了较大的自主权,行政机关可以自行决定是否遵循系统所提供的建议。相比之下,全自动决策系统不需要人参与其中就可以完全自主地作出决策。例如,在深圳市实施的全自动审批系统中,高等院校的应届毕业生若要申报引进和落户,仅需在线提交所需材料,系统会自动进行材料审核,只要所提交的信息和材料齐全且准确,审批过程将无需人工干预,随即自动完成。一般而言,不需要裁量的事项运用的是全自动决策系统,而需要裁量的事项主要应用辅助决策系统。
(三) 演进:算法嵌入行政
进入21世纪,信息技术革命的到来导致互联网、大数据、云计算和人工智能等技术被广泛应用。就公共行政而言,由此而引发的制度变迁是最为广泛和深刻的,正如有学者所言,信息技术不仅用以提高行政效率,而且大幅度地改变公共行政的体制和机制[11]。由于算法逐渐渗透到社会生活的方方面面,变革着人类的生活方式以及对世界的认知,鲁夫罗伊便将治理术引入数字领域,正式提出“算法治理术”,即“算法行政”这一概念[12]。一般认为,算法行政是自动化行政的范式之一,其并不属于规范意义上的法律概念范畴,仅是通过算法进行的自动化行政活动[13]。“算法行政”是行政系统以自动化决策为主要机制,实现数据驱动型治理的一种方式[14]。由此可见,在治理语境下,“算法行政”属于新型的国家与社会治理的方式,算法是行政机关进行治理的工具[15]。从技术逻辑视角来看,算法嵌入行政对传统的行政模式和治理结构进行了深刻的塑造和变革,算法提升了行政的效率和精确性,基于此算法行政发展为一种新型的官僚行政模式,有学者将其称为“算法官僚”[16]。从政治逻辑的角度分析,算法在行政中的广泛应用影响了公共权力的分配与使用、公众参与政治的行为模式以及公共决策的结果等,正逐步推动行政部门走向一种新型官僚主义,即“算法官僚主义”[17],其意指行政部门过度依赖算法的运用,而忽视人的主体性地位。综合以上分析可知,算法行政是指在数字政府建设背景下,为提升行政效率、优化资源配置,以算法技术驱动行政活动,借助算法进行自动化操作和决策的新型行政管理模式。
由于算法行政自身的优越性极大满足了行政主体对其实用主义功能的期待,算法嵌入行政的趋势也愈加明显[18]。算法行政不仅极大助益于行政效率,还提高了政府治理的精准度。算法系统通过搜集和分析数据,能够模拟出对行为主体的详细“人物画像”,实现针对性的治理策略,从而提升政府治理的精确性。此外,算法行政还增强了政府治理的理性和客观性。在传统的政府治理过程中,行政人员可能会受到各种因素的影响,导致行政偏私,使得政府行政的合法性和合理性受到质疑,而算法系统在预设了明确的标准和考量因素后,能够对所有输入的信息进行较客观的处理。算法的“技术中立”特性有助于消除政府治理中的偏见和人情等复杂因素,从而在一定程度上确保了行政结果的公正性。在数字政府建设的背景下,算法行政几乎被政府运用到社会生活治理的各个领域。无论是环境保护、交通管理,还是医疗、教育和卫生等公共服务的提供,都能看到算法技术赋能对提升政府治理效能的显著贡献。算法在国家和社会治理场景中的应用正变得日益普遍,算法与行政相结合的新型行政模式——算法行政,正日益形成。
三、 算法行政风险样态的类型化识别
未来的行政权行使或许更显智慧和高效,“但它可能缺乏情感,甚至比今天枯燥乏味的官僚程序更缺乏情感”[19]。算法嵌入行政在提高行政效能的同时,也具有异化的风险,其具体表征主要为两方面:从算法技术视角看,算法黑箱和算法技术的不确定性,暗含着行政过程的不透明和结果的不可预测,可能促使算法行政产生与法治政府建设相悖的作用力;从算法应用视角看,法律语言转译成算法语言,权力的技术化可能会导致技术权力化,算法或许会成为行政主体脱卸责任的一种方式,异化的算法行政暗含着权力扩张、政府失信以及公民权利被侵蚀的失范风险,算法行政面临着合法性危机。
(一) 算法技术的内生性风险
1.算法黑箱。简单来说,“算法黑箱”指的是已知输入和输出,但对于输入是如何被转换成输出的这个过程却一无所知的情形。在算法系统开发的私有化趋势中,私营部门常以商业秘密保护为理由,回避公开其算法的责任,进一步增加算法行政的透明度风险。由算法行政引发的诉讼表明,由于算法黑箱的存在,执行任务的公务人员并不了解这些系统的运行原理,更无法在法庭上给出任何解释说明①。算法黑箱的不透明与难以解释关涉人们的知情权以及直接影响人们对算法的信任感与认同度,很容易引发民众对算法合理性和算法权力合法性的担忧,进而导致政府公信力受损[20]。
2.算法的不确定性。算法的不确定性风险主要有三类:一是研发中,特定知识演绎成算法模型难以做到绝对准确。二是输出过程中,算法在数据处理、模型构建和实际应用中面临的限制,使得其输出的准确性和有效性难以保证。三是基于算法结果作出的决策对社会产生的影响可能是一个未知数,特别是在考虑算法长期影响的情况下,这种不确定性构成了算法最大的风险[21]。现代法治国家通过依法行政原则和正当程序原则构建起行政权力正当行使的运行框架。算法行政的出现,依法行政有逐渐异化为依“法”(算法)行政的隐患,算法尤其是机器学习型算法,在算法设计师设计的“学习规则”的基础上,通过海量已知数据产生未知信息,并依据外部环境的变化进化自己的算法,产生的结果往往具有未知性和不可预测性[22],其导致的直接结果就是法律的实施具有更大的不确定性。
(二) 算法应用中的潜在风险
1.算法卸责导致责任归属不明。所谓“卸责”,顾名思义就是推卸责任。算法行政中,公务人员借助算法实施行政活动,当出现需要承担责任的情形时,原本应由公务人员承担的责任可能被转嫁至算法,导致出现责任归属不明的现象。更有甚者,在出现“人机冲突”时,更倾向选择遵循机器的建议,一旦造成严重后果,就可以将责任推给技术本身,从而转移公务人员承担的责任,算法卸责可能成为行政主体脱逃政治责任和法律责任的手段[23]。例如,在河南村镇银行储户遭遇错误赋“红码”的事件中,相关部门借以技术原因来逃避公众的追责;而在后续再次出现“红码”问题时,郑州市也以“技术故障”作为解释,以达卸责的目的。
2.算法滥用侵蚀公民权利。依靠算法极大地缩减了行政行为作出的时间,减少了人为因素对行政行为的影响和干预,在一定程度上促进了行政的客观性、科学性。但是,算法滥用仍给公民权利带来了不容忽视的侵蚀风险。在数字政府建设过程中,实体型政府向平台型政府转变,越来越多的个人信息数据被政府或企业收集、储存、分析。与此同时,自动化行政使用算法技术功能的前提就是大量数据信息的采集,行政裁量智能系统需要机器学习大量的案件和数据,如果出现对数据和信息的过度分析和违法使用,将导致公民的个人信息和隐私权面临被侵害的风险。同样,公民的人身自由、言论自由以及新型的数字人权②等都在不同程度上受到了异化的算法权力的挤压,根植于数理逻辑的算法行政存在侵蚀公民权利根基的可能性。
3.算法赋能促使权力隐性扩张的风险。“自由法治国”到“社会法治国”,其实质是政府从“守夜人”到行政国家的转变。肇始于此,政府的任务从消极地不过多干涉公民生活转变成积极为公民提供“生存照顾”[24],政府的行政职能和任务因此急剧扩张。行政国家自其兴起以来,总体上呈现出持续扩张的趋势。行政机关的职能不断扩展,承担着越来越多的立法和裁判职能,通过制定行政规章的行政立法权以及与司法判决相近的行政裁决权,并直接管理国家和社会事务,一度成为国家权力中最活跃的权力。而算法赋能行政的出现,可能会加剧这种行政权扩张的趋势。社会需求日益增长与行政资源有限性的矛盾,为行政权的持续扩张提供着契机与动力,算法行政也是为缓解此矛盾的因应之策。行政机关借助算法采集和利用公民的个人信息,在此过程中形成公民的“数字画像”,可以精准实施对某个具体的人的监控以及对公民个人行为的全方位掌控,行政权得以“技术延伸”。在此情境下,“权利”对“权力”的制约平衡机制发生倾斜。算法行政可能超出法律对行政权的授权范围,进而造成法律统治下的政府渐变为算法统治下的政府。
四、 算法行政异化风险的法治纠偏
(一) 理念先行:明确算法行政的价值旨归
理性、正当的价值理念是消除算法行政异化的重要前提。因此,必须要明确算法行政的价值旨归从而调和技术理性与价值理性之间可能出现的失衡。
1.坚持以人民为中心的理念,明确算法行政的范围。一方面,在使用算法权力进行社会管理的过程中,政府各级部门应始终贯彻以人民为中心的服务理念,充分利用算法技术提供更具精确和个性化、性价比更高、持续迭代创新的公共服务,维护公民的合法权益,平衡权力与权利的关系,确保权力源自人民、服务人民,增进公民对数字服务的满意度。另一方面,明确界定算法行政的范围是避免技术授权导致公共权力无序扩张的必要之举。“权力拥有者在使用权力时会一直使用到权力临近极限,方才停止。”[25]必须严格规范算法在不同情景中的相应适用范围,以防止算法在行政领域下过度扩张的趋势[26]。法律保留原则强调,对基本权利的限制必须由法律来规定。对可能实质性地影响到公民基本权利的算法行政应用范围,必须遵循法律保留原则,由法律明文规定。简言之,算法应用于行政的边界应当受到法律的明确界定:通过概括性或具体列举的方式,指明哪些行政行为应由公务人员直接作出,而不得由算法来主导。例如,德国依据所涉权利重要性、人工介入程度以及裁量范围三个要素确定了自动化行政的法律保留范围[27]。
2.以公正为基,兼顾效率。在社会发展过程中,公平与效率之间的价值冲突似乎难以避免,而一个良好的社会必须能够在追求公平与提高效率之间找到恰当的平衡点[28]。算法对行政的赋能,导致效率优先主义在技术的助推下不断得以强化,相应地,算法嵌入行政生成的治理新形态可能过于追求治理的效率,从而忽视对公平原则的追求,造成算法行政中公平原则的遮蔽。如果没有效率,算法行政就不能体现出其优越性;如果没有公正,算法行政就无法体现出其正当性。在算法行政的推进过程中,行政机关应当保留一定的自由裁量权,以确保行政机关可以基于实质公平而作出区别对待的行政行为。例如,在系统作出行政处罚之前,应当实施必要的人工复核,消除算法可能带来的偏见。除此之外,还必须考虑数字弱势群体的权益,允许传统行政活动形式的存在,保留传统送达、告知的行政流程,确保他们在政府行政网络化、数字化的转型中不会被边缘化。
(二) 算法创制:构建算法影响评估制度
算法影响评估指的是在算法系统投入使用之前和运行期间,对其可能产生的影响进行评价,以确保算法系统在风险可识别且影响可控制的安全范围内运行。通过建立算法影响评估制度,检视嵌入行政活动的算法是否在技术与伦理之间取得均衡,并对可能产生的影响进行评估。算法制定过程中引入风险评估制度,正是建立在风险预防的理念基础之上,从源头预防算法可能引发的系统性风险。基于我国算法影响评估实践,算法影响评估制度可以划分为封闭合规型和开放反思型两大类别。鉴于二者之间的比较③,开放反思型算法影响评估制度更能适应机器学习算法的特性,它在提高算法的透明度、维护个人法定程序权利以及为公众提供实质性的算法决策审查等方面,展现出更为显著的制度优势。因此,我国应以此为基础制定动态性评估和结果强制披露的算法影响评估制度并通过建立相应工作机制予以落实。
1.建立动态的算法影响评估启动机制。在我国,算法制定过程中承担风险评估的义务主体通常是行政机关,但行政机关有权将风险评估的任务委托给算法开发公司以外的专业第三方机构。如前文所述,机器学习型算法基于已有逻辑结构不断通过数据学习进而进化新的规则,规则生成具有动态性和不确定性,所以算法风险评估启动机制也应当是动态的、全过程的,不能拘于事前评估,而是通过事前、事中在算法的开发、应用等阶段对算法进行覆盖技术安全性、社会稳定性、公共安全以及个人信息保护等多个方面影响程度的评估。评估得出的结论将作为决定算法是否可以被实际应用或继续应用的关键参考。依据不同的应用背景、规范和类别,召集技术专家就算法的安全性、算法制定的权限、程序以及内容是否合法进行深入讨论,评估的项目包括数据来源的合法性、对数字弱势群体的保护措施、用户隐私的维护以及针对伦理风险的紧急应对方案等,同时需将评估结果及时公布以供公众查阅[29]。对于存在重大风险的项目,应当迅速采取整改措施,不断更新技术手段,力求将算法嵌入行政的合法性与合理性风险降至最低。
2.建立评估报告强制披露机制。在算法决策中,“输入端”与“输出端”两个环节的信息公开,将增强算法的透明度和可理解性,从而增进公众对算法系统的信任度[30]。在公共部门与私营企业共同开发算法系统的情境下,商业主体通常会以算法影响评估报告包含商业机密为由,拒绝对外披露,这严重阻碍了公众参与监督算法运作的途径。关于算法行政中的算法究竟是否属于商业秘密,学界有不同观点④,笔者认为,应用于行政中的算法与商用算法的性质明显不同,其不应当被认定为商业秘密。这是因为:一是在大多数情况下,算法行政所采用的算法相对简单,通常可以通过逆向工程来揭示其工作原理,难以称得上是商业秘密;二是如果商业机构明知算法的公共性而仍向公共部门提供比较复杂的算法,既想赚取制作算法的利润,却又不愿尊重行政公开原则、不愿公开评估报告,依循“公共利益高于个人利益”的逻辑,就不应认定为商业秘密进行保护[31]。故在制定算法影响评估机制时,私营部门和政府机构应当透明化算法操作的详细过程,包括公开算法处理的数据类型以及算法内部的逻辑结构。此外,还应阐明算法输入数据在决策过程中的权重,提供必要的专业知识以便公众理解算法的工作原理、决策边界,以及算法执行可能带来的影响和后果。
3.建立算法“通告—评论”机制。美国《联邦行政程序法》规定正式规则制定应遵循“通告—评论”的创制方式,它要求政府将拟议新规则或变更规则通知公众,并接受公众评论[32]。鉴于算法创制和规则制定过程的具有高度相似性,因此可以参照现有制度来构建算法的“通告—评论”机制。一方面,行政主体在启动特定算法系统的影响评估时,或可进一步参考比较法上的先例,如加拿大的“AIA”机制(算法影响评估工具)[33],应当评估的具体内容包括算法设计理念、算法应用场景、对相对人权益可能的损害以及拟定减少风险的措施。另一方面,应建立有序的评价渠道,在线上设置统一的智慧平台,如算法评论网站、网络邮箱等。在线下的政务服务大厅或者其他指定地点设立专门的算法评论窗口收集公众邮寄的评论信件。
(三) 算法适用:技术性正当程序的嵌入
正当程序不仅具有规范公权力行使的工具性价值,也包含平等、公正、尊严、秩序等现代法治精神在内的独立价值。为因应数字技术对传统正当程序核心价值的冲击与瓦解,国外学者提出了技术性正当程序的概念[34]。技术性正当程序旨在通过优化计算机程序设计,保障算法行政的透明性,从而捍卫被数字技术所威胁的人的尊严价值。在算法行政中,其核心理念为确保算法行政的公正性,避免任何形式的偏见、听取各方意见以及对决策说明理由[35]。随着数字技术大行其道,行政行为方式和行政过程的数字化转型使得技术性正当程序的嵌入变得十分必要。
1.明确行政主体的充分告知义务。在适用数字化、智能化、自动化行政程序时,行政主体应当在作出行政行为前向相对人告知拟作出的行政行为及其依据和理由。自动化系统应生成审计轨迹,以确保相对人可查阅相关信息、允许中立的第三方专家进行审查,并确保救济机制能够覆盖算法决策的全过程。这样,相对人就有途径和能力对自动化系统可能出现的错误判断和处理结果提出质疑。同时,还可以辅助行政机关在向相对人通知决定时提供充分的理由说明,提高系统决策的透明度和可解释性,并促使行政机关及时识别和纠正可能的偏差[36]。
2.构建结构化的人工交涉机制。在技术正当程序的关键环节中,人的介入至关重要,特别是在告知和说明理由之后,听取陈述和进行辩护的阶段更是不可或缺。在这一阶段,行政机关能够对行政行为的依据进行更深入的阐释,并与当事人进行实质性的沟通。而结构化的人工交涉机制可以强化行政人员与算法系统的协同,有助于保障算法行政的程序性公正。为此,有必要针对不同的算法行政场景,建立起依申请介入和依职权介入的二元人工交涉机制。具体而言,一是参考欧盟的《通用数据保护条例》(GDPR),赋予行政相对人请求人工介入的权利。这样不仅能够增强行政相对人对算法系统的信任,还能够为系统提供必要的反馈,以便不断改进和优化;二是明确行政机关依职权审查算法系统的责任。行政机关在将算法嵌入某一行政事项后,必须对算法系统所作决定的合法性与准确性进行抽查,防止因系统错误而出现行政不公的情形。
(四) 算法问责:本土化的算法问责机制
当算法行政引发损害,那么法律问责必然产生。为因应算法行政活动带来的风险,欧美地区早已发布多种算法问责政策[37]。从世界范围来看,算法问责是一种必然趋势,我国也应在借鉴他国经验的基础上,构建起具有中国特色的算法问责模式。
1.明确责任划分,谨防“算法卸责”。在辅助算法决策系统中,公职人员可能通过放弃行使裁量权,避免人为介入的方式卸责。为解决这个问题,一个可行的主要方法是在机器作出决策之后,加强对结果的人工审核。实践中,可以采用“覆盖决策”⑤的方式避免算法系统的出错。例如,在执法过程中,尽管系统已经提出了行政处罚的建议,但执法人员仍需要重新审视案件的全部证据,根据理性和内心良知对证据进行取舍,只有在其得出的结论与系统结论相吻合时,才会予以处罚。在全自动算法决策系统中,由于作出决策的是算法系统,在追究“技术问题”的责任时,行政机构可能会倾向于将责任归咎于提供算法的供应商,而算法开发商可能也会通过各种方式进行卸责。因此,必须明确行政主体与私营部门之间的权责关系,进一步增强供应商在数据安全和网络防护责任方面的要求[38],在探讨企业行为是否可以合理地视为政府行为并要求政府承担相应责任时,可以引入政府行为理论进行判断。
2.完善算法备案制度。算法备案是在我国现行备案制度下发展出来的一种新型备案制度。从《互联网信息服务算法推荐管理规定》来看,我国算法备案制度属于行政备案形态,虽然没有明确将算法备案适用主体限制为企业,但是《境内互联网信息服务算法备案清单(2023年12月)》中的备案主体均为企业,而应用于公共行政的算法同样“具有舆论属性或者社会动员能力”,因此也应当将其纳入算法备案体系。内嵌于公共行政的算法备案审查主要考虑两方面内容:(1)合法性。算法系统在搜集信息时,必须依据法律规定进行,且仅限于法律、行政法规、地方性法规、政府规章、党内法规等规范性文件所明确授权的范围,符合行政的基本程序,同时应恪守“法无授权即禁止”的原则。(2)正当性及合目的性。公共行政利用算法技术必须符合经济性,并且应当符合比例原则。换言之,算法决策系统的应用必须目的正当,应用该算法系统有助于其行政目标的实现,并且对相对人的权益影响最小。对于发现不符合上述两方面内容的算法系统,应当不准许其应用于公共行政,已经应用的应当停止,并且以此追究相关人员的责任。
五、 结 语
随着数字时代的来临,法治政府面临着数字化的革新,数字法治政府建设成为主流,算法正逐渐渗透到公共行政领域的各个方面。如上所述,算法嵌入行政所产生的法治风险并非子虚乌有,但是这并不能否定算法给行政机关工作成效带来的助益。技术的发展是必然的,在社会高速发展的今天,技术不可不用,但不可滥用、不可妄用。法律所起到的作用就在于规范技术,防范算法行政带来的技术风险或人为风险,从而保护公民免受技术的伤害。因此,有必要从算法嵌入行政的各阶段对算法行政进行规约,从而有效因应算法行政的异化,以保护公民的合法权利,促进数字政府与法治政府的深度融合,进一步发挥算法在治理现代化中的正向效能。
注释:
① 如美国阿肯色州公共服务部的自动化决策系统对残障人士造成了严重的影响,但在诉讼过程中,行政机关工作人员和第三方系统开发者均无法说明如何调试不断出错的系统。参见Ryan Calo & Danielle K.Citron,The Automated Administrative State:A Crisis of Legitimacy,70 Emory L.J.797 (2021).
② 随着数字社会的发展,出现了“生物人”与“信息人”并存的局面,人的存在形式以一种新的“数字属性”呈现出来。有学者借此提出“数字人权”的概念,并以上网权、个人数据权、数字身份权、数字完整权等为数字人权的实在内容。参见郑智航的文章《数字人权的理论证成与自主性内涵》,原文载于《华东政法大学学报》2023年第1期第35-47页。
③ 封闭合规型算法影响评估制度在评估启动上呈现事前性和静态性,在评估程序以及评估报告披露呈现高度封闭性;开放反思型算法影响评估制度在评估启动上具有周期性和动态性,评估程序以及评估报告上呈现较高的开放性。参见张恩典的文章《算法影响评估制度的反思与建构》,原文载于《电子政务》杂志2021年第11期第57-68页。
④ 关于算法的法律性质,基本上有言论、商业秘密和正当言论三种观点。参见陈景辉的文章《算法的法律性质:言论、商业秘密还是正当程序?》,原文载于《比较法研究》杂志2020年第2期第120-132页。
⑤ 通常指的是在决策过程中考虑所有相关因素和可能的结果,以确保决策的全面性和有效性,如进行风险评估、相关方案比较以及对利益相关者的分析。
[参考文献]
[1] 马长山.数智治理的法治悖论[J].东方法学,2022(04):63-74.
[2] 章志远.迈向公私合作型行政法[J].法学研究,2019,41(02):137-153.
[3] 胡敏洁.论自动化行政中的瑕疵指令及其救济[J].北京行政学院学报,2021(04):81-88.
[4] 李文林.数学史概论(第2版)[M].北京:高等教育出版社,2002.
[5] (德)尤尔根·哈贝马斯.作为“意识形态”的技术和科学[M].李黎,郭官,译.上海:学林出版社,1999:76.
[6] 张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019,36(04):63-75.
[7] 郑戈.算法的法律与法律的算法[J].中国法律评论,2018(02):66-85.
[8] (日)西森秀稔,大关真之.量子计算机简史[M].姜婧,译.成都:四川人民出版社,2020:66.
[9] 张涛.自动化行政对行政程序的挑战及其制度因应[J].华中科技大学学报(社会科学版),2022,36(05):60-69,89.
[10]沈国琴,齐小力.人工智能嵌入预测警务的法律风险及其预防[J].广西社会科学,2021(5):10-17.
[11]于安.论数字行政法:比较法视角的探讨[J].华东政法大学学报,2022,25(01):6-17.
[12]M.Hildebrand,K.De Vries.Privacy,Due Process and the Computational Turn:The Philosophy of Law Meets the Philosophy of Technology[M].London:Routledge,2013:143-169.
[13]郝志斌.算法行政的风险场景及其法律规制:基于算法法权关系架构的分析[J].山东大学学报(哲学社会科学版),2023(05):157-169.
[14]张欣.算法行政的架构原理、本质特征与法治化路径:兼论《个人信息保护法(草案)》[J].经贸法律评论,2021(01):21-35.
[15]查云飞.算法的行政法属性及其规范[J].法制与社会发展,2023,29(06):168-185.
[16]段哲哲.控制算法官僚:困境与路径[J].电子政务,2021(12):2-16.
[17]刘特,郑跃平,曹梦冰.算法行政:文献述评与研究展望[J].公共行政评论,2024,17(01):84-104,198.
[18]张恩典.人工智能算法决策对行政法治的挑战及制度因应[J].行政法学研究,2020(04):34-45.
[19]刘权.数字政府建设中数字化与法治化的融合[J].当代法学,2023,37(06):15-25.
[20]HAUER T.Society and the second age of machines:algorithms versus ethics[J].Society,2018,55(2):100-106.
[21]张海柱.算法治理中的不确定风险及其应对[J/OL].科学学研究,DOI:10.16192/j.cnki.1003-2053.20240024.003.
[22]王宾.自动化行政中算法的法律控制[J].财经法学,2023(01):61-75.
[23]高童非.论自动化行政中的“算法卸责”[J].电子政务,2023(02):115-128.
[24]赵宏.法治与行政:德国行政法在法治国背景下的展开[J].行政法学研究,2007(02):128-134.
[25](法)孟德斯鸠.论法的精神:上册[M].彭盛,译.北京:当代世界出版社,2008:76.
[26]蒋敏娟,黄璜.数字政府:概念界说、价值蕴含与治理框架:基于西方国家的文献与经验[J].当代世界与社会主义,2020(03):175-182.
[27]Civitarese Matteucci S.The Rise of Technological Administration and the Ragged Route Towards a Digital Administrative Law[DB/OL].Sorace D.,FerraraL.,Piazza I.(eds) The Changing Administrative Law of an EU Member State.Springer,Cham.https://doi.org/10.1007/978-3-030-50780-0_8.
[28][美]阿瑟·奥肯.平等与效率[M].王忠民,黄清,译.成都:四川人民出版社,1988:4.
[29]王婧怡.数字时代算法技术异化的伦理困境与治理路径[J].自然辩证法研究,2023,39(10):128-131.
[30]张永亮,林盛浩,张洁玉.算法权力之规制:算法影响评估制度的生成及展开[J].证券法苑,2022,35(1):227-246.
[31]于一帆.自动化行政中算法的可公开性及其范围[J].行政法学研究,2024(01):159-167.
[32]翟翌,罗实.算法行政的合法性危机与化解方案:基于沟通合法性的视角[J].理论与改革,2023(06):63-77.
[33]张欣.算法影响评估制度的构建机理与中国方案[J].法商研究,2021,38(02):102-115.
[34]Danielle Keats Citron.Technological Due Process[J].Washington University Law Review,2008,85:1249-1259.
[35]刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(05):64-79.
[36]苏宇.数字时代的技术性正当程序:理论检视与制度构建[J].法学研究,2023,45(01):91-107.
[37]张惠彬,王怀宾.算法行政问责的机制与评估:基于欧美40份政策的实施分析[J].中国行政管理,2024(01):89-99.
[38]余凌云.无人驾驶的道交法规范构建[J].荆楚法学,2023(05):94-107.
(责任编辑 文 格)