算法行政的程序保障困境及完善
2023-03-12刘嘉诚
刘嘉诚
(湖南师范大学,湖南 长沙 410081)
引言
随着人脸识别、自动驾驶、机器学习等算法技术与应用逐渐进入人们的视野,无论接受与否,人类社会都已步入算法时代。从技术上看,算法是对人脑的一种模拟,通过对已有信息的数字化处理形成数据模型及范式,从而更好地对往后的信息进行分析、加工及修正①参见王静、王轩等:《算法:人工智能在想什么》,国家行政管理出版社2021 年版,第8 页。。基于算法技术带来的高效及便利,其以技术理性的形式嵌入公共行政的过程当中,并形成了“自动收集、自动分析、自动决策”的算法行政体系②参见翟月荧:《算法行政的兴起、风险及其防控》,载《新视野》2022 年第3 期,第81-85 页。。算法给行政活动带来了不少便利,其强大的数据收集及分析能力能显著性地提高行政效率,减少行政负担。与传统行政活动相比,算法行政可凭借自身计算能力的优势将碎片化的公共资源进行重组,进而提高治理效能。然而,科技是把双刃剑,算法行政对行政法治带来的挑战也不容忽视。数据泄露、算法“黑箱”及算法歧视等问题无不给行政活动带来负面影响。这是因为“算法在行政规制中的实质性运用,并不能必然表明其在理论和规范层面的合法性”③王贵:《算法行政的兴起、挑战及法治化调适》,载《电子政务》2021 年第7 期,第2-14 页。。值得注意的是,算法行政的背景下,传统行政程序已然受到严重冲击。算法的不透明性与专业性、算法歧视及算法的封闭性都对传统行政程序的基本原则提出挑战。如何应对算法技术给行政正当程序带来的挑战,有效地保障行政相对人的程序权利是算法时代不可忽视的法治问题。
一、算法给行政活动带来的变化
随着算法对行政活动的不断深入,政府公共行政逐渐走向数字时代。部分传统行政方式被算法自动化或半自动化行政所替代,行政效率得到明显增强。从当前的数字政府建设实践来看,算法技术对行政活动带来多方面的改变。
(一)从固定场所办公到虚拟化作业
算法技术的革新将传统的行政活动从物理空间拓展至线上领域。以往行政活动受时空限制,工作人员“坐堂办事”,当事人需要去指定地点才能享受政务服务。“互联网+政务服务”带来“最多跑一次”“一网通办”“一网统管”“一网协同”等创新手段。《中华人民共和国行政许可法》专门规定行政机关应当建立和完善有关制度,方便申请人采取数据电文等方式提出行政许可申请。可见,行政算法化更新了以往传统的书面形式。其中,较为典型的示例是电子政务服务平台的出现,这使得当事人在行政许可领域可网上办理,“零跑堂”成为现实。以湖南为例,政务服务“新湘事成”APP 的上线实现46 个省直厅局1600 项行政审批事项“掌上办”,当事人仅需上传申请材料至APP,相关责任部门便可实现相应材料对接,各自审批,汇总后平台再反馈至当事人,这极大地简化了当事人的办事流程,提高了行政效率。
行政活动从线下向线上的转变得益于算法技术支持下实现的数字共享局面。在技术方面,算法数字技术打破政府部门之间的信息壁垒,各部门实现数据互通,交流共享,使政府跨部门交流协作成为可能。在行政组织层面,大数据强化了整体政府理念,推进行政组织内部优化升级,破除了科层制系统运行碎片化、分散化的桎梏。目前,我国已设立国家数据局,其由国家发改委管理,承担统筹数据资源整合和开发利用的功能,将进一步强化数字法治政府的功能作用。
(二)从现场执法到非现场执法
算法时代行政效率和执法技术产生了新的标准,从而出现非现场执法。电子监控技术的发展使得行政机关在不接触相对人的情况下,可通过电子监控系统收集原始样本,并通过算法自动转化成相应的数值固定成电子证据,行政机关再基于此作出行政决定。早在1996 年,我国第一套“抢红灯自动拍摄器”在北京市试验成功,我国交通执法领域就已开始进行监控系统的运用探索,随着信息化技术的发展,新型科技更是给非现场监管执法领域注入了新的活力。GPS、人脸识别及无人机航拍等技术的出现,非现场执法已从交通管理逐渐拓展至海事、市场监管、生态环境保护等其他领域,相应的规范性文件也逐渐出台。此外,2021 年修正的《中华人民共和国行政处罚法》还专门规定电子技术监控设备执法的相关标准。
非现场执法能够辅助或者独立进行行政执法活动,极大地弥补了执法上的人力不足。从执法自动化水平上看,完整的非现场执法可以分为两个阶段:一是监控技术设备记录取证,二是以记录的信息为证据进行处罚④参见杨曦:《利用自动监控进行非现场执法的进路及规范构建——基于事实认定的视角》,载《行政法学研究》2022 年第6 期,第86-96 页。。第一阶段主要由监控技术设备发挥作用,通过算法自动化系统对现场情况进行识别,从而完成调查取证。第二阶段则需要进行人机互动,行政机关依据通过技术监控系统收集的数据而作出行政决定或者由算法直接作出行政决定。在交通执法领域,自助处理平台经过算法处理后往往直接作出行政处罚决定。但由于其算法逻辑的关联性与法律逻辑的因果性不相契合,故而难以获得学理上的支持。就多数非现场执法而言,通常由行政机关完成分析与决定环节。故此,非现场执法中电子技术监控设备的运用仅发挥着辅助作用,行政机关及其工作人员仍然占据主导地位⑤参见李晓菲、张闯:《论非现场执法中的行政相对人程序性权利保障》,载《长春理工大学学报(社会科学版)》2023 年第1 期,第47-51 页。。随着算法技术的不断进步,未来行政活动中自动化程度将会不断提高,但仍不可忽视人工在行政活动当中的作用。
(三)从人工裁量到算法决策
数字技术的飞速发展将国家工作人员从大量繁杂的行政任务中解放出来。对于过去需投入大量人力才能完成的机械性作业,如今行政机关借助算法技术就能够完成,甚至在某些领域运用算法决策完全替代人工裁量,几乎实现完全意义上的算法行政。例如,美国阿肯色州卫生部门就利用算法系统的自主分析来完成医疗资源的分配。有国家已经以立法的形式确定了在行政活动中运用算法决策的行为。如德国《联邦行政程序法》在2017 年修改时规定了完全自动化行为。算法决策给行政活动带来了许多便利,但需要注意的是,算法运作可在无人工干预下做出决策,即便是算法辅助决策,决策者往往也对算法的技术理性存在较高的依赖性。若算法的运用在权利分配的过程当中起到了决定作用,则此时的算法已成为某种意义上的权力主体⑥参见雷刚:《数字政府时代的算法行政:形成逻辑、内涵要义及实践理路》,载《 电子政务》2023 年第8 期,第73-89 页。。
“在技术自主的维度下,以工具性、自主性和主体性作为判断标准,可以将算法行政划分为算法辅助行政、半自动化算法行政和全自动化算法行政,随之对应的‘人机关系’也是有差异的。”⑦参见前注⑥,雷刚文,第73-89 页。算法辅助行政为一种“去人格化”的存在,其运作方式如传送带一般将原始材料通过算法转码处理后再交由人工决断。就其运用而言,可对算法逻辑进行预设,使其抓取特定人群的特定种类信息,并进一步推导出该类特定人员的心理意愿,从而给行政决策提供有价值的参考信息⑧杜昕怡、肖泽晟:《人工智能算法辅助行政决策的法治风险及其化解路径》,载《学习论坛》2023 年第3 期,第122-130 页。。半自动化的算法行政则出现一种“人机共治”的情形。此时的算法运行不再是人工决策的替代运行,而是起到建议、提示及预测作用的专家。“随着技术的不断发展和迭代,我们可以预期机器学习算法将用于政府部门做出更多的定性评估、建议和指导,甚至可能是评估性行政决定。”⑨张涛:《自动化行政对行政程序的挑战及其制度因应》,载《华中科技大学学报(社会科学版)》2022 年第5 期,第60-69+89 页。全自动化算法行政即为技术理性占据主导地位的行政活动方式,此时需特别注意算法的运作逻辑,以防止“算法官僚”现象的出现,从而造成算法歧视等不公正的社会问题。
二、算法行政对行政正当程序的冲击
“权力行使高效化,权利保障却边缘化。”⑩周文清:《过程论视野下自动化行政行为的司法审查——以道路交通非现场执法时空情境分析为视角》,载《行政法学研究》第2022 第1 期,第105-118 页。数字技术的持续更新换代使得算法行政广泛应用于行政活动之中,行政方式出现变革式的转变,但与此同时,算法裁量代替人工决策却无法完全掌握复杂的人类社会的语言。发挥到极致的技术理性固然能够羁束行政权力的任意性,但却无法匹配传统行政活动的沟通理性,随之而来的便是算法行政与传统行政程序的不兼容。
(一)算法的不透明性及专业性冲击行政公开原则
行政公开是为成就公民对行政事务的知情权和参与权而对行政机关施加的义务。行政公开原则要求行政权力的运行逻辑、行使过程及结果向公众公开,并能够使公众理解。然而,在算法行政的背景下,算法成为行政权力运行的主体,算法的运行逻辑通常不会被公开,即便是公开,由于算法的专业性,一般人几乎不可能理解算法的运行逻辑,就更谈不上像在传统行政活动中一样行使自己的程序性权利。
算法的不透明性基于其具有商业秘密的属性,且可能涉及对个人隐私的侵犯。算法行政的关键技术前提是符合预期目的的算法系统。然而,当前仅凭行政机关自身的专业技术和能力还远远无法满足所有行政领域的自动化活动。因此,目前的算法开发及部署主要还是通过公私合作的方式来实现的⑪参见王怀勇、邓若翰:《算法行政:现实挑战与法律应对》,载《行政法学研究》2022 年第4 期,第104-118 页。。2022 年,在智搜公司诉光速蜗牛公司等侵犯商业秘密纠纷案中,深圳市中级人民法院将模型选择优化形成的核心算法认定为商业秘密予以保护。该案作为我国首例将算法认定成商业秘密予以保护的案例,进一步明确了算法的商业秘密属性。对于企业来说,算法具有重要的商业价值,若将其运行逻辑及基本架构公开,使其暴露在竞争对手的视线之中,则极其不利。因此,作为企业方没有理由公开其制定的算法,而陷于技术困境的行政机关即便想公开算法,又不得不考虑对合作企业方商业秘密的保护。此外,公开算法可能涉及公民知情权和隐私权之间的博弈。算法的运作需要大量的数据输入,其模型架构中可能包含大量的公民的个人信息。也就是说,将算法公开或造成公民个人信息的集体披露,而公民的信息群又构成一种公共利益,行政机关将陷入两种公共利益之间取舍的困境,使其不得不更加审慎地考虑。
算法的专业性导致即便算法得以公开,行政相对人的知情权仍得不到落实。算法的技术构造包括输入端、技术程序层及输出端。整体而言,算法运行过程涉及大量的数据信息及精密的分析方法,并且以计算机语言的形式呈现。因此,对于大多数人来说算法行政就是难以理解的技术“黑箱”。尽管早在2017 年《新一代人工智能发展规划》中指出要“实现对人工智能算法设计等程序的全流程监管”,但对于受数字素养限制而被排除在算法“黑箱”之外的普通民众而言也仅是泛泛而谈。“算法黑箱的存在使得算法漏洞、算法缺陷得以隐藏,一旦算法在数据、模型、方法等方面出现问题,算法应用结果将会与应用目标相悖。”⑫谭九生、范晓韵:《算法“黑箱”的成因、风险及其治理》,载《湖南科技大学学报(社会科学版)》2020 年第6 期,第92-99 页。因此,在算法所营造的隐秘空间内,相对人缺乏算法的知识谱系,逐渐丧失原有的知情权所要求的心理能力,也就难以判断行政主体是否仍在遵循普遍已知的和通常理解的行政权力行使规范⑬参见程关松、苗运卫:《相对人参与算法行政的困境与出路》,载《东南法学》2021 年第2 期,第43-57 页。。
(二)算法歧视撼动行政公正原则
行政公正要求行政机关在行政权力行使的全过程中平等对待每一个相对人,不论其身份、民族、性别和宗教等。行政公正原则的逻辑起点在于行政机关在行使公权力时享有自由裁量权,但该自由裁量权要受到正义与道德伦理的限制。算法时代的到来,使得部分自由裁量权转交由算法行使。算法行政的预设目的是提升行政效率,运用非情感导向的数字处理技术来减轻过多的行政负担。因此,技术中立的算法被认为在行政决策中是比行政人员更为公正的存在。然而,实践却证明即使是没有感情的算法,同样也存在歧视与偏见。例如,脸书(Facebook)的广告管理系统(Ads Manager)倾向性地向某种特定性别或特定种族群体投放特定的广告。
算法歧视的产生有多重原因。一是算法设计者本身的偏见。算法的数据处理逻辑归根结底由人输入。因此,在算法设计者设计算法时就存在将其本身的偏见植入算法当中。带有偏见的算法用歧视的角度处理行政过程,那么行政结果往往也难以得到保障。但又由于算法的技术隐秘性,此种算法歧视又难以发现。二是数据偏差。行政决策的作出需要适量的数据“喂养”。基于机器学习系统,在接收大量数据之后会形成对特定事件处理的特定模式。如此一来,未被数据采样的部分可能会被无差别地适用到既有的特定模式当中,成为被歧视的对象。当前的算法缺少严格的数据过滤及筛选的功能,歧视性的数据信息往往无法被提前识别或抹除,反而进一步出现在多种交互性场合,这将导致更加严重的算法歧视问题⑭参见朱宝丽:《数据正义、算法歧视与规制》,载《征信》2023 年第3 期,第8-12 页。。三是算法学习产生的偏见。对于机器自主学习的算法,其深度有时设计者自身都无法预估。算法具有技术中立性,而人类社会却充满着傲慢与偏见。如果不对机器学习过程加以严格的监控和把关,其发展到何种程度是难以预估的。据法国BFMTV 报道,ChatGPT 被人类“挑战权威”时,不仅会生气,甚至会出言侮辱用户⑮参见《ChatGPT“学坏了?“虚拟朋友”发飙骂人、还性骚扰!欧盟即将立法监管》,载网易网,https://www.163.com/dy/article/HTSQN1360514BTOD.html,2023 年6 月27 日访问。。
任何技术都无法保证自身的绝对稳定,算法基于其本身的技术缺陷导致其无法在所有行政决策中都做到公正对待。算法歧视必然造成个案的不公,每一个具体个案的不公通过叠加会导致群体的不公,亦会增加社会的不稳定因素⑯参见崔冬、杨兆圆:《自动化行政对行政正当程序的挑战与对策》,载《宝鸡文理学院学报(社会科学版)》2023年第2 期,第43-49 页。。故此,算法歧视对行政公正造成的动摇问题亟待解决。
(三)算法的封闭性动摇行政参与原则
行政参与原则是民主原则在行政法中的体现,旨在行政相对人能在行政决策中施加影响力,对行政行为进行监督,对于不正当的后果予以纠正。随着民主思想深入人心及行政观念的转变,政府的职能与地位发生转变,政府不再仅是管理者,而且还是服务者。行政权力的强制属性慢慢地被合作治理理念所柔性化。而在行政权行使中贯彻合作要素的关键便是切实地保障行政相对人的行政参与权。行政参与的关键要素是政府与相对人的双向互动。相对人“合理期待”的实现需通过参与行政过程, 行政决策中相对人参与权的行使是一个利益整合与协调过程, 而这个过程必然是在行政机关和相对人的良性互动中实现的⑰参见王学辉、王亚栋:《行政法治中实质性公众参与的界定与构建》,载《法治研究》2019 年第2 期,第50-59 页。。行政相对人在行政过程中提出陈述、进行辩论是行政机关和相对人实现良性互动最为重要的方式。行政相对人在行政机关作出行政决策(尤其是对自身不利的行政决策)中表达意见,形成约束行政权力滥用可能性的外在力量,从而提升行政决策的透明度、公正性和接受度⑱参见前注⑬,程关松、苗运卫文,第43-57 页。。
在传统的行政活动当中,行政机关在作出行政决策前应当听取行政相对人的意见,通常是行政机关的工作人员与行政相对人之间的当面交谈或是书面形式进行。而基于算法决策的自动化行政方式,由于其机械计算的瞬时性,行政过程通常是输入数据——分析数据——输出结果的无缝衔接闭环,导致相对人无法在行政决策中发表意见。此外,行政机关在传统行政过程中的说明理由义务往往也会因算法不具备可解释性而大打折扣。因此,在行政决策中,算法总是掌握着话语主导权,相对人的参与权存在被架空的风险。尽管算法加持的自动化行政方式在诸多方面给行政机关及相对人带来便捷,但人类情感的复杂性注定使人机互动在某些方面无法替代人与人之间的互动。
三、算法行政的程序保障完善路径
在便利与风险并存的算法时代,必须时刻关注着公民的权利在时代洪流中是否得到彰显。算法行政对行政正当程序原则带来的冲击伴随着的是行政相对人程序权利的缺失。因此,为完善算法行政的程序保障,弥补行政相对人程序权利的缺失,有必要通过增强算法行政透明程度,限制算法行政裁量空间及开放算法行政全过程以改进算法行政的程序路径。
(一)增强算法行政透明程度落实行政公开
1.构建算法披露机制增强算法的透明度。算法披露机制是指行政机关将算法的逻辑结构以自然语言的形式进行有意义的披露,使行政相对人知晓算法在行政活动中进行决策的依据,以增强算法透明度的机制。透明化的行政活动是公民参与合作治理的前提与基础。将算法进行有意义的披露可以达到行政公开原则的要求,使相对人的知情权得到保障。有意义的算法披露不是简单地将代码与数据公开,而是要达到相对人知悉的程度,因此算法披露需达到一定的技术性标准。2021 年9 月29 日,国家网信办等九部委联合制定的《关于加强互联网信息服务算法综合治理的指导意见》中强调了算法自动化决策的披露要求,要求引导算法应用公平公正,透明可释,但文件当中大多是原则性的要求。因此,目前我国的算法披露机制仍缺乏具体可操作性的规定。对此,应尽快明确算法披露的标准化技术规定。“算法具体透明要求在算法‘透明可释’原则基础上,对算法的运行逻辑、运行结果、算法参数和影响因子等予以公开。”⑲靳雨露:《算法披露的域外经验与启示》,载《情报杂志》2022 年第7 期,第91-99 页。对于算法行政而言,算法披露的内容至少应当包括算法的法律授权、技术规范、预期目标、适用范围、对行政相对人及利害关系人可能造成的不利后果及算法合理性评估过程等。
2.构建算法解释机制增强算法的可释义性。《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第48 条规定:“个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。”这是个人信息保护领域为了确保公民能够理解个人信息处理规则所设定的应对措施。因为即便在规则公开的情况下(即便已转化为自然语言),公民也有可能不能准确地把握其含义,这时就需要对规则进行解释说明。因此,只要有专业性的算法处理存在的领域,就存在即使公开规则却仍然无法理解的情况,而在算法行政领域,亦是如此。在传统行政中,行政机关对行政相对人作出不利决定时,行政相对人通常可要求行政机关作出解释。因此,可借鉴《个人信息保护法》第48条的规定,在算法行政中引入算法解释机制,以确保算法公开能落到实处。算法解释机制遵循着以权利制约权力的逻辑,是矫正信息不对称,促进平等、正义价值实现的工具⑳参见何新新:《算法解释权的证成与限定》,载《大连理工大学学报(社会科学版)》2023 年第3 期,第65-73 页。。算法解释机制主要包括解释主体、解释内容及解释标准三个方面。在解释主体方面,鉴于行政机关的算法技术支持通常来源于第三方企业,因此算法解释主体应包括行政主体及算法开发主体,如此一来,可预防算法开发主体只管开发、逃逸责任的情况。在解释内容方面,结合前述算法披露的内容,算法开发主体应对数据的收集和使用、算法设计的基本原理、算法程序运行目的、原理以及算法标准等技术规范作出解释,而行政机关则对算法决策的法律依据进行解释,以求消除算法规则的歧义,增强相对人的可接受性。在解释标准方面,欧盟《一般数据保护条例》中提出的“向数据主体提供与算法逻辑相关的有意义信息”㉑胡嘉妮、葛明瑜译:欧盟《一般数据保护条例》,载《互联网金融法律评论》2017 年第1 期,第28-120 页。可为算法解释机制提供借鉴。行政相对人对算法决策规则提出解释要求时,通常是在算法行政可能侵害其合法权益的情况。基于此,“有意义的信息”至少是与行政相对人合法权益相关的。除此之外,还要保证算法解释的可理解性与可接受性。
(二)限制算法行政裁量空间保障行政公正
1.确保算法裁量正当保障整体公正。根据算法决策系统的自动化程度的不同,可将其分为基于规则的专家系统与基于机器学习的算法系统㉒See Monika Zalnieriute, lyria Bennett Moses & George Williams, The Rule of Law and Automation of Government Decisionmaking, The modern law review, Vol.3, p.425-455(2019).。基于规则的专家系统将数据输入预先设定的规则并得出结果,其基本的逻辑形式是“如果—那么”逻辑。例如乐山市城管局自助开发的“智能评判系统”对违法行为26 个裁量基准因素和减轻从轻处罚11 个判别因素进行识别、统计、叠加,最终得出违法程度和处罚阶次㉓参见《首创!市城管局建设行政处罚裁量智能评判系统上线!》,载乐山市人民政府网,https://www.leshan.gov.cn/lsswszf/bmdtthr/202304/23238315c0774f14b1f4e098a7fbf64e.shtml,2023 年6 月27 日访问。。为排除基于规则的专家系统的算法歧视,保障行政公正,应当对预设规则——即行政裁量基准进行规制。首先,要评估裁量基准的合理性,审查其规范逻辑是否存在偏见的前提。其次,要尽可能地将裁量基准细化,以追求结果一致性,保证同案同判。基于机器学习的算法系统并不是人工预先输入的固定程序及范式,而是对海量数据的发掘再据此作出决断。基于机器学习的算法系统“不仅可以完成效果裁量,尚可以不断完善、充实裁量规则,寻求最优的裁量结果”㉔王正鑫:《机器何以裁量:行政处罚裁量自动化及其风险控制》,载《行政法学研究》2022 年第2 期,第166-176 页。。能够不断自我更新完善是基于机器学习的算法系统的优势所在,但同时也会因决策能力的发展而导致决策结果冲出正当边界。对此,应当引入对基于机器学习的算法系统的专家审查机制,深入持续跟踪算法系统,及时发现其缺陷并进行修正。
2.健全人工干预机制保障个案公正。行使行政裁量权时,需在事实与规范之间不断地审视,结合个人的特殊情况进行衡平,而算法决策实难做到这点。无论是基于规则的专家系统还是基于机器学习的算法系统,因其关注点是既定的规则或过去的数据,故审视“未来的”案件时很可能带入先验的偏见导致无法保障个案公正。换言之,在算法自动化裁量过程中,算法无法在无数个差异的个案当中灵活变通,也难以总结出新的经验保障下一个个案的公正解决。因此,“需要建立系统裁量偏差的预警识别机制以及特定情形下的人工介入机制”㉕杜昕怡、肖泽晟:《人工智能算法辅助行政决策的法治风险及其化解路径》,载《学习论坛》2023 年第3 期,第122-130 页。。首先,要塑造服务行政的理念。在我国算法行政运行的过程中人工干预机制之所以长期缺位,与对待算法行政的理念存有偏差不无关系㉖施立栋:《自动化行政中的人工干预机制:以公安领域为例》,载《中国社会科学院大学学报》2022 年第6 期,第83-99+165 页。。若不塑造服务行政的理念,算法行政的技术理性只会侵蚀行政公开,仅仅将行政相对人当作“流水线”上的处理对象对待。其次,要开发切实可行的系统裁量偏差预警识别技术。例如,可建立类案偏差预警机制。当算法行政对个案作出严重偏离类案结果一致性的裁断时,则可提示人工介入。最后,要赋予行政机关主动介入人工干预算法决策的权限。使算法裁量发生偏差时,行政机关工作人员享有介入、撤回及修正的权限,视具体情况进行灵活处理。
(三)开放算法行政全过程确保行政参与
公众参与是民主政治中不可或缺的范畴。在任一行政法治政府作出重大决策之前,都将通过充分的公众参与以保证潜在的利益相关团体的发言权,从而使其作出的行政决策更具科学性及有效性。算法行政实质上也是权力裁量的过程。基于算法技术的不断更迭导致其将扩充至更多重要的公共行政领域,有必要在算法行政全过程中确保公众的行政参与。
1.在算法行政启动阶段引入公众参与。算法行政启动的物质前提是具有能够承载算法的自动化设备。自动化设备不同于政府机关采购的其他商品或服务,它将颠覆式地变更政府行政活动的方式,以代替人工的形式跨越内部直接影响到行政相对人的合法权益㉗参见关保英、汪骏良:《行政处罚中自动化方式适用的程序控制构建》,载《青海社会科学》2021 年第6 期,第150-159 页。。除此之外,若自动化设备投入后,出现算法运算错误对行政相对人权益造成减损的情况,基于其计算过程的瞬时性,行政相对人将难以参与其中。故此,有必要在算法自动化设备采购环节中引入公众参与机制。具体而言,可要求行政机关在设备选择环节公开自动化设备的参数、性能特点以及可能对行政相对人权益造成的正面或负面的影响等因素,公众可针对行政机关公开的内容进行问询和质疑,行政机关应当对此作出答复。
2.在算法行政运行阶段引入公众参与。欲破解算法代替人工作出行政决定具有瞬时性导致行政相对人难以参与行政过程的困境,就要特别注重行政相对人对行政过程参与权的保障。第一,为避免算法自动化行政行为直接作用于行政相对人的权利义务,应确保算法决策的有效告知。有效告知的标准应包括告知内容全面、告知时限及时和告知方式合理等。首先,告知内容全面要求告知的内容不仅包括行政决定事实认定与法律依据,还应包括作出行政决定的算法逻辑。如此一来,不仅可以确保行政相对人在行政决定中的具体程序权利,还可强化其对算法决策本身的抽象性监督。其次,告知时限及时要求算法在行政决定特别是损益性行政决定生效前要切实地通知行政相对人,允许行政相对人与算法权力主体商榷,否则行政相对人的后续参与就无法发挥实质作用。最后,告知方式合理要求采用能够切实送达行政相对人的告知方式。行政机关应考虑不同行政相对人的数字素养,采用电子送达形式时要预先取得同意,且采取告知之后确保行政相对人已收悉的措施。第二,要保障行政相对人陈述与申辩的权利。当前的人工智能技术尽管能够做到与人类进行对话交流的程度,但其终究没有人类的情感,无法考虑到个案中的衡平因素。故此,欲保障行政相对人的陈述与申辩的权利,双向交流论证环节仍需回归传统行政的方式。对此,可设置人工客服,以此保证行政机关与相对人的有效交流。
3.在算法行政反思阶段引入公众参与。“如果说算法透明度和可解释性的要求是以过程控制结果的机制设计的话,那么算法影响评估机制则是典型的‘过程+结果’ 控制型制度工具”㉘郭春镇、勇琪:《算法的程序正义》,载《中国政法大学学报》2023 第1 期,第164-180 页。。算法影响评估机制在结果上对算法行政运作过程进行风险把控,并以此作为改进的前提,是算法行政最后环节中的重要反思机制。而社会公众作为算法自动化行政的最终承受者,来自他们的反馈信息是算法优化与改进的重要依据㉙张红春、宋洪:《从排斥到包容公众:参与式政府算法治理的逻辑与进路》,载《贵州大学学报(社会科学版)》2023 年第2 期,第33-44 页。。首先,可通过公众调查的形式吸收公众意见。数字化背景下的公众调查可采取线上问卷、线上留言以及意见征集等多种方式,其既具有较低的实施成本与公众参与成本,又可广泛收集公众意见。基于公众调查的随机性与广泛性,行政机关可接收到较为全面的算法行政的反馈信息。其次,可通过听证的形式加强政民双向交流。听证是较为高效的双向交流形式。可有针对性地邀请算法行政利益相关团体参与听证,长期与某一领域算法行政打交道的群体往往能提出建设性的改进意见。