算法自动化决策与行政正当程序制度的冲突与调和
2021-11-15张凌寒
文/张凌寒
在人工智能时代,自动化决策嵌入政府的行政治理中,撼动了传统行政活动的运行规律和基本范式。算法自动化决策给传统行政正当程序带来了挑战。更重要的是,算法可以提前预测风险,进而调配行政资源,这一活动却完全不受正当程序的控制。以禁飞名单为例,算法根据既往违法人员的特征,预测高风险人群并禁止其登上飞机。换句话说,被禁飞的人并非已经违法而是有违法风险。但是,直到被阻止登上飞机之前,公民并不知晓其被列入名单,也不知晓被列入名单的原因与过程。保证行政活动可信和正当的行政正当程序面临失灵的风险。在算法自动化决策逐步广泛深度嵌入行政活动的背景下,如何坚持、修正和发展正当程序原则是亟待研究的重大议题。
算法治理嵌入行政活动的双重效应
算法自动化决策加强了行政机关对治理对象信息处理分析能力,产生了行政权力的增强效应。同时,算法自动化决策使正当程序控制失灵。此消彼长下,形成了“权力—权利”失衡的格局。
(一)算法嵌入行政治理的行政权力增强效应
算法自动化决策的应用使得行政机关与治理对象的信息不对称得到了极大缓解,有效增强了政府的权力运行的广度、深度和密度。首先,政府收集的信息数量和质量得到了极大提高。海量信息有效助力于行政检查、行政命令等多种行政活动。其次,政府处理、输出信息的能力增强,因此行政执法力度与强度也远强于过去。最后,政府通过算法自动化决策对行政活动大数据进行分析,预测评估行政相对人的风险指标,在违规发生之前进行干预。算法自动化决策成为行政权力实现和有效运行的能源和催化剂,也在此基础上强化了其说服权力行使对象的能力。
(二)算法应用导致的行政正当程序失灵效应
算法自动化决策与行政正当程序的冲突
算法自动化决策的不透明性遮蔽了行政公开原则,算法设计运行的技术垄断架空了公众参与原则,算法决策黑箱无法为相对人提供理由说明,算法自动化决策与行政正当程序产生了严重冲突。
(一)行政正当程序制度的信息工具功能
从信息论角度观察,正当程序制度实际上是一种信息工具,通过在政府与行政相对人之间建立信息沟通机制,缓解行政相对人的信息不对称。正当程序制度的核心内容包含着行政活动前的“信息发送”工具、行政活动中的“信息沟通”工具、行政行为后的“信息纠正”工具。尽管信息不对称无法最终消除,但通过正当程序“发送信息”是法律对行政行为的基本合法性要求。
然而,行政正当程序的信息发送功能由于算法自动化决策阻碍无法实现。无论是反应型算法压缩行政程序各个环节造成行政正当程序的缺省,还是预测型算法直接作为内部决策规避行政正当程序,最终均导致行政相对人无法接收到行政机关通过行政正当程序发送的信息。具体而言,尤其以行政公开原则、公众参与原则与说明理由规则为甚。
(二)算法不透明遮蔽行政公开原则
算法导致的行政公开原则缺失可分为两类原因:不愿公开与公开不能。第一类原因是算法的采购、设计与运行,甚至算法的存在本身,政府基于各种考虑可公开而不愿公开。第二类原因是“算法黑箱”造成的公开不能:数据收集由于公共利益豁免知情同意规则而不透明、算法决策过程由于商业秘密保护而不公开、数据分析结果与决策之间转换不公布。
算法不透明可能由于政府严重的技术依赖形成恶性循环。这进一步导致了某个专门的算法系统长期垄断某行政部门的行政活动技术支持,更加缺乏来自社会公众的监督。因此,调和算法自动化决策与行政信息公开的原则需平衡三方利益:要求企业披露算法的相关信息,又不损害商业秘密和竞争优势,同时还能够确保公众监督。
(三)技术垄断架空公众参与原则
公众参与原则的核心理念是“听取公众意见”:第一,公众应有权利参与行政活动,这体现了正当程序的公共意志形成功能;第二,在具体行政行为中,应充分听取当事人的陈述和申辩。算法自动化决策系统由私营公司“技术垄断”,因此,公众的参与权难以得到保障。
在算法广泛嵌入行政活动的背景下,公众参与原则面临两重障碍。第一,公众参与行政活动面临私营企业技术垄断的障碍。公众没有机会在行政活动中融入自身的价值判断和权利主张,无法实现对行政权力滥用的程序性控制。第二,自动化(半自动)行政行为根据算法设定的规则运行,这一过程由行政机关与技术公司垄断,没有为行政相对人提供陈述与申辩的机会。算法自动化决策既回避了行政决策的公众参与和听证,也消解了具体行政行为层面的当事人陈述和申辩的程序,造成了公众参与原则的缺失。
类型分布分别是感染性职业暴露47例次,其中黏膜暴露4例次(8.16 %),锐器伤43例次(87.76%);化学性职业暴露1例次(2.04%);其他职业暴露1例次(2.04%)。
(四)算法黑箱无法提供理由说明
预测型算法作出行政决策的时点是在行政对象做出行为之前,依据是大数据的相关关系而非因果关系,因此无法提供理由说明,可能违反法律面前人人平等的原则。而且,算法预测准确率无法保证,一旦出错可能造成无法挽回的损失。
算法深度学习与相关可能存在的预测失真问题由于算法自动化决策无法提供理由说明,算法决策缺乏有效的法律程序控制,易于不断自我肯定与强化,造成行政行为持续性错误与相对人权利受损。
基于行政信息公开原则增强算法自动化决策透明度
(一)算法嵌入行政活动背景下行政信息公开原则的回归
首先,应增强算法自动化决策的可见性,并将其作为行政信息公开的基本要求。政府应公布政府部门自动化决策清单,让公众知晓哪些行政活动有自动化决策的参与,了解算法自动化决策可能带来的权利影响。
其次,算法作出决策的基本规则和因素权重,应该对公众与社会公开。各类智能机器、评估模型等自动化设备的设置及启用以及运作方式,都由行政机关发出指示,行政机关仍是行政程序的主宰,所作出的表示或决定,都是行政机关的行为,具有法效意思及规制效力,性质上仍为具体行政行为。形式的改变并不能豁免政府信息公开的义务。
以上是行政信息公开原则对算法自动化决策应用于行政活动的基本要求。除此之外,行政信息公开原则面临着算法黑箱的挑战,需作出相应的调整。
(二)行政信息公开原则在算法数据收集环节的贯彻
首先,行政机关收集数据同样受到“合法、正当、必要”原则的限制,应在行政活动中逐渐将此类规则细化。以新冠疫情防控为例,无论是健康码对个人敏感数据的大规模收集与使用,还是大数据对公民的追踪定位,包括社区出入居民的信息登记,均应有公共卫生紧急状态作为正当性基础。在由紧急状态恢复为日常状态之后,即使疫情状态防控常态化,也应避免对公民个人数据的收集与追踪常态化。
其次,尽管基于公共利益考虑无法要求政府再次获得数据个体的知情同意,但起码应在平台向个体收集数据时,作出“不利行为”通知。例如,应提示行政相对人,自动化决策结果参考了个人的公开信息、犯罪记录、信息记录,甚至可能是社交媒体使用情况。
此外,法律应及时划定政府获取第三方平台数据的边界,防止政府以公共利益为名无限度获取平台通过知情同意收集的用户数据,并规定政府做好相关的数据安全保障工作。
(三)行政信息公开原则与保护算法商业秘密的衡平
坚持行政公开原则,必须衡平商业秘密保护与公民正当权利之间的价值位阶。一套算法系统可对多个行政相对人产生法律效力,一旦发生错误可能产生弥散化的损害后果。而具备正当性的规则应具有可预测性,这种对规则的知情权既是一种人权,也是可依据我国宪法推导出的公民权利。相对于私营公司的商业秘密保护,显然价值位阶更高。
算法自动化决策系统信息公开的不足会导致民众对政府公权力信任的不足,民众信任的缺失可能导致更多的上诉,抵消掉算法系统带来的行政效率提高效应。因此,未来在政府内部增加专业力量,由既懂行政规则又懂技术的人员来监督算法设计运行,方为解决之道。
(四)行政信息公开与算法决策输出的说明
行政信息公开应包括该行政决策结果在何种程度参考了算法自动化决策结果的信息。对于某个具体的行政行为,算法自动化决策可能起到不同程度的作用:直接成为生效的行政行为或需要进行进一步人工审核。在此意义上,算法自动化决策对具体行政行为的干预程度和行政决策的可逆性应向行政相对人公开。考虑到行政权力有着诸多不可让渡的空间,并且涉及国家等基本概念的存系,应尽量减少算法直接作出行政决定的情况。
同时,应尤其注意算法自动化决策结果对技术弱势群体的说明方式。应在信息公开环节同样照顾老人、受教育程度较低人群等技术弱势群体,以简明(例如图画)方式对公众说明算法自动化决策。
基于公众参与原则进行算法影响评估
行政正当程序中的公众参与原则具有重要的实体权利保障功能,应从加强公众参与与恢复相对人陈述和申辩权利两个方面,发展算法治理时代的行政正当程序。
(一)以算法影响评估保证公众参与算法系统订购与使用
算法影响评估是既有行政制度资源的发展,可参考环境影响评估等类似的相关制度。政府使用算法自动化决策前,行政相对人、研究人员和决策者共同参与影响评估。这为公众提供了算法系统部署前发现问题、表达诉求主张,甚至反对使用算法的机会。这一过程本身就是向社会提供算法系统信息的机制,能够让公众更加了解情况、增加算法透明度,并让政府部门、算法研发人员和公众进行富有成效的对话。
算法自动化决策的评估程序,不仅是公众参与的有效路径,也是算法设计者和使用者(平台或政府)进行自我监管的重要方式。例如,我国中央网信办要求算法应用进行自我安全评估。举轻以明重,由政府部门购买使用的算法自动化决策,应在投入使用并切实影响公民权利之前,经过公众参与的算法评估程序。
(二)将通知与申辩环节作为算法决策生效的必经程序
首先,应避免全自动行政行为直接对当事人发生法律效力,保证行政相对人可以收到算法自动化决策的有效通知,并将其作为行政行为生效的必经程序。当算法作出了不利于当事人的决定时,按照正当程序应该提供有效通知。算法自动化决策应以对相对人的及时通知作为后续行政活动展开的基础,公民可以主张相关内容的更改、撤销或者无效,方可为公民提供后续的救济路径。
其次,应保证当事人有陈述和申辩的权利,确保公民获得人工干预算法自动化决策的权利。算法自动化决策做出具体行政行为的情况下,具体个案的听证成本极高,并不符合成本—收益分析法。欧盟《通用数据保护条例》(GDPR)第22条为类似境遇的相对人提供了出路:相对人具有不受完全的自动化决策支配的权利,以及获得人为干预的权利。该条款的目的旨在保护数据主体的利益,保障数据主体可以参与对其重要的决策。
基于说明理由规则创设算法解释权
由于数据来源的不透明、算法黑箱等因素,算法自动化决策的过程难以为个体所知晓。算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度。
(一)发展算法解释权说明具体行政行为的理由
各国的立法者与学界已达成共识,自动化决策的算法应当具备可解释性,使得用户有权知晓决策的原因。
如果将算法自动化决策看作是专家论证,行政决策的科学性也必然要求建立行政决策专家咨询的说明理由制度。算法自动化决策经常以“专家决策辅助系统”的形式参与行政决策,行政部门应以其理性解释回应公众疑问,这既是对行政决策理性内涵的解释,也是对公众的一种负责任的回应。无法提供理由说明的专家意见直接影响行政决策的效力。在司法实践中,以专家咨询结论说理不充分为由否定行政决策的个案并不鲜见。
算法解释权已经从理论逐步发展为各国的具体制度。法国2016年颁布实施的《数字共和国法》规定了较为具体的针对公共部门的算法解释权。加拿大公共部门算法的自动化决策指令在2020年4月生效,要求使用算法决策的公共部门应就其决策,甚至包括决策中使用的变量,向受影响的个人提供有意义的解释。可见,向行政相对人个体提供具体的算法解释具有不可替代的制度价值,并逐渐成为各国实践。算法影响评估制度并不能代替算法解释权制度,因为其旨在规避事前风险,而非进行事后的个体救济。
(二)行政行为算法解释的内容和标准
理由说明不仅要使相对人知晓决定是如何作出的,同时还应提供相对人可修正自动化决策的方法。具体的自动化决策算法解释的理由说明包括:具体决策的理由和原因,以及产生决策结果的个人数据。
政府部门提供的算法解释应遵循以下标准:第一,自动化决策的算法解释应由监管部门统一提供格式解释文本,保证算法设计者和使用者提供的解释客体完整且无遗漏;第二,政府应作出具体行政行为的理由说明,如不能提供理由则应视为没有理由,这可能直接导致政府算法自动化决策的行为失效;第三,解释语言清晰平实,应遵循具体行政行为说明理由的要求,或以书面形式作出,或在做出行政行为时必须说明,方便为日后行政诉讼与算法问责留存证据。
结语
在算法治理时代,亟须遵循行政正当程序的制度精神以改变对算法“技术中立”的错误认识,避免“算法监狱”与“算法暴政”的产生。算法治理时代,坚持、修正与发展正当程序的具体制度,是政府负责任地应用算法自动化决策的基本要求。