APP下载

论自动化行政过程的公众参与

2023-02-08姜懿容

湖北警官学院学报 2023年6期
关键词:机关决策公众

姜懿容,苏 宇

(中国人民公安大学,北京 100038)

一、问题的提出

2017 年,国务院发布的《新一代人工智能发展规划》(国发〔2017〕35 号,以下简称《规划》),将“推进社会治理智能化”作为重点任务,提出要开发适于政府服务与决策的人工智能平台。《规划》的出台标志着人工智能已成为我国发展的战略支撑,如何将人工智能融入法治政府建设是党和国家决策者面临的重大课题。国务院办公厅于2018 年印发了《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》(国办发〔2018〕118 号),强调全面推进行政执法信息化建设,积极推进人工智能技术在行政执法实践中的运用。党的十九届四中全会明确指出要加强和深化人工智能技术在行政法律制度中的运用。2023 年,中共中央、国务院印发《数字中国建设整体布局规划》,提出“发展高效协同的数字政务”的要求。随着计算机、人工智能、大数据等现代技术与行政活动不断融合,行政机关借助自动化设备实施行政行为或辅助行政决策的趋势日益明显。例如,在行政处罚领域,“海燕系统”可通过大数据实现对车内驾驶人员以及乘客行为的自动分析,从而精准识别交通违法行为;在行政许可领域,北京市海淀区依托“一网通办”平台,通过技术创新和流程再造,实现“实时比对核验、自动开展审批、即时出具结果”的“秒批”服务,推动审批模式由人办到系统办的转变。这些事例有力表明了自动化技术有助于行政效率的提升,但也带来了自动化行政过程中权益保障是否充分、公平性和准确性如何保证等疑问。尽管已有较多学者对自动化行政的法治问题进行了深入研究,但学界对自动化行政法治化的探讨主要聚焦于类型分级、适用范围及法律风险分析等问题,相对忽略了公众参与在自动化行政中的重要意义,自动化行政中的公众参与法理、制度与程序亟待进一步探讨。

自动化行政的运作原理是将大量相同或相似的行政活动类型化,并将行政活动所基于的事实要件、所适用的法律以及二者之间的结果对应关系编写成可识别的程序语言并事先设定、植入自动化行政设备,由自动化行政设备通过自行获取或人工输入的具体数据以自动控制的方式来批量处理行政事务。[1]自动化行政依托标准化、客观化、专业化的数据分析和处理显著提高行政行为的便捷程度,如虚拟人工智能警务网络只需通电即可对社会隐患、违法犯罪行为等24 小时进行运算和预警,全程不需要人工干预。[2]然而,自动化系统的应用使自动化行政过程较传统行政过程而言存在程序性权利缺失等问题。例如,在“杜宝良事件”中,杜宝良因105 次交通违法行为被处以10500 元的巨额罚款,而这105 次违法行为均属同一违法情节、发生在同一地点且持续时间较长,交通管理部门利用“电子眼”对违法行为拍摄后就自动生成了处罚结果,却没有及时提醒或警告违法司机,使同一违法行为长期、持续且反复发生。[3]既有研究更多致力于强化相对人自身的程序权利保障,但我们也需要注意到,公众参与是缩小行政机关与公众之间的信息鸿沟、保障公众知情权与监督权的一项重要制度设计。现阶段,公众参与自动化行政过程存在立法缺失、公众参与渠道有限、参与能力不足、参与效果欠佳等困境,需要在数字法治政府建设的过程中加以充分考量。

二、公众参与自动化行政的理论认知和既有实践

(一)公众参与自动化行政的理论认知

对于公众参与公权力机关的活动这一重要议题,20 世纪末,雷迪什和马歇尔明确指出,参与是正当程序应当维护的持久价值之一,参与的机会对个人而言在心理上有作出贡献的满足感,对社会而言可以消解公职人员的秘密行事,促使他们同不被其行为所影响的人进行交流。①Martin H.Redish&Lawrence C.Marshall,Adjudicatory Independence and the Values of Procedural Due Process,95 YALE L.J.455(1986).随着自动化技术的出现,公众参与同技术交织的趋势日益凸显。希特伦和帕斯奎尔同样认为参与性是正当程序的基本价值,应当被应用于对自动预测系统的监督。②Danielle Keats Citron&Frank Pasquale,The Scored Society:Due Process for Automated Predictions,89 Wash.L.REV.1(2014).希特伦还认为,计算机程序员在构建自动化系统代码时,不可避免地要参与规则制定,而这种规则制定缺乏行政程序法(the Administrative Procedure Act)、信息自由法(the Freedom of Information Act)以及其他类似的州立法的程序规制和保障,构成了一种令人不安的立法权下放。③Danielle Keats Citron,Technological Due Process,85 Wash.U.L.REV.1249(2008).克劳福德和舒尔茨指出,大数据在决策时通常排除一切用户的参与,但参与、披露和隐私保护有助于优化大数据在公共决策中的作用,中立的数据裁量者的参与对于确保有实质意义的听证尤为重要。④Kate Crawford&Jason Schultz,Big Data and Due Process:Toward a Framework to Redress Predictive Privacy Harms,55 B.C.L.REV.93(2014).

国内学界对公众参与自动化行政的理论研究方兴未艾。张凌寒认为算法自动化决策嵌入行政活动加剧了行政机关与相对人之间的信息不对称,应坚持和发展适应算法治理时代的正当程序制度,尤其是行政公开原则、公众参与原则与说明理由制度。[4]张涛将与行政程序法有关的程序要素的规定归纳为透明化、参与化、论辩化三大取向。[5]马长山提出,通过拓展公民数字参与的深度和广度、提升数字公民能力、强化数字监督能力等途径保障数字公民参与权利,以良性充分的民主参与为数字法治政府建设提供内驱动力和根本支撑。[6]马颜昕指出人工智能在过程和结果上往往超出人类的理解,自动化决策面临结果失控、算法偏见与算法黑箱的挑战,同时也加深公众对于自动化决策的不安。[7]潘靖分析了自动化裁量系统应用带来的主体能动性丧失、个案正义丧失、程序价值缺失等风险。[8]李晴将自动化行政处罚系统分为发现系统、辅助系统和替代系统,在裁量型替代系统中存在算法代替人决策消解个案正义的风险。[9]刘星提出从行政主体的深度嵌入机制、第三方审计机制、裁量偏差预警与人工介入机制三个方面构建数字化裁量的内部人机协同机制。[10]王宾将自动化行政中的算法分为转译型算法和自我学习型算法,针对自我学习型算法,应当在“民主—科学”的合法性框架下,围绕保障公众主体地位和算法科学性对算法进行控制。[11]苏宇对技术性正当程序的既有实践和理论主张进行了专门的梳理,以社会公众全过程、全方位地赋能为核心旨趣,从全程参与、原理公开、充分告知、有效交流、留存记录、人工审查六方面构建技术性正当程序的理想化模型。[12]赵宏提出法律对算法的规制必须以人的主体性为核心和基础,要借由算法影响评估来化解传统法治对于公共机构适用算法决策的治理难题,应在技术性和安全性之外,更多考虑公众参与的保障和问责机制的纳入。[13]

总而言之,国内外早期的理论研究都是在正当程序的价值框架内探讨公众参与问题,强调公众参与之于正当程序价值实现的重要作用。相比国外,国内开展自动化领域的公众参与研究稍晚,二者在研究侧重点上也略有不同。前者强调公权力机关的告知和解释说明义务,以及对公众听证权利的保障,后者强调人的主观能动性,呈现出重视公众赋能的局面。这些研究为大数据时代公众参与自动化行政的制度实践提供了理论基础。然而,现有理论研究未能与技术日新月异的发展速度相匹配,且缺少切实可行的具体制度,在实践运用中难以落地生根。

(二)公众参与自动化行政的既有实践

近年来,规范自动化行政过程的公众参与的制度举措不断涌现,集中体现在道路交通和污染监测等领域。尽管相关制度主要存在于地方立法层面,亦未形成完备的法律体系,但足以为公众参与自动化行政的实践发展指明方向。

在道路交通安全领域,部门规章和地方立法均针对以电子技术监控设备记录作为主要证据的情形提出了向社会公布的要求。例如,《公安部关于贯彻实施行政处罚法的通知》(2021)提到:“利用电子技术监控设备收集、固定违法事实的,要事前经过法制和技术审核,确保电子技术监控设备符合标准、设置合理、标志明显,并向社会公布设置地点。”《苏州市道路交通安全条例》(2022)第四十四条规定:“公安机关交通管理部门应当加强对交通技术监控设备的管理,公布设置固定式交通技术监控设备的地点。”地方立法中也存在听取和采纳公众意见的要求。例如,《南京市道路交通安全条例》(2019)第三十一条规定:“公安机关交通管理部门、交通运输行政主管部门应当依据职责分工,保持各项交通设施功能完好。根据道路通行情况和公众意见,及时增设、调整、更新交通信号灯、交通标志、交通标线和交通技术监控设备、防撞护栏等交通设施。相关单位应当给予协助和配合。”《亳州市城市道路交通秩序管理条例》(2022)第二十五条第二款规定:“公安机关交通管理等相关部门应当及时研究社会公众意见,合理的予以采纳。”

有关接受公众监督的规定,在污染防治领域的法规中较为常见。例如,《河北省港口污染防治条例》(2022)第二十二条规定:“纳入重点扬尘污染源责任单位的港口经营人应当按照规定安装、使用扬尘污染物在线监测设备及其配套设施,与生态环境主管部门的监控设备联网,并保持正常运行,依法向社会如实公开监测数据等有关环境信息,接受公众监督。不得破坏、损毁或者擅自拆除、闲置,不得篡改、伪造监测数据。”《河北省人民代表大会常务委员会关于加强扬尘污染防治的决定》(2018)第二十三条第二款规定:“被确定为重点扬尘污染源的企业事业单位和其他生产经营者,应当按照规定安装、使用扬尘污染物排放自动监测设备及其配套设施,并与环境保护主管部门的监控设备联网,保证监测设备正常运行,依法向社会如实公开自动监测数据等有关环境信息,接受公众监督。不得破坏、损毁或者擅自拆除、闲置扬尘污染物排放自动监测设备,不得篡改、伪造监测数据。”

当前,电子技术监控设备是捕捉道路交通违法行为的重要手段,存在涉及范围广、权益影响大的特点。以立法形式在向社会公布设备设置地点、听取和采纳公众意见等方面吸纳公众参与,可有效避免自动化设备在行政处罚过程中形成程序性权利缺失的风险。在扬尘污染治理中强调公众监督,其正当性在于空气是人类赖以生存的资源,扬尘污染的治理效果直接影响人类的生存质量和公众的健康权益。保障公众的监督权不仅对扬尘污染治理效果具有促进作用,也是对公众健康权益的必要保障机制。现有立法是自动化行政过程中公众参与制度完善的良好基础,但相关规定目前仍不多见,仅涉及道路交通和污染治理等少数领域,公众参与亦缺乏明确的程序性机制,规制的现实作用和范围均属有限。

三、公众参与自动化行政的意义与挑战

公众参与已成为现代公共行政发展的世界性趋势,[14]其深度和广度体现一国公共行政民主化和有效性的程度。健全自动化行政过程的公众参与制度,保障公众参与权利,对于助推数字法治政府建设以及防范算法权力滥用具有不可估量的作用,是建设共建共治共享社会治理格局的题中应有之义。然而,法律依据缺乏、参与渠道有限、参与能力不足、参与效果欠佳等问题对自动化行政过程中的公众参与提出了挑战。

(一)自动化行政过程中公众参与的意义

1.公众参与自动化行政过程助推数字法治政府建设

2021 年,中共中央、国务院印发的《法治政府建设实施纲要(2021-2025 年)》明确提出“全面建设数字法治政府”的目标。党的二十大报告强调要扎实推进依法行政,提高行政效率和公信力。数字法治政府建设与公众参与之间具有双向效应,信息时代的到来化解公众参与成本高、渠道少等困境,公众参与自动化行政过程助推数字法治政府建设。

第一,公众参与提高行政行为的合法性。以“契约”方式组建的国家结束了无秩序的混乱局面,消解了人对人的反抗与伤害。[15]人民赋予国家权力,国家以维护人民利益为目的而存在,公众参与自动化行政过程恰是行政机关了解民意、顺应民情、维护人民利益的重要途径。行政机关吸纳公众参与信息获取、信息处理、结果输出三阶段,实现自动化行政的全过程公众参与,在权力的拥有者与权力的行使者之间建立有效通道,遏制行政机关在自动化行政过程中的权力滥用,避免出现权力异化的情形。第二,公众参与提高行政行为的合理性。人类自身认识能力的有限性体现为行政机关无法获取近乎无限的知识以规划构造完美的行政行为,并且依其目前的认知能力所做的决策很有可能在将来看来是缺乏理性的。[16]行政机关仅凭自身力量无法获得实施自动化行政行为所需的全部信息,在自动化行政过程中听取公众的意见可为其行为提供支撑。

2.公众参与自动化行政过程防范算法权力滥用

传统自动化行政主要是机械性地按照人类预设的条件执行指令,机器学习技术的加入使自动化行政有了新的内涵。依托于机器学习技术的大部分算法具有不透明性,使得公众对算法如何形成决策的认识如同置于黑箱之中,这种情形亦被称为“算法黑箱”。算法的黑箱性使算法权力存在滥用的风险。一方面,算法决策体现设计者的倾向。算法参与的自动化行政过程虽然脱离了行政机关工作人员个人情感和价值观的干预,但因算法本身产生于人为设计,不可避免地融入了设计者的主观倾向。[17]设计者将带有不符合法律目的的主观考量编入算法中,或者编入自身对法律法规和政策理解偏差的倾向,则存在影响决策公正性的风险。[18]另一方面,算法权力渗透行政权力。算法的运行包括经私主体研发投入网络平台使用和在公权力运行的平台上实施两种,即算法权力的主体为公权力机关或技术公司,其背后是算法的设计者或实际控制人,不排除其中可能有人会故意或过失操纵算法,进而加强对行政权的控制,使得算法取代公权力机关成为真正决策者,[19]而算法深度介入行政规制领域,可能导致算法规则凌驾于法律之上,削弱现代法治政府的根基。[20]《中华人民共和国行政处罚法》(以下简称《行政处罚法》)在修订时吸纳了交警非现场执法的核心要素,要求非现场执法应及时告知当事人违法事实,并采用多种手段为当事人听证和申辩提供方便。[21]自动化行政的应用要求行政机关对算法决策过程进行解释说明,公众有权知晓行政行为的决策逻辑,掌握自己的哪些信息被收集,这些信息将被如何应用等。公众角色从结果的被动接受者到决策影响者的转变,使算法过程趋于透明,实现行政行为与公众信任之间的平衡。

(二)自动化行政过程中公众参与的挑战

1.缺乏法律依据

目前,我国对自动化行政的规制以政策文件引导为主,与公众参与相关的法律较少且规定分散。2021 年新修订的《行政处罚法》第41 条规定了行政机关应当向社会公布收集、固定违法事实的电子技术监控设备的地点,切实保障当事人的陈述权和申辩权。作为首部对自动化行政进行回应的法律,《行政处罚法》表明了我国立法对自动化行政逐渐重视的趋势,但仅有一条规定尚不足以规范自动化行政处罚,亦无法为公众参与自动化行政提供合法性依据。应当看到,我国尚未制定专门规范自动化行政的法律法规,对自动化行政的定义、适用范围、责任主体、监督救济等缺乏明确界定,在公众参与制度建设方面更是留有大量空白,亟须通过法律明确公众参与的主要制度和程序,加强对公众参与的规范与保障。

2.参与渠道有限

行政机关在大力推进自动化行政的过程中,应当保证公众参与渠道的多样与畅通,保障公众可以表达个人意见,积极行使个人权利,保护个人合法利益。[22]从公众参与自动化行政的既有实践来看,主要的参与渠道是线下陈述和申辩,行政机关未充分利用技术优势推进线上听证会、在线陈述申辩等线上方式来保障公众的参与权利。相较传统行政行为,行政程序的自动化减少了行政机关与相对人之间面对面的沟通,其中的陈述申辩往往发生于相对人对自动化决策产生怀疑或自身权益受到损害后。参与方式的传统和单一将自动化行政过程中实质参与的主体限定为行政相对人,普遍意义上的公众面临参与无门的困境。

3.参与能力不足

在早期的自动化行政过程中,公众已经出现参与能力不足的问题,这一问题在人工智能因素加入的自动化行政中更为突出。在人工智能系统面前,参与能力不足的进一步突出与算法透明度的缺失有关。算法不透明可分为为保护商业秘密的“刻意不透明”、因专业知识不通造成的“文盲不透明”、由算法本身的难以解释特性导致的“固有不透明”三种类型。[23]算法作为自动化行政的技术支撑,无论是在运行原理还是决策程序上都不为社会大众所熟知,具有高度的隐蔽性和复杂性,非经技术公司披露和专业人士分析很难被公众理解。在传统的行政过程中,行政机关工作人员通过与相对人面对面说理的方式,使其对行政决定的做出过程产生直观认识和理解。自动化行政依靠算法内在的自主分析而快速做出决策,算法的黑箱性使公众很难对决策的考量过程和处理逻辑产生直观感受和形成准确的理解。公众参与自动化行政应以决策过程可视化为基础,否则无法规避盲目参与的风险,算法透明度的缺失又使自动化行政过程的可视化面临障碍。

4.参与效果欠佳

公众参与原则的核心理念即为听取公民意见,自动化行政过程中的公众参与应当以参与者的意见受到行政机关的实质考虑和有效回应为目的,未经信息接收方进行深入考虑并作出反馈的意见表达不具备实质意义,存在架空公众参与原则的风险。公众提出意见后有时无法获取行政机关的有效反馈,长此以往会削弱公众对行政机关的信任,导致公众参与的效果不尽如人意。不仅如此,作为自动化行政过程一方的相对人进行陈述和申辩后,行政机关往往仅针对该特定的自动化决策进行解释和说明,缺乏有效的机制促使行政机关对相关共性问题进行及时归纳和总结,推进对自动化行政过程中可改进之处的深入思考。

四、公众参与自动化行政的解题之道:技术性正当程序理论的延伸

公众参与的要求在传统正当程序理论中是有所表达的。然而,面对行政领域的数字化、自动化、智能化趋势,传统正当程序理论的解释力和指导力有所欠缺。在自动化行政飞速发展的当下,“人”的缺席是导致传统正当程序理论陷入危机的根源所在,[24]公众参与的缺位也是“人”之缺席的重要体现。自动化行政过程中的公众参与需要新的行政程序法治理念与原则提供支持,而技术性正当程序已具备此种潜力。我们有必要从法律和技术的双重视角出发,以既有的正当程序理论为参照,通过发展及应用技术性正当程序理论,填补传统正当程序理论的不足,进而破解自动化行政过程中的公众参与难题。

(一)技术性正当程序理论为何能化解挑战

技术性正当程序理论主张以向相对人、利害关系人和公众赋能的方式,使他们有机会和能力知悉、理解乃至挑战自动化系统的决定。①Danielle Keats Citron&Frank Pasquale,The Scored Society:Due Process for Automated Predictions,89 Wash.L.REV.1(2014).技术性正当程序的相关理论主张发轫于美国系列判决对正当程序适用情境的考量,本文所论述的技术性正当程序已抽离了美国行政法的特殊语境。虽然传统的正当程序理论与技术性正当程序理论的适用场景不尽相同,但二者同处于正当程序的框架内,对于维护程序公平、保障人性尊严等价值理念的追求具有超越时空的特性,在自动化行政领域中也不会过时。因为人工智能技术的服务对象是人,只要人的主体性保持恒定,对人性尊严的尊重之要求亦不会改变。用计算机科学的术语来讲,正当程序的价值理念具有“鲁棒性”(robustness),即在受到持续扰动时仍保持原有的性能。[25]正因如此,必须将充分参与等保障人性尊严的标准作为数字技术运用的基本目标以满足技术性程序正义的基本要求。

首先,推动自动化行政应用的重要目标是提高效率,排除个人情感对行政行为公正性的干扰。但若仅从经济原则和效率价值出发考虑,则会导致在实践中行政机关脱离行政程序的严格规制,自动化行政过程中的权力可能会通过多种隐蔽途径被滥用。然而,只有在人的尊严和体面得到保障和尊重的前提下,这些次要价值的充分实现才有充分的正当性基础。[26]其次,行政机关使用自动化设备做出的决策可能存在错误,算法的黑箱性有侵犯公民知情权、申诉权的风险。如果相对人不了解行政决定的原因,不理解自身为什么会败诉,公权力行为的合法性将会遭受质疑。[27]如果行政机关不听取相对人的陈述和申辩,不在个案裁决中发挥裁量作用,公权力行为的正当性将会受到侵蚀。在人工智能场景中贯彻正当程序理论,更要求行政机关不能全然依赖自动化设备形成判断,并将这种判断作为最终作出行政行为的决定性依据。应防止系统对个人进行概括性评价而导致有失公允和精准的局面。最后,作为行政决定产生依据的法律文本并不能完全体现正义。自动化设备的运行原理是预先设定一组事实及对应的法律后果,其对法律规则的应用较为固定和一致,此时行政机关一定程度的自由裁量权可作为法律体系的必要补充部分。[28]然而,随着行政机关对人工智能的依赖加深,算法将有可能成为实际运行的“法律”,甚至取代行政机关的行政裁量职能。利用技术性正当程序理论保障公众参与自动化行政过程,不仅有助于捍卫公众的尊严,也能在一定程度上避免行政机关的尊严被削弱,沦为“橡皮印章”和“自动售货机”。[29]

(二)技术性正当程序理论如何化解挑战

技术性正当程序理论的核心要旨是实现“人”的赋能。[30]实践中,应当以自动化行政做出决策的步骤为导向,构建公众的决策参与、过程参与、末端参与制度:完善事前意见收集;明确事中参与主体及方式;构建良性的事后监督和评价机制,对包括行政相对人在内的社会公众予以全过程、全方位的赋能,[31]确保“人”在自动化行政过程中充分享有正当程序的保障。

建立公众决策参与制度。在法律体系建设规划中,我国需建立以规范自动化行政的法律为统领,以公众参与自动化行政专项立法为着力点,以公众参与制度各项实施细则为补充的法律体系。生成良善之法的必要条件在于其制定应借助于正当程序,且应当遵循客观规律,以广大人民群众的意志为依归。[32]公众对行政行为的认知较为直观,其感受往往直接代表着社会公共利益。随着法治国家和服务型政府建设的推进,行政机关更加着眼于公众的切身利益,并将其置于首位,而公众自身对其利益实现和权益保障的关注也逐渐增多,二者在最终归宿上具有一致性。受中国传统官本位思想的影响,“官”“民”之间、政府与社会之间始终存在着某种心理距离。[33]以立法的方式鼓励公众参与决策,破除传统支配和服从关系根深蒂固的影响,促使行政机关兼顾各方利益主体的正当利益,有助于加深公众对自动化行政的理性认识,提升政府公信力。

建立公众过程参与制度。在参与主体上,公民个人、具备算法技术的产业部门及个体企业应被纳入其中。公民个人作为自动化行政过程的一方主体,自动化决策的最终结果关乎其直接利益。掌握算法技术的产业部门及个体企业可依其专业知识指出自动化行政中普通公众所不能发现的问题,使自动化行政过程的公众参与更具实效性。在参与方式上,应当以听证会为首要方式,座谈会和论证会为保障手段,问卷调查为补充途径。举行听证的过程也是政府部门与公众代表之间进行利益表达的过程,双方能够就现有问题进行充分交流。座谈会方式适用于受自动化行政影响的公众,而论证会形式则适合于人工智能和算法领域的专家等技术人员,他们对自动化行政的相关规则进行充分论证并提出专业化建议。通过问卷的合理设计,行政机关可以有效获知公众对于自动化行政规则设计合理与否的普遍看法。这些参与方式应当被合理镶嵌于自动化行政过程的不同环节,使自动化行政过程的合法性与正当性能够通过全过程的公众参与得到系统化的增强。

建立公众末端参与制度。公众参与的回应与参与的机会本身同等重要。一个不必有任何回应的参与,仅是满足形式上的参与要件,对参与者或开发者而言都无实质的意义。[34]公众的实时监督能有效应对部分产业利益集团对政府部门施加的影响,保障自动化行政过程的公正性。上级政府可以设立第三方独立机构以保障公众监督信息的有效反馈和及时处理,促进行政机关依法行政。公众的末端参与制度可细分为听取意见前的参与和听取意见后的参与两种:听取公众意见前,行政机关应当告知公众自动化行政应用的背景和初衷,提供决策生成过程的原理,告知参与的方式和途径等,寻找公众与行政机关之间的信息平衡点,获取公众去情绪化的、理性的意见;听取公众意见后,行政机关需要对意见进行整理,区分合理的与不合理的诉求,对收集的意见作出回应,将公众退出自动化行政过程的时间节点明确为行政机关反馈意见后,而不是公众表达意见后。必要时,还需要对公众与政府之间的互动机制作出细节性的规定。合理的后续回应与互动机制能够更好发挥公众参与机制的应有机能,促进自动化行政的发展。

五、公众参与自动化行政的制度建议

对于自动化行政过程中的公众参与,我国的现有立法未作出明确规定,执法实践中也缺乏重视和保障,应从公众参与边界、原理说明义务和当事人的拒绝权利着手,构建公众参与的机制。

(一)厘定公众参与的边界

如前文所述,公民个人、具备算法技术的产业部门及个体企业都应当作为参与自动化行政的主体。然而,并非所有的主体都适合融入自动化行政过程,也并非自动化行政的所有领域都适合公众参与,一刀切地参与和不参与都不可取。厘定公众参与的边界,以不否定公众参与自动化行政具有显著意义为前提,行政机关应当关注公众参与的必要性和适当性,未来可采取按行政事项分类推进公众参与的思路,以公众参与为原则,不参与为例外,设置公众的分级参与机制。

自动化行政过程中公众参与的边界将主要由法律规范中的禁止性规定予以规制,除狭义上的法律规则外,行政法规、规章乃至其他规范性文件等将对此起到关键作用。根据处理事项的不同类型,以行政立法的方式将公众参与分为三级:一是涉及国家秘密的事项,以绝对禁止的方式排除公众参与,但应避免对涉及国家秘密的事项在处理细节上的粗糙,尤其是应当避免大幅扩展“国家秘密”的范围,如应通过保密工作部门明确行政机关不得将以内部文件为依据进行自动化决策作为禁止公众参与答复的依据。二是有关商业秘密和个人隐私的事项,采用相对禁止的方式赋予公众层次性的参与机会。对于与商业秘密有关的自动化行政,适用损害衡量和公共利益衡量,强化不损害商业秘密的算法解释等技术辅助机制的运用。而行政相对人及其近亲属、其他与行政决定有利害关系的人可参与自动化行政中涉及个人隐私的事项。三是除国家秘密、商业秘密、个人隐私外的其他事项,应全面保障公众的参与性权利。

(二)明确原理说明的义务

所有的意见和陈述都存在不恰当地权衡了一些相互矛盾的信息,以及在决策过程中带有偏见的风险,规制该风险的一种方法是披露决策过程中的一切信息。明确说明什么对决策过程更重要通常比简单陈述结论更有价值。①Yavar Bathaee,Artificial Intelligence Opinion Liability,35 BERKELEY TECH.L.J.113(2020).例如,司法裁判中不仅阐明法官已经得出的结果,而且还对法官如何作出判决进行解释。在自动化行政过程中,人类的适用法律活动经技术转变为代码和算法操作,但这一转换过程模糊不清,要求行政机关作出相应说明,从而提高自动化行政技术手段的透明度和可解释性,便成为可值得尝试的制度方案。[35]原理说明对自动化行政背景下践行正当程序原则具有重要意义,有助于实现程序性权利的工具性价值与非工具性价值。

具体的制度设计可做如下考量:其一,鉴于技术问题的复杂性,算法原理的说明义务主体应为负责开发算法模型的行政机关,实际开发者负有协助说明义务;其二,在说明内容方面,义务主体应就自动化行政的算法决策过程进行解释,包括法律依据是什么、如何进行代码转译、裁量因素在个案中何以体现等;其三,由于自动化行政适用场景多元,不同系统的技术复杂程度存在巨大差异,所以在说明方式上难以作出统一的要求,可进行层次化的原理说明。例如,对于部分“白箱型”的自动化决策算法,因其可以实现“自解释”,只需利用简单的文字说明或规则可视化表达即可,而针对“黑箱型”的人工智能算法可采用局部代理模型等算法解释方法进行说明。[36]

(三)设定请求人工干预的权利

过分强调公权力容易导致专断和滥用权力,而过分强调私权利容易导致行政执法活动的软弱无力,法律应明确公众方或行政相对方在特定条件下有权以适当方式对抗行政主体,寻求公权力和私权利的平衡关系。[37]自动化行政过程中,相对人有充分理由认为行政机关仅通过自动化设备作出的决策不足以使其信服的,除少数紧急情况外,应享有请求人工干预和决定的权利。例如,《个人信息保护法》第24 条赋予个人“要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”的权利。这一规定尽管并不完全适用于行政活动,但却可以为类似的行政程序制度建设提供重要的参考。

然而,自动化行政的专业性较强,对算法专业知识的掌握要求较高,普通公众可能本身就难以理解其原理,在行政机关或实际开发者进行解释说明后同样面临理解不到位的风险。因此,一方面要保障公众参与边界厘定机制和原理说明义务明确机制的落地生根,这将作为人工干预请求权的基础;另一方面,应在一定程度上限定公众请求人工干预的范围,否则将降低行政机关工作效率,造成社会资源的浪费,削弱政府公信力。该机制要首先明确,权利主体只能是自动化行政的当事人或利害关系人,除当事人或利害关系人以外的其他主体概不享有人工干预请求权。其次,人工干预请求权所指向的内容应当是与行政机关事前所作的原理说明明显不相符的自动化行政行为。例如,应用自动化设备实施的行政审批业务中,行政机关应当事先将审批所依据的因素悉数告知公众,倘若完全符合条件的相对人提交审批后未通过,即有权选择拒绝确认并请求人工干预。因为此种情形下无法排除是自动化设备自身故障导致错误决策产生的可能性。公众对自动化行政过程的不了解,使其无法识别设备故障产生的错误。在合理界定公众参与的边界及明确行政机关的原理说明义务后赋予相对人和利害关系人的人工干预请求权,可及时纠正错误决策,增进公众对自动化决策系统的理解和信任,增强公众参与的有效性。

结语

科技的进步给行政行为方式的革新带来了无限可能,对技术性正当程序理论的研究有助于夯实公众参与自动化行政的理论基础,突破“算法黑箱”对公民权益保障所造成的障碍,打破自动化技术带来的“信息鸿沟”。自动化行政过程需要公众参与,而公众参与实质作用的发挥,需要在数字法治政府建设中进行更加长远的行政管理体制改革和国家治理能力现代化建设,还需要从理论到实践、从立法到执法的多维度引导和规范。在未来,有望以行政立法的形式明确规定技术性正当程序的理念或原则,全面建立公众参与自动化行政过程的法律制度,使公众参与权利的保障能够始终紧密跟随技术发展的脚步。

猜你喜欢

机关决策公众
为可持续决策提供依据
公众号3月热榜
公众号9月热榜
公众号8月热榜
公众号5月热榜
在推进“两个机关”建设中践行新使命
把人大机关建设成为学习型机关
决策为什么失误了
打开机关锁
机关制造