人工智能情境下的行政裁量存在吗?
——兼论行政裁量治理的技术挑战
2022-11-21侍海艳
刘 星, 侍海艳
(1.东南大学 法学院,南京 211189;2.淮阴师范学院 法政学院,江苏淮安 223001)
当下,人工智能俨然成为法学研究的学术热点,无论是法理学还是各部门法,基于人工智能的法学研究已占据着各类学术期刊的版面(1)。人工智能情境下的行政裁量问题,就是在这种研究热潮中被提出的。然而,正如有学者所指出的,虽然人工智能法学研究空前繁盛,但却出现了违反人类智力常识的反智化现象,概念附会现象严重,不少成果只是基于“AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫[1]。这不得不引起我们的反思:人工智能情境下的行政裁量是人工智能法学研究中“AI+法律”式的概念附会吗;人工智能情境下的行政裁量真的存在吗;如若存在,在何种情形下存在;其具体形态有哪些;人工智能是否对当下的行政裁量治理提出了根本性挑战?
正如美国行政法学家科克教授所言,“行政法已被裁量的术语所统治”[2]469。身处智能的新时代,无论是行政主体还是行政相对人,都能时时感受到人工智能与大数据、互联网、物联网、区块链、云计算等现代新兴技术结合所带来的公共行政革命式变迁,以公共行政为研究对象的行政法将理论视野投射至人工智能,并考察其与行政裁量的关系,便成为水到渠成、自然而然的事情了。然而,“行政的生命在于裁量,行政法的核心在于通过法治实现对行政裁量问题的有效治理”[3]121,故而,在考察人工智能与行政裁量之间的关系时,我们要格外理性、细致、审慎,不仅要厘清基础性概念的内涵与外延,从而避免出现常识性谬误以及学术研究的“伪问题”,而且应该尽可能纳入现有的行政法教义分析框架,避免就问题论问题所导致的对策论代替教义论。基于以上考虑,笔者尝试在梳理相关国内外文献的基础上,从人工智能的界分、人工智能下行政行为的成立条件以及行政裁量的内在结构三个方面对人工智能与行政裁量的关系进行考察,探讨行政裁量治理所面临的技术挑战。
一、研究综述
虽然当前人工智能法学研究蔚为大观,行政裁量的研究成果也日益丰硕,但是关于人工智能与行政裁量关系的系统性研究并不多,因此有必要围绕此主题对已有的国内外文献进行综述,以展现当前的研究进展,明确研究的创新起点。
(一)国内文献
就国内而言,无论是我国大陆还是台湾地区(2),关于人工智能与行政裁量关系的系统性研究并未出现,但并不是说没有学者关注此问题,只不过关于此问题的论述在文献中都是片段式地提及,尚未做专项研究。从已有的文献看,涉及该主题的研究内容主要集中在两个方面:一是人工智能条件下行政裁量存在与否;二是人工智能情境下行政裁量的控制问题。
一方面,部分学者从行政裁量的综合性与复杂性出发否定人工智能行政裁量的存在,倾向于认为人工智能只能作为行政裁量的辅助工具。宋华琳等认为,在当前的公共行政中,人工智能的引入相对更多集中于事实认定环节,相对更多适用于羁束行为而非裁量行为。现实行政情境都涉及个案中的复杂权衡,而人工智能能否胜任此项工作,能力存疑,因此否定人工智能裁量的存在[4]82-90。以行政许可为例,宋华琳认为,人工智能系统的引入并不能完全取代行政许可机关的裁量判断,面对特定个案中多元利害关系主体和错综复杂的利益冲突,行政许可机关需要脱离人工智能系统和电子化许可规则的束缚,转而回归传统的行政裁量[5]。
另一方面,部分学者认为人工智能条件下存在行政裁量,应考虑人工智能情境下行政裁量的控制问题。查云飞认为既然裁量基准能在同案同处理和个案处理之间保持适当平衡,从而被行政法所允许,那么,行政机关依赖全自动设备做出具体行政行为也未尝不可。可以按照不同行政活动类型综合考虑相关因素,将裁量基准在算法规则中提前预制,从而实施自动化裁量[6]167-179。作者以此次新冠疫情中的健康码为例,深入分析健康码的管理规定的裁量基准功能,明确作为人工智能工具的健康码在个案行政中的裁量压缩作用[7]。马颜昕认为,自动化行政应该区分为自动化辅助行政、部分自动化行政、无裁量能力的完全自动化行政、有裁量能力的完全自动化行政等多个级别[8]。作者以自动化行政方式下的行政处罚为例,系统考察行政处罚中完全自动化行政中的裁量情形,并且提出必须对自动化辅助异化保持警惕。在归责上,近期自动化行政处罚的赔偿责任宜采用无过错责任原则,长远看将自动化系统错误导致的责任予以单独类型化,从而确定专门的责任构成要件[9]。
(二)国外文献
国外关于人工智能的法学研究早在20世纪80年代已经开启,尽管曾因人工智能技术研究陷入低潮而一度沉寂,然而近年人工智能的飞跃式发展再次掀起法学研究的热潮。有关数字行政裁量的问题在国外行政法研究中已有较为丰富的知识沉淀。
在德国,行政法学家的主流观点认为人工智能情形下的自动化系统参与行政活动并不影响行政行为的成立。关于这一点,毛雷尔教授很早就给予了相关论述[10]。然而,对人工智能是否能够进行行政裁量,学者们的观点仍然存在分歧。Wolff等认为,行政机关在作成裁量决定或于判断余地从事活动时,需合理斟酌有关个案之一切情况,电脑自动作业受规格化之限制,不能符合此要求,所为决定属违法。此外,以电脑对当事人做成决定,无异以机器决定人之命运,亦抵触宪法对一般人格权之保障[11]。与之相反,Badura认为,行政机关得依行政规则(裁量准则)作成裁量决定。在以电脑自动化作业时,考虑各种因素之作业程式即无异于行政规则。因此,并不完全排除裁量决定之自动处理[12]。从德国当前的制定法上看,人工智能领域的行政裁量并未获得认可,相关立法严格地排除行政行为中存有不确定法律概念和裁量的情形,人工智能下的全自动行政行为只允许存在于羁束行政之中(3)。当然,这很可能是因为当时的立法者并未意识到人工智能会发展如此迅速,因此不排除今后立法可能产生松动。
在英美,由于对行政裁量界定的宽泛性,人工智能能否参与行政裁量经历了从全盘否定适用到局部肯定适用的过程,并已开始探讨人工智能裁量的控制技术与责任归属问题。Lipsky基于裁量过程中人的意识判断过程,否定公共行政中数字裁量的可能性[13]。Busch等梳理了1998年至2017年有关数字裁量与街头官僚之间关系的44篇文献,反驳了Lipsky“公共行政服务提供需要人类的判断,而这无法编程,机器无法替代人类”的观点,并明确当前的研究任务是评估数字自由裁量权的影响,解释不同类型的现代信息技术如何影响街头官僚数字裁量权[14]。Barth在系统梳理人工智能文献的基础上,提出了包括回应、判断和问责在内的与行政裁量权有关的经典困境,并认为,人工智能领域的进步将引领计算的新水平,人工智能系统将有能力做出自主代理,并学会独立学习,评估周边环境,并具有用价值观、动机和情感来进行思考的能力[15]。Bullock详细分析了人工智能、裁量和官僚之间的关系,并得出结论:尽管有证据表明,自由裁量权可能会缩小,但需要更多的理论和实证研究来更好地理解这种变化的全部影响。复杂性和不确定性低的任务最有可能被人工智能自动处理,而复杂性和不确定性高的任务应该保留在人类主导的范围内[16]。另外,Bullock等通过对美国预测警务和医疗保险中的典型数字裁量系统考察,发现人工智能对行政裁量的影响已呈现出非线性结构[17]。Suksi认为,为防范自动决策带来的裁量风险,所有国家都有必要审查其行政正当程序规则,以便使这些规则在自动决策的要求方面跟上时代的步伐,只有基于规则的自动化决策系统才能与法治相兼容[18]。剑桥大学Cobbe教授也持类似观点,并且强调通过法律规制提高算法技术透明度,从而规避自动化行政决策风险[19]。
综上所述,人工智能情境下的行政裁量是否存在,无论是国内还是国外并未达成统一。在探讨这一问题时,或许出于对技术的信任与期待,在英美等国家人工智能裁量的存在似乎已不言自明。再者,英美法系国家由于不像大陆法系国家一样需要对法律要件做严谨细致的法教义学分析,整体上偏向讨论如何治理人工智能裁量。然而,笼统地讲人工智能行政裁量又给具有法教义学传统的国家带来法学理论上的挑战,正因如此,部分学者否认人工智能行政裁量的存在,故而有必要对人工智能做类型学分析,进而探讨行政裁量问题。
二、探讨裁量存在与否的前提:人工智能情境下的行政行为能否证立?
以往不少研究在探讨人工智能行政裁量时,往往忽略了一个前提条件:探讨行政裁量存在与否的前提是人工智能情境下的行政行为能否成立。倘若行政行为不成立,又如何谈行政裁量?即便从语义学的角度,分析人工智能情境下的行政裁量问题也必须对人工智能的内涵有较为清晰的认识。
(一)人工智能的层级:意思表示能力存无的界分标准
众所周知,因人工智能太热门而导致各行业都竞相追赶、奋力融入相关的开发与应用。“但法律人如何因应?面对这一波AI崛起,当然也不能缺席!然有鉴于AI牵涉到相关的数学统计层面,所以对一般不具理工背景的法律人,要切入确有技术面上的障碍。即使如此,就算不去学AI相关之电脑语言和演算法,法律人也应掌握基本的技术内涵,具有一定认知,再来看法律问题才比较容易切中要害!”[20]的确如此,当前的人工智能法学研究热潮之所以有为追赶热点而制造学术泡沫的嫌疑,恐怕与尚未厘清人工智能等基础概念的内涵与外延存在莫大的关系。因此,有必要对人工智能做出层级上的界分。
虽然法律人不能像AI开发者一样对人工智能的方方面面都要有精深的理解和把握,但是对于人工智能的基本原理及其发展层级要有清醒的认识。就人工智能的发展而言,其大致可以划分为三个层级。第一层级,弱人工智能,只专注于完成某个特定的任务,例如语音识别、图像识别和翻译,即擅长单个方面的人工智能。它们只是用于解决特定的具体类的任务问题而存在,大都是统计数据,以此从中归纳出模型。由于弱人工智能只能处理较为单一的问题,且发展程度并没有达到模拟人脑思维的程度,所以弱人工智能仍然属于“工具”的范畴,与传统的“产品”在本质上并无区别。包括近年来出现的IBM的Watson和谷歌的Alpha Go,它们虽然是优秀的信息处理者,但都属于受到技术限制的弱人工智能。第二层级,强人工智能,属于人类级别的人工智能,在多个方面都能和人类比肩。它能够进行思考、计划、解决问题、抽象思维、理解复杂概念、快速学习和从经验中学习等操作,并且和人类一样得心应手。强人工智能系统包括了学习、语言、认知、推理、创造和计划,目标是使人工智能在非监督学习的情况下处理前所未见的细节,并同时与人类开展交互式学习。在强人工智能阶段,由于人工智能技术已经可以比肩人类,同时也具备了具有“人格”的基本条件,因此机器可以像人类一样独立思考和决策。第三层级,超人工智能。牛津哲学家、知名人工智能思想家尼克·波斯特洛姆把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”[21]。在超人工智能阶段,人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑,此时的人工智能已经不是人类可以理解和想象的。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。
之所以要对人工智能进行层级上的区分,原因在于这将决定不同人工智能情境下意思表示能力的存无,而意思表示能力的存无关系法律行为能否成立。很显然,在弱人工智能阶段,人工智能不具有独立的意思表示能力,而只有在强人工智能阶段以及超强人工智能阶段意思表示能力才成为可能。
(二)有无意思表示是否影响行政行为的证立?
判定行政裁量存在与否的前提条件是裁量本身所依附的行政行为本身能否成立(4),但目前的学术争论往往忽略了这一点而径直讨论裁量问题。整个大陆法系的行政法学都是由行政行为作为支柱性概念所构筑起来的,而奥托·迈耶是借鉴民法中的意思表示构筑行政行为概念时,将行政行为界定为行政机关对臣民在个案中作出的决定其权力的高权宣示[22]。因而,意思表示成为行政行为能否成立的要素之一。正因如此,人工智能是否具有意思表示能力往往成为讨论行政行为能否成立的条件。例如,德国法学家蔡德勒20世纪50年代即指出,即便将来机器能够代替人工开展行政活动,但从行政法角度而言也应该禁止,原因便是人的意思形成或意思表示无法由机器做出,因此应当区分人类活动与机器活动并构建不同的责任体系[6]167-179。当然,蔡德勒所处的时代并不是人工智能蓬勃发展的时代,目之能及的机器只是某种程度的机械自动化,和当前的人工智能不可同日而语。
如果承认人工智能系统是否具有意思表示能力关系行政行为的成立与否,那么前文中的人工智能层级的划分就具有实质意义了。在弱人工智能阶段,由于人工智能并不具有独立的意思表示能力,因此此时所谓的人工智能行政行为不能成立;在强人工智能阶段和超强人工智能阶段,由于人工智能具有独立的意思表示能力,行政行为便能成立。就目前而言,人类所处的智能时代处于弱人工智能阶段,因此我们可以得出结论:弱人工智能只能辅助公务人员做出行政决策,并不能独立开展行政执法活动,因为行政行为的成立依赖的是作为公务人员的意思表示。这在现实立法中也得到印证。《德国联邦程序法》立法过程中围绕自动行政是否具有意思表示能力,曾经展开过激烈的争论,立法的最终结果实际上否定了自动行政行为具有意思表示的能力。由于自动行政系统不具有“人性”(主要指心性、感情与灵性等),与作为公务人员的“人”存在本质上的差异,因此无法形成自身的意思表示。向前再推进一步,按照当前的人工智能发展速度,假如人工智能发展到强人工智能阶段,具有了独立的意思表示能力,那结论还是如此吗?由此即引出行政行为概念的主体资格问题。
当前的行政行为概念的主体构建始终是围绕行政主体而展开。不过,行政主体类似“法人”概念,只是行政法上的拟制概念。行政主体的运作过程必须依赖一定的载体和手段,比如行政机关的公务人员即是行政主体得以运作的“活的载体”。然而,作为自然人的公务人员虽然是行政机关开展行政活动最主要的载体,但绝不是唯一的载体和手段。机器作为行政活动的载体在现实中早已司空见惯,例如当前的互联网自动审批系统即脱离人工的行政载体。由此观之,无论是作为自然人的公务员,还是当前所探讨的“可能”具有法律人格的人工智能,都只是行政主体之下的行政行为载体而已,其只有得到行政主体的授权才能开展行政活动。从这一角度出发,人工智能是否具有意思表示能力并不影响行政行为的成立。而之所以产生意思表示能力有无是否影响行政行为证立的分歧,可能与行政法上行政行为的意思表示要素与民法上的民事行为意思表示要素未加严格区分有关[23]。无论是公务员的意思表示,还是人工智能的意思表示,其在行政行为的做出过程中都应视为行政主体的意思表示。“即便使用可自行感知、思考和行动的人工智能机器,虽然会出现行政机关不可预测的情形,但根据行政行为意思表示的客观推定原理,此时行政机关的意思将从机器对相对人权利义务是否直接产生影响的角度予以推定。无论如何,在行政法上,全自动具体行政行为都不会因缺乏意思表示要素而不被证立。”[6]174因此,有学者认为,自动化行政行为,乃至完全自动化行政行为在我国也并不存在理论障碍[8]。即便自动化行政与人工智能行政不能完全等同,由于是否具有意思表示能力并不成为行政行为成立与否的要素,因此人工智能情境下的行政行为是当然成立的。
三、人工智能能否在行政裁量的内在构造中得以实现?
尽管人工智能是否具有意思表示能力并不影响行政行为的成立与否,但并不意味着行政法能够承认人工智能进行行政裁量。行政裁量所具有的内在构造结构制约着人工智能条件下的行政裁量。
(一)行政裁量的内在构造
行政裁量的内部构造即裁量存在于何处的问题。只有明确行政裁量是什么,才能知晓行政裁量存于何处。因此,探讨人工智能能否进行行政裁量,必须厘清行政裁量的内在构造。传统上,关于行政裁量的内部构造,产生过裁量“一元论”和“二元论”的区分。裁量二元论坚持将裁量问题与法律问题区别开来,裁量一元论正好相反,认为裁量问题与法律问题并非各自独立的二元,所有的行政裁量都是法律授权的结果 ,根本不存在不受法律约束的自由裁量[24]。但是不管是裁量一元论还是裁量二元论,在裁量的构成上都存在着效果裁量与要件裁量,只不过一元论将效果裁量与要件裁量统合在一元之中,都要接受法律的约束以及司法监督,而二元论则将效果要件排除在司法审查之外。探讨人工智能行政裁量问题有必要在效果裁量与要件裁量的架构下进行。
所谓“要件裁量”,其主要过程包括以下几个步骤:第一步,在行政过程中通过查找证据来确定法律事实;第二步,根据初步确定的法律事实搜寻对应的法律规定,同时针对不确定的法律概念进行法律解释;第三步,将确定的法律事实带入法律规范,判定其是否符合相关的法律要件,即要件裁量的实质就是法律的“涵摄”(或称为“等置”)过程。所谓“效果裁量”是指行政主体完成法律涵摄过程之后在选择行为的效果上所享有的裁量自由。具体而言,效果裁量包括决定裁量和选择裁量,前者指行政主体选择做出或者不做出某种行政决定,后者指在做出行政决定时在时间、程序以及内容上的不同选择[25]31-40。以《中华人民共和国治安管理处罚法》第二十六条为例,“有下列行为之一的,处五日以上十日以下的拘留,可以并处五百元以下罚款;情节较重的,处十日以上十五日以下拘留,可以并处一千元以下罚款:(一)结伙斗殴的;(二)追逐、拦截他人的;(三)强拿硬要或者任意损毁、占用公私财物的;(四)其他寻衅滋事行为。”何为“情节较重”就涉及要件裁量中的不确定法律概念,“处五日以上十日以下的拘留,可以并处五百元以下罚款”“处十日以上十五日以下拘留,可以并处一千元以下罚款”等属于效果裁量。以《突发事件应对法》第五十条,“社会安全事件发生后,组织处置工作的人民政府应当立即组织有关部门并由公安机关针对事件的性质和特点,依照有关法律、行政法规和国家其他有关规定,采取下列一项或者多项应急处置措施……”“事件的性质和特点”即是要件裁量中的不确定法律概念,可采取多种措施则是效果裁量。无论是要件裁量中不确定法律概念的解释以及法律要件的判断补充,还是效果裁量中行为的选择,都涉及人的认知问题,若以人工智能代替人类进行判断则可能会带来不同的效果。
(二)行政裁量内在结构制约人工智能的发挥
尽管近年来我国的行政法适用多未对法规范的逻辑构成进行分析,在行政实务中以及司法审判中并没有对行政裁量中的不确定法律概念与效果裁量做出二元区分,而是笼统地将行政主体适用法律规范的自由选择视为行政裁量,倾向于支持“统一裁量观”。但是,无论是行政实务部门制定的行政裁量基准,还是司法部门对行政裁量怠惰、逾越以及滥用的司法审查,其基本框架都是在要件裁量和效果裁量的架构下进行的。就人工智能参与当前的行政活动开展而言,其更多地适用于羁束行为中的事实认定,即非裁量行为居多。受制于人工智能目前发展的技术局限性,人工智能尚未能有效渗透于行政裁量。但是伴随着人工智能的迅速发展,人工智能是否能够进行行政裁量逐渐有了探讨的空间。因此,有必要在法教义学的框架下,从行政裁量内在构造中的要件裁量和效果裁量出发进行分析。
首先,就行政裁量中的要件裁量而言,其核心在于对法律要件中的不确定法律概念进行判断认知。尽管有学者否定要件裁量的存在,认为不确定法律概念的解释和适用实质上只有唯一的正解,对正解的求解过程本质上就是主观认识与客观实际相符合的过程,并不涉及人的意志[26]。但是,正如有学者分析的那样,不确定法律概念始终存在盖然性的判断,要最终确定法律适用的内涵,不可避免掺杂着人的价值判断等意志作用,“所谓的认识作用和意志作用并不能作出明确的区分,故而否定要件裁量的学说是缺乏足够的证据的”[25]33。可见,对于不确定法律概念的理解,始终包含着人的主观认知和意志作用。行政法中的诸如公共利益、公益事业、情节严重、必要性、公共服务、公共安全等不确定法律概念的法律适用过程,必然涉及行政主体的主观认知与意志作用,更确切地说要依赖于行政主体的载体——得到授权的作为自然人的公务人员的权衡。而作为自然人的公务人员,只有在全面谨慎评估和权衡各种要素的前提下,才有可能公平公正进行行政裁量,促进裁量均衡。而综合权衡的过程,必然会涉及个案的深层情况以及错综复杂的利益衡量,人的价值观、情感等主观因素都可能渗入行政裁量之中。作为人工智能,有这个能力吗?有学者认为,“不确定法律概念会影响法律要件中事实认定的准确性,人工智能对此难以个案权衡,有可能加剧事实认定的不准确”[4]86。但正如前文所言,笼统地谈人工智能是否有类似人的权衡能力是无意义的,人工智能的层级划分中,弱人工智能毫无疑问尚不具备这样的能力,但是强人工智能的情境下不排除会具有此项能力。
其次,就行政裁量中的效果裁量而言,由人工智能进行决定裁量和选择裁量可能更难。按照目前学者们的多数看法,“效果裁量=要件裁量+适当选择”以及与之类似的“统一裁量观”已经占据主流观点。也是说,效果裁量以要件裁量为前提,甚至在部分行政法学者的眼中,效果裁量是不存在的,一旦法律要件得到补充,所谓的效果选择就是唯一的[27]。行政机关固然有权决定是否在实际的行政实践中引入人工智能技术,甚至决定是否采取裁量措施,但是如果法律要件裁量中的不确定法律概念尚不能得到人工智能的准确界定,那么此时探讨人工智能是否能够进行效果裁量就是毫无意义的。人工智能参与行政决策必然包含三个环节: 第一个环节,信息获取,即人工智能技术将行政过程中的人、时、地等要素转化为有待进一步识别和处理的信息,本质上是进行初步的事实认定; 第二个环节,信息处理,即将第一步获取的案件事件进行抽象处理,并将其与所储备的法律要件进行匹配;第三个环节,信息输出,即根据对应的法律规范输出相应的法律效果。理想中的模式是人工智能系统能够如“自动售货机”一样进行输出,从而提高行政效率。不过,人工智能算法中的这种代码规则会忽视问题的复杂性,即便在强人工智能阶段其能否应对问题的复杂性仍然是存疑的。
综上所述,探讨人工智能系统能否进行行政裁量,始终绕不过法律规范中的要件裁量,其核心在于人工智能系统能否对不确定法律概念进行认知和判定。在当前个案中的行政裁量中,人工智能都是处于弱人工智能阶段,只能发挥辅助作用,只能参与相对简单而重复的行政活动,而不能发挥实质性的决定作用。虽然不排除伴随着人工智能的迅速发展,今后人工智能具有实质参与行政裁量的可能性,但是就目前以及可以预期的较长时间内而言,探讨人工智能行政裁量问题显得过于超前,对当前的行政实践指导意义不大(见表1)[28]。
四、人工智能所带来的行政裁量治理技术新挑战
虽然当前的人工智能技术尚未对行政裁量治理带来根本性挑战,人工智能当前所扮演的角色仍然仅仅只是助手,但是人工智能迅速发展所带来的技术进步确实对行政裁量治理研究提出了新的课题。
(一)算法偏见可能导致裁量不公
行政法上行政行为的建构主要通过行政主体概念的拟制来实现,因此正如前文所述,有无意思表示能力并不影响行政行为的证立。但是人工智能情境下,行政主体实施行政行为的载体由自然人变为人工智能系统,也就是我们所谓的智能机器,却可能带来裁量治理的新问题,即便处于弱人工智能辅助阶段。这其中扮演关键角色的就是算法偏见与歧视。
算法可以理解为人类和机器交互的决策,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制[29]。算法从数据输出的角度看是公平的,同样的数据输入得出同样的输出结果,并且效率更高,推送的服务更加精准,但是如果从算法本身设计的角度看,算法设计之初便可能存在歧视与偏见。例如,2020年引起社会广泛关注的外卖骑手拼命送餐事件就是例证。配送外卖骑手在强大的系统驱动下,为避免差评、维持收入,不得不超速、违章,直接导致外卖员遭遇交通事故的数量急剧上升。这实际上就是由于算法设计的不合理所导致的。算法本身并不是一种价值完全中立的活动,算法设计虽然依赖于数理统计和大数据,但其中也难免存在价值判断,不同的对象、不同的风险所给予的权重是不同的。设计者的局限与偏见、信息不充分等因素会渗入算法系统之中,甚至开发者和设计者本身也未必能够意识到。
就行政活动而言,算法行政将导致专家意见的主导地位让位于数据和算法,软件编码和统计操作趋向于取代法律规则的现实困境。以往,行政主体在进行行政裁量时,特别是涉及行政领域重大问题的行政裁量时,往往会听取专家意见,但是如果数据和算法在行政决策咨询中占据主导地位,那么算法偏见与歧视必然影响行政决策的公平性与公正性。特别是,由于算法具有形式上的中立性,算法之中潜藏的偏见和歧视并不是行政公务人员能够轻易发现的,只有出现严重后果后才能引起行政主体的关注。同时,有学者认为,根据以往行政经验所积累的数据并结合其他重要因素,将行政裁量基准提前在电脑程序中予以设定,能够促使裁量行为更为精准[30]。固然,算法作用于行政裁量从形式看确实能够促进裁量基准更为公平,但是就实际行政实务而言,裁量基准设置的格次大小、裁量的社会效果以及伦理问题等这些都是算法程序所无法解决的。以行政处罚为例,罚款处罚往往还需要考虑相对人的经济承受能力并且要遵照处罚与教育相结合的原则,而这些都是算法行政所无法达到的。行政自动化带来个案正义的丧失,以及事后修正所带来的行政成本的增加,这些问题都是需要进一步探讨解决的。
(二)自动化技术所带来的行政程序权利侵蚀
人工智能所带来的自动化技术无论是对行政相对人的实体性权利,还是对程序性权利都带来了挑战。例如,现实行政执法中的自动化技术,虽然显著提高了行政执法效率,但是也带来行政处罚执法密度的失衡。在杜宝良案中,由于当事人在同一地点被电子监控反复抓拍105次,交通执法部门对其处以罚款10500元的行政处罚[31]。但相比较来说,自动化技术所带来的程序权利侵蚀问题更为突出。由于行政程序的建构都是围绕作为“活着”的自然人展开,而非自动系统的机器,因此面对行政行为过程中“载体”的变化,传统的行政正当程序受到新的挑战。
首先,自动化行政导致听证程序的缺失。在行政活动涉及行政相对人的重大利益时,行政主体在进行行政裁量时,遵循行政正当程序原则,应当听取相对人的意见,从而平衡行政行为所关联的利害关系人的利益,维护法律的正义价值。以《中华人民共和国行政处罚法》为例,在第三十一条、三十二条中,对告知、陈述、申辩、听证等程序制度进行了具体规定,而诸如此类的具体行政程序在保护行政相对人权益、限制行政权等方面具有重要作用。然而,人工智能系统自动化却带来此类程序在具体行政活动中难以适用的困境,更确切地是说是自动化行政导致听证程序的缺失。德国联邦《行政程序法》虽然免除了行政主体的听证义务,但是仅仅局限于简单可重复的行政行为。
其次,自动化行政导致说明理由等程序性制度在时间上向后推移。说明理由作为良好行政的基本要求,有助于实现程序性权利的工具性价值与非工具性价值[32]。人工智能自动化情境下,由于算法针对特定的事项,不针对特定的人,在信息输入进行识别和分析之后,就能按照算法程序输出确定的结果。但是,这一过程中,无法像以“人”为中心构造的行政程序一样,说明理由能够与行政活动同时进行。类似的说明理由、陈述申辩等程序只能从事前、事中向事后推移。这种推移,一方面可能会因为时间的延后,无形之中增加行政的时间成本和物质成本;另一方面,此时行政行为可能已经生效,通过事后的沟通能否达到事前沟通的效果值得怀疑,特别是在负担性行政行为之中则更难实现。
当然,自动化技术所带来的程序权利侵蚀并不意味着不能通过新的程序设计进行弥补。比如,交通执法过程中,自动处罚系统对违法行政相对人的行为作出处罚,在自动处罚系统获取证据之后,按照算法参数就能自行决定做出处罚决定。此时,可以通过网络、短信等方式发送通知,如果相对人不服,可以提出申辩,要求人工介入。由于自动化技术对程序的挑战是多方面的,包括听证、调查、阅卷等多种程序性权利,因此如何设计此类弥补性程序,将成为一项挑战。
(三)行政行为司法审查面临“知识匮乏”的困境
行政裁量并不是纯粹的行政主体的自由行为,也要接受司法审查,这一点无论是在实务界还是学术界都已经达成共识,问题的关键是司法审查给予行政裁量的尊重程度该如何把握。伴随着行政专业化越来越强,司法审查常常面对专业知识审查时的难题,而人工智能技术的发展无疑更增加了这种难度,作为外部监督的一种方式,很可能已经面临“知识匮乏”的现实困境。
一方面,人工智能技术与行政领域专业化的深度结合增加了司法审查的难度。人工智能行政的核心是算法,算法能否成为审查的对象?虽然有学者指出,算法可以被审查,但是面对复杂的算法规则,司法机关有能力进行审查吗?如何判断算法是否尊重法律规范?特别是在算法缺乏透明性的情况下,如何对其进行审查[33]?行政的领域划分越来越细,专业性程度越来越高,而人们又将技术与行政的专业性深深地捆绑在一起,这无形之中导致司法审查行政行为合法性和合理性的难度加大。并且,技术是否完全中立并不能得到证立,破解技术中立难题依然是法律面临的重大挑战。尽管在美国有学者试图用“技术性正当程序”来解决这一问题,寄希望于通过编码公开、软件测试和评估程序等手段来实现问责的目标[34]。但是关于编码的理解,即使编码能够得到公开,其审查的难度也相当大,必须借助专业技术才能够对编码程序进行解读,而公众能在多大程度上接受这种解释恐怕也是未知之数。
另一方面,人工智能技术导致行政裁量责任归属难以确定。在自然人作为行政行为的载体时,行政行为整个过程中的责任归属是比较清晰的,但是在人工智能的情境下,则带来责任归属上的难题。在行政主体与行政相对人的法律关系中,无论是作为自然人的公务员,还是人工智能系统,都仅仅是行政主体开展行政活动的载体,行政行为的法律责任主体都是行政主体,由行政主体对行政相对人承担法律责任。这一点在理论上已得到证立。不过,问题在于,人工智能情形下,作为行政主体的行政机关在承担法律责任后如何进行内部追责?在德、日等大陆法系行政赔偿制度中,行政赔偿的原因可划分为公务员违法侵权的“人的行为”、公共设施设置和管理“物的瑕疵”两类。究竟将人工智能归为哪一类呢?由于人工智能与一般的静态的公共设施差别较大,归为哪一类恐怕都不合适,存在难以周延的矛盾。人工智能技术带来的责任归属困境,或许需要另外建立一套归责体系。
五、结语
正如美国资深人工智能学者钱德拉赛拉克所言,“近些年,人工智能在很大程度上集中于统计学和大数据。我同意由于计算能力的大幅提高,这些技术曾经取得过某些令人印象深刻的成果。但是我们完全有理由相信,虽然这些技术还会继续改进、提高,总有一天这个领域(指AI)会对它们说再见,并转向更加基本的认知科学研究”(5)。当前所有人工智能的探讨都是建立在大数据的数理统计基础之上,而以此为出发点,人工智能无论如何也不可能拥有人的“自主意识”和“心性”,因此人工智能与“人”存在本质上的区别。就人工智能与行政裁量的关系而言,有无意思表示能力虽然并不影响行政行为的证立,但是受制于行政裁量内在构造结构的制约,当前的人工智能仅仅能够在简单且重复性强的行政活动中,基于行政裁量基准提前预制算法程序辅助人工进行行政裁量。因此,我们可以得出结论:虽然人工智能对行政裁量治理提出了新课题,但是当前基于人工智能主体资格论的行政裁量并不存在。科学技术作为一种工具理性的存在,仅是达成目的的手段,它无法证明目的的正当性。在人类可理解的人工智能范畴内,作为一种科学技术存在的人工智能,始终无法逃避伦理的约束,或许这才是人工智能与行政裁量所面临的根本性哲学问题。
注释:
(1)据不完全统计,北京大学、清华大学、中国政法大学、浙江大学、华东政法大学、西南政法大学、东南大学等国内诸多院校都开始设立人工智能法学院、法律与大数据研究中心等学术机构。
(2)目前,我国台湾地区法学界也有对人工智慧的关注(台湾地区一般称人工智能为“人工智慧”),但更多的是探讨人工智慧医事法律问题与刑事法律问题,从行政法角度研究人工智慧的并不多见。行政法学者李建良主编的《法律思维与制度的智慧转型》也主要是基于法理学角度的分析。参见李建良:《法律思维与制度的智慧转型》,元照出版公司2020年版。
(3)参见2017年修订的《德国联邦程序法》第35a条。
(4)此处“行政行为”是就具体行政行为而言的,不包括抽象行政行为。
(5)这段话来自中国科学院陆汝铃院士的转述,钱德拉赛拉克教授曾在给陆汝铃院士的来信中提及此观点。参见周志华:《机器学习》,清华大学出版社,2016年版序言。