人工智能司法的法理逻辑与决策限度
2023-01-06韩世鹏
韩世鹏,秦 勇
(中国石油大学(华东) 文法学院,山东 青岛 266555)
近年来,我国借助后发优势,利用人工智能、大数据、云计算以及区块链等新兴技术不断赋能司法实践。学界一方面对智能司法审判改革进程如此迅速感到惊奇,另一方面则对算法推算的判决结果产生了普遍的质疑与担忧[1]。所有的担忧与质疑主要集中在现有的法律规范与技术伦理难以应对智能审判系统带来的模糊性、非指涉性风险。在此背景下,如何廓清人工智能介入司法审判的法理逻辑以及明确智能司法的决策限度成为亟待解决的现实问题。基于此,拟从人工智能介入司法审判的合法性、合道德性以及合理性三维角度出发,实现对智能司法运行的正当性证成;同时,在权力、责任、主体等方面为算法决策划定严格的界限,以期对我国智能司法治理有所裨益。
1 人工智能司法的功能探析
随着智慧司法运动如火如荼地开展,传统司法模式的弊端也逐渐显露,如繁杂重复的卷宗审查不仅会引发法官们的心理焦虑与身份认同危机,超期限的拖延也会让诉讼当事人丧失对公平正义的合理期待。相比之下,智能司法系统的效率化、自动化以及精准化的优势逐渐凸显,具体而言:其一,优化配置司法资源,提升审判效率。由于案件分流机制不健全、诉讼费用调整、司法人才断层等因素,各地司法系统不同程度存在“案多人少”的紧张现状。智能司法系统可以大幅提升收案率,同时降低案件积压率,将法官从重复冗杂的工作中解放出来,使其可将更多精力投入到更重要的庭审、合议等阶段。
其二,数据全面筛查,避免冤假错案。人工智能办案系统对相关性的权重配比较高,可以根据证据之间的内在逻辑形成证据板块,参考不同诉讼阶段对证据标准的要求嵌入司法系统,从而引导侦查人员、审判人员重点审查关键证据。此举不仅可以保证证据的稳定性、同质性以及完整性,还能避免因审判人员对客观事实的主观偏见而可能引发的冤假错案。
其三,规范司法流程,防止司法腐败。人工智能将司法系统转变为一个动态化的、可被全程监督的过程,可以有效规范司法人员的办案行为,从而避免人工操作可能触发的潜在风险。同时,智能司法系统能够有效消解法官恣意带来的腐败行为,压缩“金钱案”“人情案”的生存空间,保证司法审判的实质公平与正义。
综上,人工智能的正向价值在司法领域逐渐得到全面的发挥与利用,这也意味着智慧司法将不断强化诉讼过程中的民主沟通与实践理性[2]。而若加速实现这一点,必须结合社会中的自然理性与法律世界中的逻辑理性,设计出智能审判系统的法理架构。事实上,人工智能诞生至今仅短短几十年,而法理学对法学研究以及法律方法的指导却长达数百年,因此,运用法理学充实人工司法审判具有深厚的历史底蕴与规范的适用逻辑。
2 法理辩疑:基于合法性、合道德性与合理性的三维思考
智能司法的本质是功能替代与功能实现问题,其所依据的是形式理性主义下的实践哲学,因此,在法理层面——合法性,合道德性以及合理性完全可以支撑其场景化应用。
2.1 人工智能司法的合法性辩疑
自人工智能诞生以来,关于其应用司法场景的合法性讨论便从未停止。具体而言,学界对人工智能决策的合法性质疑主要体现在以下三个层面:其一,司法权力产生与运行的合法性危机。一方面,人工智能司法决策难以契合司法权力来源。司法权的源流与法律具有同期性,但完整形态的独立的司法权则是近代法治社会国家权力分立的结果[3]。亚里士多德第一次阐释了司法权在权力分立宪政制度中的结构特征[4]。孟德斯鸠则将立法权、行政权与司法权系统性地总结为三权分立学说,该学说逐渐演化为现代国家政治制度的基本运作模式。司法权的一系列子权力由法官代为行使,其权力行使资格及范围均有法律予以规定。人工智能审判系统只是技术场景化应用的结果,自身并无赋权依据。因此,就权力来源而言,智能司法决策的合法性存疑。另一方面,人工智能司法决策背离了司法权运行的独立性特征。司法权并没有直接依附人民主权至上的法理基础,而是强调法律精英适用法律裁判事实的审判权,这就意味着司法权只是个人判断而非公共判断。保证个人裁判的前提便是保证权力行使的独立性,这种独立性不仅要求法官的个人意志不得受外界干扰,也要求整个司法系统不得随意受其他行政机关的掣肘。人工智能审判系统作为一种场景化应用的技术,必然会受到算法设计者、数据提供者的影响甚至操控,一旦技术精英牵引司法权力,将不可避免地消解司法权的独立性与权威性[5]。
其二,人工智能司法决策归责的合法性危机。2015年,《最高人民法院关于完善人民法院司法责任制的若干意见》确立了法官办案质量终身负责制和错案责任倒查问责制。这一规定将使法官处于被问责的惶恐之中,从而倒逼司法行为规范化[6]。不同于法官,人工智能审判系统精于多维抽象与关联计算,忽视自然伦理与因果关系,无法保证每个案件均能得到稳妥熨帖的处理,经常会陷入概率论错误[7]。而且人工智能审判系统既无可惩罚的肉体也无可谴责的灵魂,容易引发责任真空,从而架空司法权的权威性与公信力。可见,人工智能司法决策存在着归责的合法性危机。
其三,人工智能司法决策的主体合法性危机。有学者担忧人工智能审判系统会物化法官的神圣职业,引发法官的主体性危机[8]。算法时代下,法官的主体性危机体现在两个方面,一为人工智能高度人格化会威胁法官的道德主体地位,一为法官对人工智能辅助工具过于依赖会威胁法官的法律主体地位。具体而言,一方面,人工智能审判系统的道德主体威胁。强人工智能时代下,人工智能能够产生自主意识,具备赋予法律人格所必需的自我意识与理性思维。因此,彼时的机器法官完全能够取代自然人法官成为法庭的统治者。另一方面,即便在当前弱人工智能的社会中,人工智能决策也展现出了其远超人类的效率与精确。这种便利极易诱发法官的主观惰性,将会使法官自动无视类案之间的细节差异,甚至完全放弃自身主观能动性的发挥,过度参考辅助审判系统的意见而定案。如此,法官的裁决将变得廉价,法官的精神世界(包括法官的尊荣感、使命感以及认同感)也将会“荒芜”。
不可否认,上述质疑确有一定的合理性,其窥探到了人工智能司法系统可能引发的合法性危机。但上述理解并没有深入挖掘人工智能介入司法的运行机理,只是简单地认为人工智能是法官的替代者,不经意间走进了形而上的理解误区。事实上,人工智能介入司法领域有着充足的合法性依据。
首先,算法决策并未侵蚀司法独立权。恰恰相反,人工智能决策在某种意义上规范了司法程序的运行,巩固了司法权力的独立性。一个典型的例子便是智能审判催生了司法权力的反全景敞视主义。似乎受勒沃设计的凡尔赛动物园的启发,英国功利主义思想家边沁构思了一种独特的环形建筑——全景敞视监狱[9]。该建筑正中心的瞭望塔可以通过逆光效应观察四周囚室内的一切活动,每个囚犯都是茕茕孑立且一览无余;而处于瞭望塔内的监督者则“隐藏了光线”,时刻保持着警戒与窥视。如此,横向的不可见性与纵向的可见性形成了分解观看/被观看的二元统一体机制,此种机制保证了权力持续稳定的运行,有助于对囚犯的实验、规训、改造与惩罚。与之相反,人工智能营造了去中心化、透明可视的审判环境,同时打破了俯瞰式、等级化的权力配置,消解了全景敞视主义下的有限可视(即传统审判过程中因物理条件限制而导致的举证、质证方面的障碍)。具体而言,人工智能赋能下的司法审判体系,不仅消弭了时空的限制,使得审判人员以及诉讼两造足不出户便能身临其境[10];还能避免法官这一“控制节点”权力过于集中而导致的寻租风险,从而实现审判全程的对称透明与平向可视[11]。
其次,相比于自然人法官出现审判错误,人工智能的审判错误更容易被发现和改正。原因在于,自然人法官基于职业与利益考量,往往会通过合法(或不合法)的方式掩饰错误,以至于权力寻租、司法腐败一度蔓延。反观人工智能审判系统,外部技术人员只需对系统进行数据审查以及算法检视便可轻易发现错误原因,进而通过更新数据或者修改程序实现永久修正。因此,人工智能相较于自然人法官,更容易避免冤假错案。
最后,法官无须对自身的职业前景担忧,所谓的“人工智能取代论”只是将基于以往经验和假象所形成的群体情怀等价于有效的价值判断,从而形成了庸人自扰的情绪化表达。事实上,机械运行的智能并不等于承载于血肉之躯的智慧,因为审判经验是一种十分精妙、柔性且难以理解的能力,它不仅需要法官利用专业知识从利益交错的社会纠纷中寻找为法律评价事实,还要求法官充分利用生活经验、审判技巧、语言艺术、道德信仰等隐形能力综合考量,为每类案件选择合适的法律适用进路,从而作出真正有温度的公正裁判[12]。因此,尽管人工智能司法审判系统能对证据合法性、证据逻辑性进行审查与校验,甚至能代替法官比对证据链条,提出裁判意见,但其终究是形式理性下的简单评判,诸多复杂、疑难案件中的实质公平与正义仍需要法官进行把握与衡量。
2.2 人工智能司法的合道德性辩疑
人工智能司法决策究竟能否与公认价值取向相一致,尤其是否符合正义评价标准,取决于正义价值在智能审判系统中逻辑运算中能否被证立。
反对人工智能司法决策的学者认为人工智能司法决策无法实现司法审判程序正义与实质正义。
一方面,人工智能司法审判难以实现程序正义。在卢米斯案中,美国智能评估软件COMPAS 被广泛应用于犯罪风险评估等司法场景,被告卢米斯对该软件的累犯评估结果表达了异议,其认为法院对COMPAS 的过度依赖忽视了自身的正当程序权利[13]。原因在于COMPAS 使用的数据是基于特定群体而非自身的精确信息,因此卢米斯要求公开算法逻辑,但被最高法院以保护商业秘密为由予以拒绝。可见,美国法院对卢米斯上诉的回应事实上是对程序正义(正当的程序权利)的忽视。
另一方面,人工智能司法决策难以保障实质正义。实质正义是经验理性与逻辑理性的结合,而非单纯的技术推演与深度模拟,更非简单的相关性的概率计算。实质正义在司法决策中主要体现在法官对诉讼两造的公平对待,避免先入为主的偏见与歧视。现实中,个体层面的内隐偏见与社会层面的结构性失衡是诱发持续性歧视的主要原因[14]。遗憾的是,人工智能无法识别夹杂着设计者偏见的数据,也无力拒绝、修正歧视性算法程序的技术谱系。这就意味着原有的偏见与不平等将被数据化与代码化,并成为算法决策的基础,进而输出歧视性结果。例如,侦查人员对具有犯罪前科人员的不合理的监视与怀疑;犯罪评估系统作出的未来犯罪的可能性评价,黑人比例往往是白人的数倍;法官对累犯犯罪情节不经意的放大等,均是司法歧视的外在表现。而包裹着算法外衣的歧视性表达更具有伪装性与隐蔽性,对司法伦理的冲击也更加猛烈。
上述担忧确实有一定合理性,但并非不能解决,比如当前学界讨论颇为热烈的算法解释权可为算法黑箱、算法歧视等提供不错的参考思路。
源于欧盟《通用数据保护条例》的算法解释权可以成为人工智能决策的正义性基础。根据对条例的规范解读,算法解释权是指算法相对人要求算法设计者、使用者提供自动化决策的运行逻辑以及可能产生的重大影响等信息的权力。算法解释遵循“权利制约权力”的控权逻辑,通过赋予数据主体提升算法运行的透明性,有利于实现数字时代下的程序正义与实质正义。一方面,算法解释有助于实现主体平等。算法解释可以促使信息从优势方向劣势方流动,从而实现双方信息资源掌控的总体均衡。另一方面,赋予相对人算法解释权也是对原本不平等法律关系的纠偏,使其回归至平等、均衡的民事主体关系。
可见,算法解释权的请求权基础不仅取决于重塑技术伦理的价值功能,在赋权逻辑与回应现实需求方面也具备独立配置的可行性与可欲性。因此,大数据时代下,面对因算法歧视、偏见以及错误决策引发的司法难题,算法解释权通过提升算法透明性,明确算法自动化决策主体性、因果性以及相关性的逻辑关系,进而构建算法决策的归责机制,具有应然层面的正当性。
2.3 人工智能司法的合理性辩疑
逻辑崇拜与概念支配一直是潘德克顿学派的标签,其曾经一度让德国目的法学家耶林忠诚且长久地信奉[15]。但罗马法所开创的古典形式主义在面临现代社会转型时遭遇了强烈冲击,正如马克思·韦伯在界定司法形式主义时提出的著名隐喻:“现代的法官是自动售货机,投进去的是诉状和诉讼费,吐出来的是判决和从法典里抄下来的理由[16]”。自此,学究式的逻辑三段论被不少学者所诟病。如若暂且抛却概念法学,谁又能以一种合理的姿态介入司法裁判呢?对此,霍姆斯强调:法律的生命不是逻辑,而是经验[17]。道德观念、政治决策、自然价值甚至是社会偏见在司法审判中发挥的作用远远强于僵化的三段论。对此箴言的含义,国内法学界,特别是司法实务界的主流理解是“反形式主义的实用主义法学”,实践中更是长期用它来为诸多带有工具主义色彩的“社科法学”“结果司法”“能动司法”“大局司法”背书,这其实是天大的误解。霍姆斯并非古典形式主义的掘墓人,而是现代司法形式主义的开拓者。原因在于,霍姆斯仅是将公共政策与价值判断嵌入司法中,进而通过经验拓展了规则的丰富内涵,其并没有坚决地反对司法三段论的适用。因此,在霍姆斯的眼中,三段论仍是司法之本,只不过为了应对现代社会转型的需要,亟待加入新的推理依据——经验。
例如,一般认为,简单的案件几乎不会运用到价值判断,价值判断更多的是存在于疑难案件中。事实果真如此?不然。逻辑推理可以排他性的适用一般案件,但逻辑推理对于疑难案件更是必要。虽然,对于极具争议的案件,不会仅仅因为三段论而放弃解决生活的智慧,而是尝试运用超越实在法的规则可以对法律漏洞进行修补,实现公平正义价值。但此处的超越实在法的规则并非法官司法权力专断的体现,其仍应当受到法教义学规则的约束,使得判决在保证正义性的同时不至于抛弃合法性。
可见,当前的司法实践仍应当坚持形式理性,如此,关键的一点是,智能审判系统究竟能否实现工具理性与司法形式主义理性的耦合?这是可能的,原因在于深度模拟与自主技术为价值数据化提供了条件。具体而言,计算机学家根据大脑运作的基本原理,设计出智能决策系统,该系统通过对数据进行搜集、分析、评估以及权重配比,实现效应输出。从某种意义上说,智能司法系统便是人工智能模拟人脑的初级成果[18]。深度学习技术是指人工智能依托大量的司法数据,运用卷积神经网络和递归神经网络对司法逻辑思维(主要指形式逻辑,如三段论等)进行深入学习。在此深度学习过程中,人工智能审判系统会将法律文本、司法案例、逻辑思维解构为可被程序运算的二进位制代码,然后建构标准化的处理机制,最终形成类人化的神经网络模型,实现司法产品的精确稳定输出[19]。
3 人工智能司法的决策限度
如前所述,智能司法系统在合法性、合道德性以及合理性三个维度具备介入司法的正当性。尽管如此,对于智能司法系统我们还是应当保持一种慎之又慎的态度,即智能审判系统的运行应当坚守必要的原则与底线。
3.1 权力限度:审判权不可让渡
将人工智能应用于非审判场景,如案卷的整理、类案的查询等,可以将法官从繁重的、重复的、非核心的工作中解放出来,实现案件分流,提升效率。一旦越过审判的边界,便会产生诸多问题。典型的一个例子便是人工智能司法审判对证据处理的能力存疑。原因在于,传统司法模式下,证人、证物通常是以碎片化的方式出现的,这就意味着诉讼两造可以选择有利于自己的“案件理解模式”,并就实现有利结果而交锋。法官的作用便是在相互冲突的举证质证过程中,利用自己对法律规则以及生活经验的理解,选择更为可信的一方并作出判决[20]。从这里也可以看出,司法的权威并非仅来源于政治国家的强制,还来源于诉讼两造的同意以及基于同意的自愿执行[21]。智能审判系统虽然可以依据数据化的证据进行自动化确认与相关性分析,但所谓的自主性只是在既定目标的执行层面,而非目的生成层面;而相关性则是附带随机性特征的概率逻辑,对模糊性的证据材料缺乏足够的辨别性与包容性[22]。长此以往,司法涵摄将成为审判实践的绝对主宰,民族精神、文化积淀、历史传统、风俗习惯、价值观念等不再有可适用的空间。法律论证绝非简单地利用涵摄技术实施某些权威材料,它的必然性来源于权威材料——法律规则的开放结构[23]。尤其是在刑事司法裁判中,人工智能如何能模拟法官的内心心证?又如何能理解排除合理怀疑的证据标准?可见,人工智能审判系统会无限放大法定证据的制度优势,同时也会无限放大法定证据的原生缺陷。
法院作为连接公平正义与公众舆论、社会需求的桥梁,不仅要保证程序规范,还应助力实质正义。如果制度建构得不到社会伦理认可,即便此种技术能够提升效率也无益于失范状态的改观。长此以往,最终的结果往往是,人们试图通过技术改变司法结构的行为不经意间巩固了原有的结构。因此,为避免技术决策替代法官决策,丧失司法的亲历性、权威性与独立性,应当为人工智能审判系统划定合理的边界,即审判权不得让渡。
3.2 责任限度:法官仍是责任主体
即便是摒弃了权力寻租风险的智能审判机器,也可能因为带有“偏见”的数据的输入,而作出非正义甚至是错误的判决,由此便引发了审判责任的权属与分配问题。审判责任仍应归属于法官,理由如下:
首先,赋予人工智能法律人格理由不足。一方面,人工智能的自主意识不同于自然人的理性思维。人工智能的自主性只是基于源程序设计及演化,缺乏对自身行为的真实理解,其行为并不具备法律评价意义。而且,人工智能无论如何都无法取得社会学意义上的身份与财产,不具备成为法律主体的物质性条件,更无法做到理解与遵守规则。因此,人工智能难以符合法律所接受和关怀的理性人的定义。另一方面,法律拟制技术同样无法赋能智能司法。如果揭开法人的面纱,便会发现法人是基于人的意志而设立的特定组织。而人工智能缺乏意志集合的事实基础,不仅难以像法人一般独立运作并产生社会实益,更会丧失“服务人”的拟制目的,有导致人的“贬值”之虞。因此,借助“非人可人”的法律拟制技术,转而走向外部赋权的路径同样存在不可逾越的法理障碍。
其次,将智能审判系统作为审判责任主体容易催生法官惰性,甚至导致机器责任成为法官错误裁判免责的专有名词。一旦激发法官的主观惰性,将会使其自动无视类案之间的细节差异,甚至完全放弃自身主观能动性的发挥,过度参考辅助审判系统的意见而定案。如此,法官的裁决将变得廉价、易得且缺乏司法理性。而当错误裁判引发司法、社会舆论时,部分法官完全可以将智能审判系统作为免责的正当事由,规避可能遭受的审判责任。
最后,法官仍是审判责任的承担主体。在厘清智能审判系统无法承担审判责任的基础上,当前一个重要的问题就是,对于因利用智能系统而造成司法错判的审判责任,权属与分配规则又是如何?智能审判系统错误决策的责任主体应当包含法官、法院甚至是国家。原因在于,无论是法官、法院还是国家都对智能审判系统进行了一定程度的控制,并参考智能审判系统的分析数据,并且上述主体清楚地知道自己信任智能系统的可能后果。因此,法官、法院以及国家均可以被当作理性人对待。对于具体的权责划分,以法官为例,可以“控制距离”为标准,即区分场景与程序,根据法官实际运用智能审判系统的程度,甄别并计算法官的审判责任。
3.3 主体限度:强化法官主体地位
如果消解了钢铁结构与血肉之躯在功能层面的不同,是否意味着人工智能可以代替法官成为司法审判的主导力量呢?恐怕不能,事实上,人工智能难以复刻对生活经验的洞察力与敏感度,其功能主要体现在对人类极限能力的拓展,无论这种能力是体力活动还是脑力活动,都不会影响人类的独立主体地位,甚至愈发明显的司法形式主义也会减损法官亲历性的价值。因此,智能审判系统未来发展的方向是人类司法决策的辅助工具,其所承担的工作任务也仅限于案件数据的归纳整理,而非适用法律。
对于如何强化法官的主体地位,彰显智能算法系统的辅助工具本质,当前可以从以下两个方面着手。一方面,建立对智能审判算法的评估机制。相关主管单位应当设计严格的标准,并将此标准应用于数据挖掘、算法分析、权重配比、判决输出的全过程。评估机制不仅可以增强智能司法的公开性与透明性,帮助公民了解智能司法的规则设置,从而消除“算法黑箱”的质疑与恐惧;还可以引导法学、计算机科学、社会学家、司法人员以及普通公众的多元参与,增加法官的亲历性,提升智能司法的科学性与精确性。如此,作出的裁决也更容易被诉讼当事人接受,维护了司法公信力与权威性[24]。另一方面,完善司法数据库备案与伦理审查。司法部门应对算法定期进行更新,建立综合法学、伦理学、计算机科学等多元学科的技术伦理审查机构,审查内容为祛除带有偏见的数据,从而保证裁判结果的公平与公正。
4 结语
人工智能在法律领域的发展之所以引发诸多讨论,一个非常重要的原因就是学界未能对人工智能法理层面进行深度思考,以至于制度构建者多,法理省思者少。当然,我们无力抗拒也无意抗拒人工智能对司法领域的场景化应用,但我们应对两者的结合保持应有的理性,防止形式技术对司法实质正义的曲解与异化。司法审判是公共授权的自然结果,人工智能只是公共事务的辅助工具,因此,智能司法系统并未改变传统司法的权力格局。同时,为保障法官的主体地位以及审判责任能够落到实处,当前应明确智能司法系统的主体与责任限度。相信随着技术的不断成熟以及人机交互的不断深化,人工智能在司法领域的重要作用将愈发凸显,终将成为司法发展的强大推力。