司法裁判中人工智能应用的限度及规制*
2024-01-02张玫瑰
张玫瑰
(郑州大学法学院,河南 郑州 450000)
数字时代,5G、人机交互、AI、区块链、大数据等数字智能技术潮流涌现,成为数字空间的基础性技术,以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景,[1]极大地改变了信息获取、人机交互的方式。数字时代的发展逻辑,必然颠覆传统的社会治理模式,已经突破了现代性的国家/社会的二元框架和法律—伦理—宗教三元规范结构。[2]司法领域也是人工智能技术应用的重要场域,智能技术与司法裁判的融合为司法创新性发展注入了前所未有的动力源泉,推进数字社会法治建设进程。
一、人工智能嵌入司法裁判的理想图景
随着社会的变迁,尤其人类现代技术的出现,传统的“司法生产力”已无法满足民众的诉讼需求,司法裁判转型需要直面传统诉讼的痼疾,这也是司法领域对人工智能技术的渴望。人工智能技术的赋能使得司法流程自动化、便捷化,降低社会大众跨进司法的门槛,更大程度实现正义可视化,并且打破传统诉讼中参与司法活动的资源、时空等方面限制,使得司法活动能够更广泛地渗透社会有机体。司法裁判开始对人工智能技术应用赋能产生极大期望。
(一)技术赋能司法创新发展
“司法现代化”是法治建设的重要组成部分,也是国家治理现代化的关键内容。它不是单纯的司法体系的自身建设,而是要从经济、社会发展的时代背景下、司法体制的变革来实现的。[3]拓展人的智力,让机器可以了解语言,产生抽象思考,开发出与人智力相似的智能系统来解决问题。“智能”由此诞生。
数字技术将数字社会中的生产组织方式进行了重新组合。人工智能技术需要依靠大数据、算法和算力的自身条件进行发展,而司法活动本身就是一个动态博弈的过程。在庭审中,控方和辩护人通过罗列证据、举证质证,说服法官做出对自己有利的裁决。从理论上来看,司法人工智能通过输入控辩双方提供的大量证据信息进行分析计算,如果输入的信息越多、量越大,则将越不断逼近”案件真相”。
随着人工智能技术的不断发展,算法愈发完善,数据分析能力也得以提高。强调思维结构的集成作用,许多小型的、内部关联的子系统,在分别对法律推理的要素(法律查询、法律解释、法律适用、法律评价、理由说明)进行仿真时,再通过联想程序将它们有机地连接在一起,从而形成完整的法律推理系统。从生成式人工智能的技术原理看,其在司法领域有广阔的运用空间,从而改变了诉讼和裁判的方式。
(二)数字形式实现司法程序公正
数字社会依靠数据信息来掌握和控制社会利益,并且根据技术赋能来分配利益,形成了一种全新技术赋权观,社会的管理模式和价值理念面临前所未有的全新挑战,社会也迫切需要全新的技术规制策略。
在司法裁判中,人工智能技术的嵌入,使得司法程序规则以代码化形式出现,以简洁客观的代码数字公开,以形式化的推理语言演绎着审判进程,并以线性的程序样态推进司法流程。社会大众满足了充分参与司法活动的诉求,弥补并获得经验性知识的不足,社会成员的法律素养实现“扫盲式”的普及,各类纠纷,从人与人的交往开始到矛盾的产生及最终化解,民众个体甚至于对于一整套的司法流程及其所涉知识都能轻易了解,选择最优策略,实现行为决策和对纠纷化解的应对。实践中我国已有部分法院针对性解决了刑事案件办理程序不规范、证据标准适用有差异的难题,如上海高院指定多家基层法院各自专项完成委派的一类罪名的证据标准,最终研发的“上海刑事案件智能辅助办案系统”,在刑事司法办案机关的数据化办案系统中嵌入了统一的证据标准。实践中具体的办案人员在办案过程中要严格按照证据标准执行工作,人工智能技术运用于司法裁判为司法正义的高效实现作出了积极贡献。人工智能正越来越多地被开发和用于预测法官将如何对特定事项作出裁决。深度合成的生成式人工智能已经可以制作出特定模型以便司法人员直观地观察和理解证据,可以通过数据整合辅助司法人员或诉讼参与人制作诉讼文书,技术的客观性和直接性使得人们更易于接受裁判结论的合法公正。
(三)约束限制恣意裁判
常见的推理形式就是公开的“辩解”采用R*F=D推理形式(Rule规则*Fac事实=Decision判决),是对演绎逻辑的套用。[4]大部分司法裁判者的裁判过程,主要是用情感和预判在进行,虽然他们不愿意承认,但是很多法官并不是所有程序都是严格按照推理步骤来进行断案。司法裁判是一个决策过程,一个简单的词语可能都会被法律直觉主义影响到,他们更多的是在乎法教义学的内容,表面上是严格按照法律形式主义的方法进行断案。在司法决策中,当人的决策无法彻底摆脱直觉时,更多会关注如何使判决远离恣意的直觉,自然而然就会转向寻求智能机器的帮助。通过机器人法官,能够自动生产判决书,被赋予科学、客观、中立、理性的功能标签,实现了对智能司法最终愿景,实现了法律纠纷解决困局:既能清晰地论证说理,又能保证冤假错案发生率为零。
人工智能使用同种系统,算法推理也统一,因此它能够避免法官因个体差异对案件作出不同的判决,并且由于算法的程序设定,人工智能在司法裁判的过程中,能够客观的根据案件现有的证据建构案件事实。再者,人工智能根据自己所学到的法律和相似判例对案件作出判决的预测,不会受到外部因素的影响,使得案件的裁判更加纯粹、更加客观。[5]
二、人工智能应用的现实场域问题凸显
虽然人工智能在司法裁判领域的应用与传统司法裁判所追求的目标都是一致的,这种价值理念包括对公平的追求、对人权的保障、对秩序的维护,但是人工智能在司法裁判中的应用还是凸显了许多问题。智能技术为司法智能化提供了动力源泉,同时也显露了诸多有限性与不可为。在人工智能的司法适用过程中,我们不仅要对人工智能的发展方向充满信心,同时还要保持冷静理性的态度,以避免“伪人工智能”产品的欺诈行为,同时也要防止人工智能技术造成的误判案件风险与技术壁垒。[6]
(一)算法歧视的根植性风险
算法作为一种新型的数字技术,在许多领域都赶超人类,但并“不是所有可以计算的东西都重要,也不是所有重要的东西都可以被计算”,它自身也存在着一定的局限性,比如算法歧视、算法黑箱、算法错误等问题。[7]“算法歧视”来源于大数据技术应用,其成因主要有“数据缺陷”和“技术缺陷”两方面,随着人工智能应用的不断深入,算法歧视根植于程序之中,其歧视行为非常隐蔽。不仅是司法裁判中,算法歧视的技术风险存在与所有人工智能技术应用领域。
算法思维的固有缺陷。在算法黑箱现象泛滥及数据正义缺失的情况下,我们往往很难发现歧视的存在。由于大数据技术会根据浏览记录、阅读喜好、购买记录等数据分析出用户的隐形特质,从而就轻易得出用户的偏好特点、选择倾向、观念认识等思维判断结论,导致经验上的相关性被算法夸大为必然的因果关系,造成算法逻辑过于绝对,最终导致对少数群体的算法歧视。因该算法歧视问题不仅使算法无法充分发挥其正向效用,还因这种反常规决策通常具有极大的随机性和不确定性,从而也成为大数据科学及人工智能技术推广中不可忽视的障碍,难以从中总结出具有规律性的逻辑思路并形成算法。
算法简化及归类思想与对象异质性存在冲突。人工智能产品的程序设计者通常会先将对象进行分类简化,进而对不同类别群体针对性赋予程序指令,而异质性特征却被忽略。算法的归类简化思想使群体在共性上得到公平对待,但却在特性上受到歧视。
算法设计者存在主观歧视思想。一方面设计者主观认知偏见,若设计者主观上具有偏见思想并在设计程序中将主观意愿及隐含偏见写进算法,甚至于通过有意为之的歧视,完成迅速提供浏览量、吸引用户关注、刺激用户消费等目的,进而为自身创造更大的经济利益。就必然会造成算法歧视问题。
算法歧视的数据瑕疵表现。[8]算法歧视的“数据瑕疵”表现是由于所收集的数据存在瑕疵导致的,算法选取样本分布不均,基础性数据集也是导致算法歧视问题的主要原因。在数据采样过程中若数据来源集中于部分群体,而忽略其他群体,数据来源不统一、不匹配,算法往往仅能捕捉到被采样群体的特征,在利用算法筛选数据时难免会出现偏见,其输出的信息也仅适用于被采样群体。因此,即便算法具有公正的设计思想,但由于基础性数据集的采集缺陷,若所选取的数据样本分布不均,也会导致严重的算法歧视问题。
算法歧视的技术缺陷表现。机器学习过滤标准过松,机器学习算法会在与用户交互的过程中学习用户行为,缺乏严格的信息甄别和过滤功能,算法一旦在这一过程中学习并储存了具有歧视性的信息,则会在其他交互情景中输出带有歧视性的信息。同时算法“黑箱”等信息存在不对称性,大多数算法系统所采用的算法技术均为“算法黑箱”算法使用的数据、分析逻辑等关键过程被算法“黑箱”隐藏,由计算机直接从事物原始特征出发,自动学习和生成高级的认知结果。因算法的非透明性导致算法歧视更加隐蔽,“黑箱”算法对数据主体信息权利造成侵害,导致了歧视和不公平的情形。
(二)侵扰诉讼活动进行
人工智能在我国司法裁判中的应用存在侵扰诉讼活动的运行的限度面向,这种限度可以分解为事实认定和适用这两个方面。[9]在事实认定中体现为难以实现对案件信息的准确提炼、难以完成对证据信息的有效审查,以及难以进行证明标准的量化分析,在法律适用方面体现为无法实现对法律论证和法律解释过程的有效模拟。
不能有效审查证据内容。在证据信息的有效审查方面,考量证据本身的真实性等内部因素并不是唯一的要求,对于社会伦理等外部因素也同等重要。[10]在证据的合法性审查中,存在着大量的线性逻辑判断。因此,在存有大量“是与非”判断的证据合法性审查中,智能系统是有能力实现的。但当智能系统应用关涉到非线性逻辑判断时,限度便显露出来。譬如被告人供述这一证据是否具有证明力,是否是刑讯逼供得来的证据,此时仅依靠智能系统是无法进行判断的,而需要法官非线性逻辑的运用。[11]在证明力的审查中也是如此,欠缺非理性考察因子致使系统无法独自产生内心确信也就无法独立完成对证明力的审查。[12]
难以量化证明标准。就目前的人工智能技术发展状况而言,无论案件性质等同或是证据数量相等,人工智能在认定案件事实时均无法实现对证明标准的量化。证据判断是区别于实验科学和精密科学的一种判断方式,它是裁判者运用其生活经验、司法经验以及主观思维中想象、直觉、归纳等元素的综合过程。[13]智能系统需要认识到人类裁判者的经验是很难被准确地提取出来的,更谈不上区分合理怀疑,这一点是当前难以解决的问题。
没有实现有效模拟法律论证和法律解释过程。就像数学运算一样,法律论证也需要依靠固定规则结构进行。然而,相比数学运算,法律论证的过程更加复杂,对这种推理进行模拟需要耗费大量的算力资源,并且还需要人类使用自己的逻辑能力进行辅助。[14]目前,人工智能主要采用学习算法,建立历史裁判中各个变量之间的模型关系。因为法律论证需要推理、解释法律规则,这比传统学习算法的功能范围更广泛。当待决案件被提交给人工智能时,它会提取出其中已知变量,然后利用已经建立的模型将这些变量输入,并相应地输出一个类似于“裁判”结果的变量。
阐释法律规范从而使得法律规则具体明确,并让法律规则中的事实描述与案件事实无限接近是法律解释的目的所在。[15]法律解释的过程需要裁判者发挥其非理性思维创造性地进行解释,而这正是智能系统的限度所在。智能系统在模拟法律解释过程中由于无法实现对案件事实和意义的准确了解,因而无法模拟法律解释过程。一方面算法的精准性无法完全兼容模糊性的法律规范;另一方面仍然是智能系统无法进行价值判断。尽管如今的人工智能系统已然具备了自主学习的能力,但当然无法期盼其可以做出类似“马伯里诉麦迪逊案”这样的伟大裁决,兼顾法律效果和社会效果显然是它的能力极限。
(三)消弭法官主体地位
受制于智能系统与裁判者在知识结构、潜在能力以及价值判断上的差异,智能系统弱化了法官的主体地位,算法和代码规制显现出权力技术化的特征,纯粹技术化规则适用在固化法官思维、削弱法官自主裁量权以及弱化法官责任几方面表现明显。
固化法官思维。法官思维也属于法律人思维的一种,其运作方式伴随现代技术的出现,发生了诸多变革。有学者指出,大数据时代所带来的最为惊心动魄的挑战,可能在于社会将逐渐摆脱对于“因果关系”的渴求转而使用简单的相关关系,以相关性分析替代对事物的因果分析。[16]传统因果关系的认知模式要求我们在研究事物之间的关系时,必须确定导致事物变化的确切原因,即所谓的“为什么”。[17]
人工智能技术嵌入司法并分享裁判活动后将对此种演绎式的裁判逻辑进行改造,通过数据的深度学习与挖掘、人机协同模式的建立等式实现交互式的裁判直接干预和指引法官思维,法官作为裁判者对于案件具体因素和适用规则不需再进行具体考量,其思维固化于机械推演,缺乏人性的生成式人工智能无法实现对案件中所蕴含的情感、伦理等因素的判断,其作出的裁判亦可能偏离社会大众对于司法正义的一般理解,从而难以被民众所接受。[18]
削弱自由裁量权。人工智能技术尤其是生成式人工智能的运用具备相当的创造能力、显著的效率和生产力,带来了裁判方式的变革,尤其是裁判权的割让。传统上,裁判权由法官独占是诉讼的基本原理,但人工智能特别是生成式人工智能在司法领域的运用改变了此种样态。生成式人工智能是基于概率模型的人工智能技术,其基本逻辑是通过数据训练学习潜在分布规律而形成新数据的。相较于判别式人工智能,生成式人工智能更具有主动性和创造性。
2023年1月,哥伦比亚法官胡安·曼努埃尔·帕迪拉·加西亚承认其用 ChatGPT 撰写了一个涉及自闭症儿童医疗保险费用支付的判决;2023年3月,印度旁遮普邦和哈里亚纳邦的一个法院在审理谋杀案的被告人是否可以获得保释的问题时向 ChatGPT最新版本 GPT-4询问“被告人残忍伤害他人而获保释的法律依据”,而 ChatGPT回答保释需考虑犯罪的严重性、被告人的犯罪历史、案件的证据强度等,在参考ChatGPT的意见后,法院拒绝了被告人的保释申请。[19]可以看到ChatGPT 等生成式人工智能对于案件最终裁判结论的作出有了极大的话语权和决定权,已经获得了从人类法官处所割让的部分裁判权。
(四)阻碍司法价值实现
生成式人工智能并非与司法毫无关系,随着数字司法、智慧司法改革的推进,包括生成式人工智能在内的各类人工智能工具在司法领域的运用必将越来越常见,其介入程度也将越来越深刻。
司法的价值和重要功能在于弥补立法和社会之间的缝隙,在社会变革期间尤其如此。[20]大数据和人工智能在司法裁判和司法治理领域的广泛应用为司法实践带来了积极的效应,同时人们对于正义的实现状态产生了一种误解,认为正义一定会以看的见的方式实现,但是实际上,算法和法律不能混为一谈,法律的范围是有限的,算法更不可能被归于法律之中。[21]
从价值层面来说,需要以沟通、共识为基础,对于数字法治的价值重新作出判断,并确立全新的价值,司法程序的正规化、技术和专业的发展并不符合一些社会成员参与司法程序的实际可能性。在智能技术与司法融合的概念出现之前,审判流程的优化升级做法主要集中于对审判事务进行科学的分工。[22]
三、人工智能应用限度考量的正当性基础
在人工智能的司法适用中,我们不仅要对人工智能的发展方向充满信心,同时还要保持冷静态度,以避免“伪人工智能”产品的欺诈行为,同时也要防止人工智能技术造成的误判案件风险与技术壁垒。[23]
人工智能应用于司法裁决的合法性和公正性如今尚未有明确的理论归属,但对其应用限度的正当性基础却可以到的明确考量。司法理性是法官在司法活动的过程所具备的利用法律方法理性推断和分析的能力,是法官在大量的司法实践中总结和积累起来的。理论界和实务界对于“我们究竟可以在多大程度上让与人工智能以空间”这一问题提出了自己的理解与看法。这些研究结论为人工智能司法理论、技术和应用的科学性和可行性提供了理论基础,其蕴含的内在法学理论基础为智能裁判的理论研究和实践应用奠定了基础。
(一)技术理性与经验理性之间的冲突
智能司法通过代码对人的行为进行规范管理,嵌入代码的法律价值精神在潜移默化中形塑着社会成员。从外观上看,人工智能具备一定的感知技术能力,可以进行图像识别、语音识别、语言处理等,它的这些能力大致等同于人类的视觉、听觉和读写能力。但是对于人类的主观意识方面,如信仰、感情、意志等,它就无从下手了。从计算机的本源设计上来看,人工智能在理性范畴内存在着局限性。
正如刑事案件能否胜诉的关键在于证据的提供和证据的采纳,通过质证环节,当事人双方针对争议焦点进行充分辩论,法官对双方提供的证据进行取舍,从而达到辩论的目的,以实现个案正义。[24]与传统司法裁判相比,计算机程序将刑事证据进行自动化对比,减少了中间的质证环节,案件结论就可能会不同。[25]同时人工智能技术不能避免语言转换的歧义性。由于汉字本身的含义较为丰富,在进行文义解释的过程中都可能会产生多种理解。
人工智能在理性的框架内运行,但司法并非理性的计算活动,它涉及到受人类主观意识影响的各种复杂的社会问题,无法对具体的问题进行合理的分析和思考,审时度势的处理疑难案件中的法律纠纷。人工智能技术需要依靠大数据、算法和算力的自身条件进行发展,而司法活动本身是动态博弈的过程。在庭审中,控方和辩护人通过罗列证据、举证质证,说服法官做出对自己有利的裁决。从理论上来看,司法人工智能通过输入控辩双方提供的大量证据信息进行分析计算,信息越多,越不断逼近“案件真相”。但问题在于,他们很可能会尽量多的提供有利于自身的信息,隐匿部分案件信息或者增加干扰信息,这就对人工智能后续的判断造成了干扰,法官在何时阻断信息流的输入就显得至关重要了。司法更深层次的内涵是把握和理解社会关系、人性,作为工具的司法人工智能应当止步于此。理性司法过程必须贯彻法治所固有的规则性及其内在逻辑,法治的进程正是在恢复法律的这种理性信仰,并力求以现代法治这一方式创造出更高的法和理性的结合。
(二)司法功能与智能机器单一性克服
司法审判权作为判断性权力,以明确的规范依据、严密的程序保障、充分的辩论手段、以及缜密说理为特点,以国家强制力为后盾,以公允的衡平为补充,其功能是通过审判执行各类案件来定分止争,实现法律的秩序价值,在法治功能中具有重要作用。定分止争是基础的司法规范功能,而司法更多反映出执司法律、定分止争、权利救济、公权制约等等社会功能。司法的社会功能是一种法的合目的性功能,社会越是依赖司法,司法的社会功能就越多样化。司法功能从单一向多元化发展,社会有机体的方方面面都能通过司法实现相应目的。法官的法律思维的多维化趋向被司法功能的多元化诉求所决定,法官进行司法决策不能仅仅机械地适用法条,更不能成为“判决自动售货机”。而且,制定法的安定需要法官维护,法官还需要在必要时推动法律的进步,这是司法实践的经验,也是法律思维的应有之义。
智能机器单一性特征明显。随着人工智能技术和物联网及相关技术的进步,人工智能应用范围不断扩大。但与人们不断增长的需求升级相比,在执行复杂任务、提供更多内容服务、完成丰富人类模拟活动等方面还有较大距离。对算法进行抽丝剥茧,那么就可以发现,“算法”或者人工智能司法裁判的基本方式建立在传统的统计学模型基础之上,包括机器学习式的算法应用。以美国刑事司法实践中被广泛应用的再犯风险评估工具为代表的人工智能司法裁判是对人类法官决策实践的收集、总结和模式化。[26]其基本模型是经验式的,基于司法大数据,面向实践去收集、分析、建模量刑实践数据是其运作的前提。技术数据都差不多,只是对于数据的分析工具不同,和以什么样的编程方式融入进特征化可翻译化的语言。但即使如此,也依然是机器单一性标签。
生成式人工智能在本质上是去价值化的,具有以普遍性、非人格性为特征的形式合理性品格,[27]但同时又是冰冷的、机械的、无情感的。人类社会生活是复杂的,由此产生的纠纷也是多样的,在一些案件中不但需要法律的运用,还需要情感的投入。面对如此需求,缺乏人性的生成式人工智能无法实现对案件中蕴含的情感、伦理的判断,其作出的裁判亦可能偏离社会大众对于司法正义的一般理解,从而难以被民众所接受。[28]人工智能司法裁判必须采用计算机语言的方式进行,而案件事实、法律规范、案例对比、文书说理均需要用法律语言进行,从这一点看,计算机语言和法律语言之间的转换也注定是艰难的。[29]
(三)模型偏差与算法技术风险纠正
机器学习是基于训练数据构建统计模型,从而使计算机具有对新数据进行预测和分析的能力。与传统的数学模型相比,人工智能模型运用数学、统计、计算机科学和机器学习等领域的方法,对具有一定规律性和可预测性的数据进行分析、处理、预测和优化。人工智能这种数学模型是一种将“数据”转化为“智能”的数学模型。算法的应用不仅提升了司法的纠纷处理能力,降低了解决纠纷的成本,而且 在很大程度上提高了纠纷解决的自动化程度。[30]算法本身建立在数学表达式之上,具有答案固定的特性,往往被视为客观与理性的化身。算法对现实生活各个领域的渗透,使得“算法的权力”变得引人注 目。数据科学家凯西·奥尼尔更是将算法视为数学杀伤性武器,强调了许多情境下算法存在的风险。因此有必要在算法设计之初就将人文伦理、算法透明、算法解释嵌入其中,防范并纠正其风险后果。
算法过程具有封闭性。毫无疑问,当人工智能参与法律推理过程时也要遵循演绎推理的结构,将在计算机程序中存储大量规范和案例,通过对比分析得出法律适用的结果。法律推理是按照演绎推理的三段论式结构进行的。在这个法律适用的过程中,规范的检索、案例的对比以及文书的生成都是在自动的、没有人参与的情况下完成的,过程的封闭性往往会对程序公正产生影响,特别是在刑事案件的裁判过程中,裁判的自动化首先会对被告人的辩护权产生影响,程序性权利由此削弱,当事人权利得不到有效保障,因此实体正义也会被产生怀疑。
生成式人工智能模型的数据偏差就会带来其信息输出时的真实性问题,甚至带来意识形态、思维方式的固有成见,一旦运用于司法实际则可能导致裁判结论的偏差。并且生成式人工智能模型技术特征决定了其容易混淆虚假信息和真实信息的边界,从而导致真实性方面的缺陷。在司法运用的场景下,具有技术垄断优势的企业或机构还可能利用其垄断技术,通过封闭秘密的算法在不为人所知的情况下刻意影响裁判的结论,以谋取商业或其他方面的利益。更为危险的是若算法自动抓取或爬取的数据涉及个人信息,则直接构成对该数据主体隐私权的侵害。
四、人工智能应用的辅助定位规制
案件的裁判不但需要工具理性,也需要价值理性和情感投入,这就使得裁判从本质上看是人的工作,即便生成式人工智能也不能在司法中代替人类法官的裁判职能。最高人民法院在 2022 年发布的《关于规范和加强人工智能司法应用的意见》中就明确了人工智能的辅助审判原则,要求坚持人工智能对审判工作的辅助性定位,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,并强调无论技术发展到何种水平,人工智能都不得代替法官裁判,从而确保裁判职权始终由审判组织行使。[31]结合智能技术阶段性发展特征,以考量司法现实需求和司法特征为前提,对智能系统的应用做出适配性调整,实现对于应用场景的界定以及对于应用主体限度的明确。
(一) 理性主义下智能系统应用的限度
人工智能在技术上只能算是人类智慧的延伸,仅能作为司法工作人员有力的辅助工具,帮助司法工作人员从非审判性的繁琐工作中解脱出来,运用技术理性的方式监督司法裁判的过程。在司法过程中,技术理性和经验理性相辅相成。技术理性的思维模式在传统的司法审判中也并未缺位,它是一种认知世界的线性视角,是人类固有的一种思维模式。[32]坚持两种理性思维的固有内在统一,以技术理性匡扶经验理性偏差,以经验理性抵挡技术理性侵蚀。
实践中,智能系统与司法裁判二者难以平衡,智能系统在司法实践应用中存有限度。[33]理性一词在哲学意义上常指代在概念或者判断等思维指引下的形式和活动。虽然不同哲学家对理性的理解可能存在差异,但“科学”和“正确”等代名词通常被视为理性的代表。经验主义主张知识的唯一来源是经验,经验相对于理性知识更为可靠。[34]理性主义的首创者是笛卡尔,在笛卡尔之后理性主义由斯宾诺莎和莱布尼茨完善,最终被康德推崇至极端。
理性主义主张经验并不是知识的唯一来源,有些知识是先验的且理性相对于经验更为准确。[35]技术理性是通过数学和演绎逻辑运用抽象出的概念系统,用于认识事物理解世界。而经验理性则是通过含有价值判断和多元视角的方法,来认识事物理解世界。技术理性思维和经验理性思维的难以调和导致法律概念理解产生冲突。前者需要表达方式的确定性,而后者主导的语言表达方式却是抽象和模糊的。技术理性与经验理性常以原始张力胶着成为智能系统应用于司法审判,在法律概念理解、事实认定以及司法推理的整个过程中,由于技术理性和经验理性界限不清致使人工智能在司法裁判中的效应难以发挥。
(二) 限定智能系统辅助审判的应用场景
相比较而言,机器擅长处理具有家族相似性的事物,即将事物抽象为普遍和 一般并进行处理,人则是优于处理非家族相似性的事物,即人类可以从不相识/相似的事物中抽取相识/相似性。[36]算法应该为所有类型的人构建,才能保证技术人员的多样性,即保证种族、性别认同、宗教和社会经济背景的多样性,可以使得算法开发过程中始终存在不一样的声音。
人工智能系统自身具有的机械性特征,其更适用于规则清晰、界限明确的案件范围。[37]根据案件的性质、案件的复杂程度以及案件的类型合理确认人工智能介入司法裁判的适用场景。对于司法审判中重复且机械化的工作可以委诸人工智能辅助应用系统,例如文书自动生成等系统。
智能系统可以适用于事实清楚、争议不大的案件场景,如小额借贷纠纷、劳动争议纠纷、保险合同纠纷等,由于事实清楚争议不大均可适用,智能系统利用技术理性和客观优势,分析案件事实推送法律规范,有利于司法公平正义的实现。[38]由于特征、类型和复杂程度的不同,案件本身不可能完全相似。对智能系统的过度依赖会对案件裁判产生不利影响。
界定智能系统在司法裁判中的辅助地位之后,需要对其适用的条件和范围进行规定,进而确保其准确性。从案件类型的角度来看,一些特定类型的案件也需要进行非智能化处理。诸如涉及国家秘密、商业秘密和个人隐私的案件,智能化处理的程度要降低或者进行限制性使用。人工智能系统的开发和修复完全取决于人类智 能,因此为了应对算法的偏向问题,不过分依赖数据,重视人类智能的重要性,实现人机融合、确立法官裁判者主体地位才是行之有效的解决方向。
(三)设定应用主体的使用界限
明确智能系统应用主体的使用限度应当以保障法官主观能动性的发挥为前提,通过规范裁判者对智能系统的使用权限和程序,将智能系统的适用严格控制在一定的限度内。司法裁判中人工智能应用辅助性地位的限度明晰,主要是对理性主义下智能系统工具主义的重申和裁判者主体地位的再强调。[39]例如,由于道德的定义所包含的字符过长,计算机无法读取,更由于道德本身的含义复杂多样,人类尚未确定,更不能向计算机清楚地说明,也只有居于裁判者地位的法官才能作出最终判定。
面对日常生活中种类繁多、情节复杂的大量案件,这些规则、政策和原则难以直接被无缝套用,法官自由裁量不可避免。法官依据法律条文运用司法解释作出司法判决。在这个过程中,并不是简单地单薄的依据三段论推导出结论,而是在其中运用法律逻辑推导法律适用,往返流转于案件事实和法律规范,使得最终的结果符合法律正义目标实现的要求,实现整体法律价值。应当严格限制司法裁判中法官使用人工智能应用的主体权限,防止司法裁判中人工智能应用的辅助性角色异位,将办案法官和司法智能系统的职能进行区分,强调办案法官的主体地位。
智能司法裁判就是尝试建构这样一个完美的法律体系,期望裁判者只需依据形式逻辑法则输入原则、规则和证据即可根据规范和事实推导出正确答案。司法大数据应用可以为办案法官提供裁判结果预测和量刑参考等辅助决策功能,但不能为司法管理者和监督者提供类似的功能。[40]裁判是一个复杂的判断和决策过程,不仅涉及事实、规范和价值的关系,而且涉及利益的复杂衡量和价值判断,裁判者不可能依据形式逻辑法则输入原则、规则和证据,就能简单地根据规范和事实推导出正确答案。
五、人工智能应用限度的技术规制
在智能司法的建构过程中,存在关于伦理、技术等方面的风险,消除对于智能司法实践模型的过高期待,利用新兴科技助力审判实践,将算法、模型或者其他配套机制融入到司法审判当中。作为法律规制的路径选择之一,通过制定规范的手段规制人工智能的风险应是防范、控制与化解其产生肆意风险的重要进路。司法裁判中人工智能技术的有效运用依赖于全面且真实的司法数据库,尚不完备的数据基础以及难以克服的算法缺陷是司法裁判中人工智能应用限度困境在技术方面的成因。[41]
技术与法律被裁判系统融合在一起,也是科学技术理性于法律实践需求的双向驱动结合,是司法在原有传统基础上创新技术特点,进而创造的新的形式。为了保障智能机器实现深度学习能力的最大化,需要建立全面、真实且系统完备的司法大数据库,构建以技术规制技术的正当性程序。[42]
(一) 司法数据共通系统设置
法律的动力来自于科技的进步,人民法院通过智能服务审判系统已经可以实现文书辅助、类案推送、结果预判、调解建议等多项功能。在司法裁判领域,借助强大的司法数据共享平台为法官提供信息检索服务,不仅可以帮助法官更快捷地查询指导案例和搜索法律规范,还能够开阔法官的视野,从而提高办案能力和效率。部分法院依托大数据开发了“智慧画像”系统对法官、法官助理、书记员工作绩效进行有效考核,[43]还有系统开发利用大数据进行“法官画像”,即针对个别法官判决形成司法大数据分析报告,借以预测某法官可能作出的判决结果,或者评价该法官判决是否公正。
司法机关部分司法资源已经实现了网格化和数据化,但不同机关之间的共享和互通尚不完善,分化严重产生信息孤岛,导致了司法数据库的缺陷。在收集司法数据时,常面临数据质量和体量不足的问题。为避免此种情况的愈演愈烈,应当打破部门间的信息孤岛,促进数据信息的互通和共享。
在辅助审判执行方面,司法大数据能够针对案件的性质、类型推送相应的法律、法规、司法解释以及类案判决,对于裁判结果亦可与类案既往判决进行比对,防止出现案件判决畸轻畸重的情形。打破不同部门、层级以及地域之间的互通障碍;指定明确的信息统一规范来指导司法数据的渠道来源、采集方式,以及标准化各种信息和具体司法应用场景。这种共通互联可以建立海量的司法数据库,利用系统的检索查询和计算功能,为办案人员提供海量“数据经验”。[44]
对司法数据库中的数据信息进行及时更新和筛选,确保司法数据质量的可靠性。[45]真实、全面、准确的司法数据是人工智能深度学习的前置条件。如果司法数据库中的数据质量无法达到人工智能应用标准,不仅影响司法机关内部人员查询和利用这些信息,还会对智能系统的决策和判断产生负面影响。避免因不准确的信息影响机器系统的判断和决策,还需有专业人员对那些因法律政策变化、形式或实质不规范的数据定期清理,进而保证司法数据的质量。
需要将算法公开与解释制度结合,及时披露相关司法数据活动记录。作为人工智能在法律公共领域应用的一部分,司法决策自然会受到公众理性的制约、审视和评判。[46]特别是在数据处理时,需要对数据可用性措施与数据安全措施之间的关系进行仔细权衡。不仅要规避在技术部署过程中出现的安全风险,还需要防止在某些数据决策或行动中,滥用数据安全或将其作为万能的借口。
(二)修复智能算法缺陷
算法裁判运行中存在算法黑箱,它主要是系统设计者为了保护商业机密,而使算法规则和内部机制隐蔽化的产物。[47]就应用于司法裁判中的智能系统而言,智能系统算法直接影响着类案推送、裁量预测、偏离预警等功能的实现。为了修复此缺陷,在算法系统购买时可以在合同中约定,必要情形时可以了解算法决策关键信息的条款。在算法决策引入之前,则可以要求设计者向法律规定的监管机构进行信息披露。通过创设这种有限的透明机制,打破在监管机构层面算法规则的非透明屏障,以确保算法的决策过程是公正透明的。[48]数据偏见是算法歧视产生的基础,数据采集中算法偏差的规制是除去识别和排除偏见数据样本的重要方式,这种规制利于消弭算法歧视。一些研究表明,开发一种工具包,结合不同的指标来检测和排除与决策结果无关的因子是非常必要的。[49]在排除无关因素之后,也需要对算法运行的模型进行调整和修改。具体而言,一方面需要重新标记排除了无关联因素的裁决结果,并在对数据模型修改的基础上重新进行运算;另一方面,还需要对受到无关联因素影响的其他数据进行“清洗”,以消除偏差性数据的影响。消除无效数据干扰、控制多维度变量对算法模型的不良影响,可以通过将无关联数据的数量作为衡量算法数据运行效果的标准之一来实现。这种方法可以促使算法系统的设计者更加注重数据处理的准确性和数据模型的精度。[50]
公开与司法裁判中人工智能应用相关的记录可以消除算法的神秘性。但算法规则并不是像法律那样具有现成的规范性文件,也没有明确的形式化文本。因此,公开算法规则通常只能公开算法设计和算法运行的相关记录。[51]在算法规制中强调,在风险应对方案中制定、保存并公开与人工智能司法决策相关的记录,以确保透明度原则的实现。公开算法记录可以消除人工智能司法决策的神秘性,但无法消除社会公众对决策算法的认知障碍。因此需要建立必要的解释程序,以更好地满足公众的需求。
(三) 建立技术规制程序
对技术的过分依赖导致裁判结果无法实现公平正义,因而需要构建技术规制正当性程序,通过运用技术代码化程序实现对智能技术的有效规制。[52]要建立人工智能专门法,鼓励技术发展的促进法。设置智能裁判标准化的数字紧急处理程序,为了确保智能裁判的公正性和合理性,需要对这种程序规则的实施情况进行监督,并设计应急处理措施;应建立严格的隐私保护措施,并遵守相关数据安全法律法规,确保数据安全和隐私保护。
具体到微观操作方面,制定人工智能技术合规的标准、制定规制风险的行政规范与对人工智能投放市场前的合格评定。在设计智能裁判系统时,首先应该对系统本身可能存在的缺陷进行审查,如因智能裁判系统存在缺陷导致个人权利受到侵犯,相应的程序员、软件工程师、数据处理商、信息技术公司等设计者应对此承担一定责任。[53]其次,智能裁判的设计应该由多人分工协作来完成,以减少操纵的可能性,更好地保障当事人的权利。最后,建议智能裁判算法的部署者承担强制性的信息披露义务。具体来说,智能裁判算法部署者应该主动向相关司法部门解释这个算法是如何运作的,以及如何产生自动化的裁判决策,[54]同时提供决策的本质性信息和论证逻辑。
(四) 设定技术风险的严格防范模式
以霍金为代表的悲观派就此曾向人类提出警示:运用人工智能技术制造能够独立思考的机器会威胁人类的生存,人工智能的全面发展可能导致人类的灭绝。对控制这类风险问题的法学研究,其重点应当是建立技术风险法律制度。
信息泄露风险是人工智能产品与之俱来的最大隐患,是设定风险后果规制的核心。“权利优先”是“公民权利—国家权力”关系中的核心命题,在大数据时代需要密切关注此命题。在司法实践中,需要设立一个不一样的数据保护模式, 这个模式应着重于使用者为其行为承担责任。对数据收集行为的规范和调整固然重要,但对已收集数据的保护更重要。司法机关可出台人工智能辅助审判技术规范,应当为以人工智能技术为依托的数据使用者利用数据信息所有者相关权利明确相关义务和设立责任规则,以防止司法机关利用人工智能技术,或不合规范地使用人工智能技术而导致包括当事人在内的社会公众个人信息泄露,隐私权遭受侵犯,规范司法机关使用人工智能辅助审判技术的操作流程。
在人工智能应用的风险规制中,要表现出风险防范的过程性,形成了对人工智能的数据风险的源头规制、人工智能的算法风险的运行规制以及最终呈现终端产品样态的人工智能自身风险的全过程规制。这种立法模式将以规制过程风险的方式,建构严密的人工智能公法规范体系,创设对人工智能的数据、算法及其终端样态的风险规制措施,最终形成了针对“数据—算法—人工智能”的全过程风险的监管。
(五)构建应用场景监管规制
司法裁判领域可以被划分为不同的应用场景,并在不同场景中有特定的要求。[55]因此,在监管司法裁判中的人工智能应用时,需要实施严格的监督管理,并区分不同情况下的监管力度。司法裁判中的人工智能应用是否得到了良好规制和合理使用,是需要考虑和重点关注的问题,在智能系统的帮助下司法裁判的社会效应是否得到正向影响也是需要予以考察的角度。司法裁判领域可以被划分为不同的应用场景,并在不同场景中有特定的要求。
美国采取的是激励创新审慎监管的柔性规制模式,即以激励人工智能创新发展为价值导向,审慎监管结果风险方式的综合性规制路径。[56]2020 年1月,美国联邦政府发布的《人工智能应用的监管指南》,要构建具有弹性且灵活的监管方法,应评估潜在监管对人工智能创新和发展的影响,持续促进技术和创新的进步,以领域细分和风险防范管理为导向,区分不同程度的风险和应用场景,并设置不同的监管要求,可以实现人工智能技术在司法裁判中安全应用,从而避免技术危害的发生。[57]社会领域中对人工智能应用的监管也为上述观点提供了支持。例如,在医疗等重点领域的人工智能应用中,针对领域内的特殊考虑因素,已经建立了分级监管和审批程序。[58]此种监督管理机制已经成为国际趋势,有助于防范人工智能应用于该领域可能带来的风险。
对于司法裁判中人工智能应用的监督和管理,需要根据利益和比例原则严格把控。这意味着需充分考虑智能机器在特定司法领域应用所带来的利益和可能造成的危害之间的权衡,[59]通过反复参照目的和手段之间的关系,才能找到合理的目的并确定达到目的的手段,进而最终实现目的和手段的统一。[60]
结 语
和历史上的数次技术革命一样,本次人工智能的技术革命也为人类社会各个领域的发展带去了新的机遇和挑战。但人工智能的算法技术只能延续和提炼人类知识,但很难开拓和创造人类知识。算法决策能够通过程序性、公式化计算来优化诉讼程序和处理简单案件,能够促进形式正义,但难以处理重大的复杂疑难案件,很难实现实质正义。
人工智能所探寻的是包含经验性知识、价值评判、利益权衡、不确定性考量的论证方法,是一种关涉实质推理的综合推理模型。在司法裁判中使用人工智能技术是为了实现特定目的,但司法裁判是一个高风险的领域,因此需要谨慎使用人工智能技术。[61]若超越了司法裁判中人工智能技术的使用范围和程序,就会对司法参与者的权益造成损害,甚至会危及司法的权威性和公正性。[62]结合智能技术阶段性发展特征,在考量司法现实需求和司法特征的前提下,对智能系统的应用做出适配性调整,弥合司法裁判与智能技术二者之间的张力,在实践中不断地修正和完善相关机制,推进人工智能与司法领域的深度融合,进而建立一个成熟的人工智能司法裁判理论体系。