司法算法决策中的权力逻辑
2023-01-08陈姿含
陈姿含
人工智能技术在司法决策领域的适用,在过去40余年发挥了重要作用。司法人工智能能够整合物理空间中复杂的要素和分散的资源,并克服传统固有的系统障碍,进行结构性重组和优化升级。正是基于不可替代的优势,各地区也在司法实务中稳步推进智慧司法建设,各地法院加紧研发智能裁判系统辅助法官的审判活动,包括上海的刑事案件辅助办案系统、北京的“睿法官”系统、江苏的“法务云”、河北的“智审”、重庆的“法治云”等。伴随人工智能哲学、技术和产品深入发展,算法体现出更强的自主性,介入到司法决策当中,比如上海206系统、浙江“移动微法院”建设以及杭州互联网法院智审断案、北京互联网法院的电子诉讼平台、广州互联网法院的“e法亭”,引发了司法运行机制的变化,包括“司法过程场景化、司法规则代码化、司法决策建模化、司法服务管理智慧化以及智慧司法的社会效能的提升”[1]。这些变化引发社会关注司法人工智能伦理问题,包括实体法能否妥善地解决数据和信息争议、算法的透明度和解释权、算法在司法领域的应用和评估等。但是作为司法权力和算法权力的叠加,还必须关注司法算法决策的效能、司法程序算法化的方式、司法算法决策结果的公正,以及司法算法决策的合理限度问题。
一、权力起点:司法算法决策的效能
司法算法决策是决策智能化的标识,是算法运行的结果通过数据分析给出结论,即机器代替法官作出裁判[2]。技术的进步使决策权从传统的决策者向算法转移成为一种可能。司法算法化是当下司法改革展现出的新特征,也存在诸多亟需解决的新问题。因此,规制司法算法决策不仅要关注新技术、新方法的合法性论证,也要保证其服务于司法权既有的功能和特征,即保障司法权“遵守一系列特有的司法程序,采取与司法性质相符合的组织形式,并发挥特有的社会功能”[3]。
司法决策的效能,不是单纯地强调技术在社会领域的优势——技术在公共决策领域的应用要求符合比例原则,逐步消除安全风险,并提升系统性能,这是司法算法决策存在的合理性和必要性;也并非强调人与人工智能和算法决策的优劣比较——人类的决策过程和实质性结果从来就不完美,但现代法治的一个重要成就就是妥善纠正集体决策,并弥补人类缺陷[4]。算法决策应当在以下四个方面维护司法权的特征:
第一,权力起止的有限性——司法权力具有被动性与终结性。司法权的被动性首先体现在程序的启动是基于当事人的“诉”,同时体现在司法审查和司法裁判受制于诉讼的范围和各方当事人的主张、证据、法律、辩论等活动,因此才能最大限度地保证司法权力的居中裁判。同时,司法裁判还应当具有定纷止争的效力,除非依照法定程序,不得启动再审程序,这是维持法律效力稳定性的要求。但是,司法算法决策的倾向,可能导致司法权力的泛化,算法基于自身的生成机制,可能产生对社会的衍生性干预。这都可能给司法权力运行稳定的需求造成冲击。
第二,权力决策的集中性——司法权力必须在特定的时间和空间内连续不断进行。裁判者须满足一定的亲历要求,即亲自参与裁判的全过程,这除却能够让裁判结论的做出依据庭审和证据反应的事实全貌,同时也保证了被裁判者的参与机会,感受到公正的被对待;并且保证裁判者将审判结论形成于审判过程之中,减少法庭之外不必要因素的干扰,这也是保证司法公正的要求。但目前算法决策应用于司法决策领域,不仅开创了多种当事人参与司法的新模式,也可能对于各方有效参与形成实质性的影响。
第三,权力裁判的公开性——司法权力的公开性被视为现代法治国家的基本要求。这体现在两个维度,一是作为个体公民的基本诉权和社会公众的整体性的民主参与权得到保障;二是法庭审理过程公开和裁判结论的公开是司法权力获得广泛认同的前提。但是司法权力的公开还应当体现在裁判结论形成的过程公开性和获得民主参与的前提之下。这一点在自动化决策应用于司法裁判中尤为重要。算法在技术领域中,其决策性运作仍然被视为黑箱:一方面计算机科学和智能程序的建立,是以物理符号系统“定性结构定律假设”和“启发式搜索假设”的经验证成为前提的[5],技术自身的不可知性始终存在可能,另一方面算法对数据质料的处理过程看似客观,但受到人的价值影响,并且具有隐蔽性。
第四,权力运作目标的整体性——司法权力不仅要能够在保证公平和人权价值的前提下,实现对已经发生的纠纷和争端妥善的处置,让法律通过具体的案件得以发挥实效,而且必须能够维持法律实施的统一,在动态的个案裁判中实现法律解释,维护法律的权威。如柏拉图在谈到正义问题时,指出法律不可能发布一种既约束所有人同时又对每个人都真正最有利的命令,法律在任何时候都不能完全准确地给社会的每个成员作出何谓善德何谓正确的规定[6]。算法决策较之于传统的司法运作更能够整合具体的案件要素,实现个体正义,但是在妥善处理分配正义和交换正义、一般正义和个别正义之间的张力的时候,重要的方法是衡平,既要防止因为法律的刚性适用而造成同具体的社会事实之间的断裂,也要防止算法决策将法律的实施变为指令式运作,进而造成对一般正义的摒弃和异化。
司法算法决策同样会带来对权力结构的冲击、法律实质内容的改变以及对公民的道理伦理产生影响。算法会弱化司法权的外部功能:过去司法权对法律进行解释,增强法律的实效,通过对个案的裁判,产生社会影响力,促进法律的传播;司法程序能够检验法律的社会运作,为规则的制定和修改准备经验;司法权可以通过诉讼程序对其他权力机关的行为进行限制,促进法治目标的实现。但在更为宏观的权力算法构建层面,如果权力机关都采用自动化决策,一方面裁判因为预测能力而可能转变为事前立法,权力的分化被削弱;另一方面,纵然权力机关在主体、职能和目标等层面保持清晰的界限划分,但如何证明司法程序所采用的算法比行政自动化决策程序更有优势,成为审查合理性需要直面的问题。
二、权力过程:司法决策程序的算法设置
(一)算法的嵌入体现叠加性优势
司法程序的算法化,理想模式是通过算法决策规避法官或者设计者的缺陷,结合法律与算法的优势系统。算法擅长处理情形复杂但最终可以形成简单指令的决策事项,比如红绿灯指示,在路面条件和车流状况不同的路面,设置时长和停行间距有异的信号灯,需要处理的信息和考虑的要素可能极其复杂,但是给驾驶员和行人的执行信号确是明确而有效的。法律是一套在先的规则,规则对行为的调控讲求精确性,且应具有预测能力,因此决策的制定者应该尽可能的对未来可能产生的行为进行包容,规则的制定对于预测能力和决定性成本皆有要求。要实现这一目标并不容易,因为当法律囊括未来情形的时候,每当以规则的方式固定一种类型,都会付出高昂的立法成本[7],立法情形越来越具体,除却急剧上升的立法成本,还有逐步降低的可执行性。而算法不同于规则,它是一种事后的决策方式,针对行为频率低,也就是普遍性不强,或者行为频繁但是种类繁多,难以凝聚共识的时候,算法较之于法律规则,具有明显的决策成本层面的优势,其强调的是分析能力。但事后的立法要避免偏见,否则对个体权利或者社会目标都会造成伤害。算法一方面要利用预测和分析能力降低决策错误的成本,另一方面要增强当事人对决策的理解能力,降低裁判的不确定性。
司法审判活动中,个体的法官就像一台计算机。司法系统也如同宏观的算法系统,存在透明度和可解释性问题。而且法院传统的司法系统并没有完全向社会公开,否则司法裁判就会变为事前的裁判,司法决策也成为事前情景预设。公权力在节约成本与增加管理合理性的驱动下都有采用算法决策的动力,但当法律的实施从立法进入到司法阶段,情景的假设便不再是主要任务,这意味着无论是对行为在价值上有好的或者坏的指引,法律咨询均不在司法审判的职能范围之内,虽然法律要实现“同案同判”的公平价值,会在事后为法律完善提供立法经验,但都不可能形成对立法的实质性取代。较之于算法决策,我们之所以相信传统的司法是公正的,主要有以下原因:一是职能的分配——司法裁判是建立在职能分配基础上的,司法是立法的解释与应用,法官是事实的认定者而非创造者,这同深度学习算法自身是制定者、执行者、监管者合一的属性不同;二是公众的参与——司法解决的是个案争议,维护的是整体公平,因此需要公众实质参加决策的制定;三是结果的复杂性,司法决策的难题在于一边处理复杂因素干扰,还要给出一个解决现实问题的方法,这个问题的答案追求的标准在于参与司法复数主体的可接受度,而这是一个具有伸缩性的标准,而非作为一个确定性的规范设定在程序中。
(二)定量预测的法律思维转化为算法的阶段性设置
美国大法官弗兰克福特曾说,“自由的历史基本上是奉行程序保障的历史”。司法决策实现着对交换正义的恢复,同时必须对既有的价值和秩序维护。目前对司法程序算法化存在质疑的讨论集中于司法裁判是否可以预测,算法决策是否可以实现这种预测,以及算法预测是否正当的问题。司法裁判本身有两个方面的问题,一是形式推理,二是现实主义。形式推理往往通过显式编码,即规则封闭的专家系统进行完成;而现实主义则通过机器学习算法,大数据的分析预测来模拟或者实现。显然在技术层面,人们对专家系统的研发明显成熟于机器学习算法,也具有表面上看来更加显著的特征。在司法过程中进行算法设置的一个重要步骤,是对系统进行分解并推进法官可以进行常识性推理,那么必须确保对司法过程的分解步骤是合法且有益的。一方面,部分机器学习系统本身具有不可分性;另一方面,当事人寻求司法救济应当了解基本决策规则,有效评估适用范围与成本,但是现在因信息不对称而面临个人预测的准确性和自主性困境。
要把算法这一定量的法律预测应用于定性的司法裁判过程中,在思维方面必须界定以下问题:
第一,其对于个体的意义与对社会的意义是不同的。定量法律对于法官或者法院在微观层面的行为预测,并不能直接让自然人对涉及自身的案件有一清楚的判断,也不能指导当事人的行为,但是在宏观层面具有很强的政治和法律意义。
第二,在预测性能上,定量的数据收集和分析,逻辑思维的基础是“事后的评估以推断原因”,不等于事前的预测并做出结论。所以其对过去的意义和对未来的意义是不同的,尽管解释理论最好的验证是未来的预测能力,即未来发生的事项能够吻合事前的判断。而个体案件本身又会随着时间的推移被作为新的数据加入验证的过程,以得出整体性的结论,而非判断任何一个个案的未来符合性。
第三,对于法院的意义和对于法官的意义是不同的。目前,在上海、江苏、浙江、贵州、云南等建设的智慧司法系统中都包含了“预警案件审判偏离”的功能模块,这一功能不仅对罪名认定、证据形式合法性、证据链条完整性、量刑幅度等实质结果进行预警,还可以对法官办理案件的时限、步骤进行比对。这一全流程式的“同案同判”数据分析和预警,这当然有助于法院更科学合理地进行内部监督,也有助于整体实现对案件进程、法官履职和法院一定阶段内的绩效可视化呈现,对于整体性的司法效能提高具有十分重要的意义,但也可能对法官个体造成无形的影响和隐性的干预,进一步消解人的自主性。
第四,在技术操作层面,司法程序在转变为代码的过程中,需要满足通用性,即不同的情况都可以被适用;一致性,即随着时间的推移能够实现司法决策的稳定性;还有样本适用性的要求,即允许率先使用一部分样本生成模型,由小及大的扩展适用范围,一方面是考虑成本问题,另外一方面可以有效地对既有数据和程序进行评估。如果程序要求的过于具体,一方面对数据的成本要求过高,也可能造成抽象和符号化的可能性降低。因为精确的构建本身需要大量的样本分析,随着新的要素增加,预测结论受到干扰的能力,如果变量与数值的变化过大,那么则需要反思是否有总结规律的必要性。
司法决策过程中的算法可以设置在信息的传递阶段,也可以设置在不利证据的提交方面,即以统计数据证明达到不利的局面。这对于计算机和自动化技术而言,实现具有比较效果的可视化呈现和分析,具有较之于传统的人力资源和决策程序不可比拟的优势。但是,虽然在程序中嵌入了算法决策,但有的待决事项并不涉及数据网络层和内容层的改变,只是诉讼形式从线下转为线上;有的待决事项因为涉及到个人隐私、商业秘密和国家安全,算法决策就面临信息公开的问题;“案件的类型化构建逐渐定型、5G乃至更高质量的网络环境逐渐实现、区块链等促进网络安全的技术手段逐渐落地,电子诉讼的软硬件将更加完善,网上纠纷网上审将成为基本方式”[8]。自然科学以结构化数据方式实现社会规范向算法语言转化的过程中,会导致价值的缺失。社会物理学如果取代行为主义,让预测性与引导性成为个体识别、分析和干预的主要依据,既会带来个人自由空间的被迫压缩,也会导致国家权力的旁落。形成必要的社会信任是对复杂的社会现象而形成运行机制的前提。但是当前的深度伪造技术,不仅对证据制度造成冲击,也对权威性和真实性带来挑战。司法程序的在线执行带来的改变,同样让司法权力面临挑战,执行可能因为掌握技术因素的中介机构的介入而变得更加隐蔽,执法可能出现权力私有化或者外包,或者委派的情形。司法权力如果由事后的审查转变为在先的裁定,则可能产生权力的溢出,司法权力如果始终在线,就可能导致过度执行。
回顾过去,算法决策技术一直呈现稳定的指数增长,这一趋势将在人工智能领域继续延续,带来算力的飞跃。更为重要的是,人工智能和算法决策将突破大数据的限制,进一步探求隐藏在数据表面之后的深层次问题,克服条件的不足,为各种可能和突发意外寻求到问题的解决方案。但算法决策也并非无懈可击,所以要求算法在统计信息用以决策的时候增强信息的可采性与相关性。司法决策过程算法化必须依靠案例与特定的司法解释,否则很难以数据和可计算的方式精确的表达模糊和具有弹性的法律语言与判断标准。同时,司法算法决策还考察诉讼当事人将数据转变为证据的能力比拼,比如一般情况下,商业机构,更有较之于自然人主体更有能力跨领域调取资源,而作为诉讼一方的行政主体对于公共数据资源的掌握,能够更加充分地论证受损的情形与受保护的情形不具有可比性或者损害的结果发生是为了保护合法利益——目的合法性。
三、权力效果:司法算法决策的非歧视与算法公平
(一)系统博弈中公平问题的复杂性
权力效能的实现,偏重的是算法决策对裁判权固有社会职能的维护;司法决策过程的算法化,强调的是对算法特性的把控,深度嵌入司法运行机制当中,并带来权力运行的改变;而权力的结果性评估,是在进行司法决策和算法决策两个系统的一致性和差异性协调。司法决策与算法决策具有共性:都遵循由过程导向终点的思维逻辑,司法裁判“以事实为依据,法律为准绳”,而算法决策以数据为基础,按照既定的程序性流程,得出结论;都通过决策期限和决策质量,来控制决策效率,控制决策成本。这样的共性,为实现算法决策和法律决策的协调建立了可能。然而司法决策与算法决策在其权属特性上表现出不可调和的差异性,司法决策具有公共性,其运行的形式、主体、程序、结果都受到严格的限制。虽然也有学者将算法界定为一种权力[9],讨论其追求的价值属性问题,但算法具有较强的要素属性,其所展现出的法律特征与其嵌入的社会场域关系密切,其决策结果类型也存在多样性,因此二者叠加带来的公平问题也更加复杂。
立法对平等问题的处置往往选择设立最低标准的方式,且提供的是解决问题的基本框架,行政执法的公平性往往体现在执法结果的评估上。而司法的公平性不仅是形式问题,也是现实问题。因此要求平等存在于司法程序的直接后果,所有主体具有平等获益的机会;也存在于间接后果里,旨在消除对某一类主体更加不利的损害,并且具有外化为标准的证据形式途径。除却形式上的主体平等前提,还要能够证明已经发生的损害或者现实的危险,能够证明损害不成比例。一方面,算法增加了自然人主体证明以上问题的难度;另一方面,越是敏感的实质性因素,可能存在愈加复杂的社会构建,其背后的价值,除却自然的公正,平等的对待,还有系统层面的互动和平衡需求。尽管会存在法律的中立作为保障的前提,但往往法律所保护的主体比没有纳入法律保障的主体更加具有突出的特征。因此,要证明算法决策更加不利于一类主体,在特征的总结和比例的证明上,又与新的分类创设禁止存在矛盾。
概括而言,司法案件涉及法律规范实施的具体化程度。对价值判断的依赖,以及对司法解释权的包容程度,都可能会影响司法权力的运行,其中平等的概念作为衡量标准具有独特性的价值,其有关的因素包括主体是否受到平等的关照,是否存在对部分群体实质性的损害结果,同时也关注司法程序中的证据是否存在相关性和可采用性的事实问题。司法算法决策,可以让法官与算法技术的深刻互动有效地解决数量和情景上复杂的案件,也可以让法院减少人力资源的固有缺陷带来的审判不公,促进司法审判的标准化流程,但仍然存在司法算法决策带来结果不公的问题:
第一,人工智能技术处于发展变化之中。技术应用存在不稳定性与系统风险。当涉及证据规则指引和判断标准、审判程序监督、预警偏离系统提示等问题时,算法处理的不是单纯的符号运算和程序执行,而是处理复杂的定性问题,因此有人对算法决策的精确性提出质疑,进而提出刑事诉讼程序等严谨的司法活动应当慎重对待算法决策的介入。
第二,算法的偏见可以出现在设计、运行、审查各个方面且具有隐蔽性,可能扩大原有的社会偏见,因此有人提出算法解释问题予以应对,但如果偏见在数据挖掘阶段的算法设置过程中已经存在,那么这种歧视通常不容易为个体所发掘;有的算法按照信息公开的要求已经披露,但因为个人没有掌握专业知识而不具备解码能力而丧失意义;还有与生成决策结果直接相关的算法因为商业秘密的存在而无法公之于众。
第三,算法是否公正的检验标准有三个:先验、准确性和差异性[10]。这三个层面的公平问题会伴随算法输入不公平的数据,进行歧视性分类,滥用不必要的模型,或者反馈偏离训练样本的数据。目前的算法审查与公开主要涉及的是数据本身和数据输入层面,但是对于利用深度学习算法如何达到结果还有诸多未知,由此产生了算法黑箱。
第四,司法算法决策可能让个体知情权、信息和数据利益遭受不利影响,也可能因数字鸿沟的存在让部分群体长期遭受不利。算法决策可能在追求严格的程序平等和把控结果质量的过程中,去除人性化和关联度因素,前者增加了司法运行中规则适用的弹性和灵活度,进而有助于实质正义的达成,而后者是社会整体性架构对司法权力的要求。如果损害了这些隐含的决策性要求,则可能带来对社会公平问题更深远的影响。
(二)司法算法可解释性建模应排除歧视性标准
在法律规范层面,其空间效力越广,一般性特征越突出,而灵活性带来的结果之一就是运行结果的未知性。当然,法律并不拒绝差异,而是关注差异的可接受程度。传统法治中的这种灵活性意义重大,但在进行自动化决策的时候可能有意识地被存在偏见的人利用。在算法决策的过程中,歧视不容易被察觉,偏见还可能通过自动化决策被放大[12],因此反歧视法的核心——如何识别和评估歧视行为的机制在算法决策层面无法作为有效的检测方法,并达到有效的证据要求,让受到实质性伤害的人获得救济。算法决策扩大歧视的范围,伴随着对大数据的使用,并不局限于我们熟悉的方式对群体进行分类,其所处理的数据,可能因新的技术发现而带来人类客观性差异的呈现并引发新的焦虑,也可能因为不直观的联系和模式建立不易发觉,且无法辨别的歧视方式。从歧视法的规制上,算法不应该创设新的歧视类别,即不能创设新的主体区分标准。
伴随着技术的发展,深度学习算法可以以各种方式进入到司法系统中,我们需要考虑的因素包括但不限于:向谁解释、解释的方法与成度、解释的效果与评估等。司法算法决策的可解释性来源于技术层面正当性的要求,对渐进式形成的符号系统进行合理的解释,是包括计算机科学和人工智能科学发展的重要任务和知识性成果之一。符号化和代码化是衡量智能的标志,而促进这些信息的运行是为实现一定的目的和计算而进行的;智能的标志之一就是在于其处理任务环境中的复杂性而非单一性因素时(如变化的客观自然界),克服困难并控制投入的能力(真正实现对下达任务的主体取代和保障)。
司法算法决策的可解释性问题主要通过两种技术方式实现:一是建模的方式,旨在对司法过程算法化进行全局性解释,这种方式对于了解把司法过程转变为算法设计者的意图,输入因素的定性问题和对结论的准确性衡量具有意义。二是以分解的方法进行,考察哪些要素可以像影响人的思维那样影响算法决策,并通过反复测验可以确定影响推理的核心要素,其优势是找到特定情境的解决途径,也可以在保留部分秘密或者隐私的前提下公布数据。当下,更为重要的是司法算法决策的测试规则应被明确,需要建立认证或者审查算法的框架,能够有效面对算法歧视的隐蔽性,以及将传统的歧视审查标准适用于算法评估标准的可能性。平等原则是法治原则和程序正当的共同需求,是一种宏观的制度趋势,往往体现在一种直观性判断,且具有一以贯之执行方法[13],如果算法的设计者、控制者、监管者、使用者缺乏一致的公平观,则很难以算法决策贯彻传统的司法价值。在既有的立法或者司法实践中,平等的保护往往体现对具体问题的解决,如公平原则论证算法歧视造成伤害的重要性和总结司法证据类型意义重大,因此满足直观上非歧视的判断标准,防止算法对决策一致性的破坏,在使用算法决策过程中,维护法治的稳定与明确是司法程序与算法决策相互结合必须解决的问题。
四、权力界限:司法决策中的算法伦理与人性化保障
(一)算法伦理规制旁落的权力运行
权力是一个发展变化的概念,从经典自然法学派模拟“自然状态”中的人们进入政治社会的过程,推演权力的国家化的合法性,到权力社会化的讨论,再到数字社会对于权力运行产生新的影响和塑造,权力自身的发展经历了中心化、去中心化和再中心化的过程。权力的发生机制、作用机制、运作密度因数字社会的结构性变革而变化。数据解析和算法推荐等技术对传统的裁判视域、判断、甚至最终决策产生影响,司法程序算法化面临标准一致性与权力外包的情况。诚如福柯在《规驯与惩罚》一书中强调的权力与知识的专业性存在密切的联系[14],司法权力算法化的扩展会加深对秩序性的依赖,进而造成对数字人权保护的整体性动力不足。具体的表现有:技术领域的自我规制动力不足,导致算法歧视和社会公平问题的广泛存在;算法权力存在垄断,可能造成社会信任问题;伦理规制无法与司法算法决策有效的进行勾连。司法权力所倡导的价值,不是精确地成本分析或者私益分析,而是依赖行为是否符合共识。较之于人类彼此的思想认知,算法彼此更容易实现或者识别达成一致,但是一致性不等于共识性,而在于算法能否顺利的复制人类的价值。
司法算法决策中权力运行正当性问题,会涉及一个本质性的哲学思考,即古今的优越性比较。有学者提出司法推理的过程在于求善而非求真。而信仰与知识,或者说“本能”与“理性”的论证都是以各自的方式宣扬真理的存在。隶属于科技领域的人工智能技术正是取代了哲学过去的崇拜与权威之后,应用于司法决策领域的。因此如何实现客观之外的主观、普适之外的特殊、确定之外的模糊性问题还有待探讨。科学理论倾向于规律化和规范化的构建,进而通过归纳和演绎的方法,可以重复的实验条件检验理论。但在司法算法决策的过程中,复杂的社会现象简单的化约成模型存在抽象化转变为理想化,普适化到公理化的转变。而经验证据并不能达到科学条件的确定性,并抽离出完全可控的条件以验证理想类型,这样的普适化过程要么是理想化的,要么是脱离实际的[15]。司法算法决策是凭借经验和证据的合理猜测,这一权威存在的前提就在于对“不能实现绝对真实”和“不能验证绝对真实”的承受与尊重。因此算法决策应该是对既有司法现象有限的延伸,而非无限扩张。司法算法决策的任务也并非实现一成不变的公理性化约,而是更加准确厘定规则的适用范围。
为解决这一问题,可以沿着前人对正义的解答进行两种道路的探索:一种是纯粹的思辨人性的基础并以“高贵的自然取代神圣的自然(die vorne Natur erstzt die gottliche Natur)”[16],以阿西莫夫三原则作为依据,提出建立司法算法决策伦理原则,包括司法人工智能必须有益于人类、必须把人作为目的、必须贡献于系统性的社会建设并服务于司法公正的要求[17];但诚如列奥·施特劳斯所言,传统意义的哲学已经失去其确定性,但这并不意味着伦理建设在司法权力运行中不重要,而是应当在看到传统伦理学在定性判断和合规风险中的式微,认识到尤其是康德道义论和边沁的功利主义都不能完整的回应司法算法决策带来的伦理危机[18]。因此第二种路径并不满足于以形式主义或者虚无主义来实现人性的洞见,而是将之防止在科学性和民主性业已动摇哲学稳定性的基础前提下,思考个体与整体、哲学与政治的关系。司法人工智能的发展要遵循国家治理的内在逻辑,明确人工智能技术对司法裁判主体和司法权能的影响,确保职能与权利的行使,合理配置司法裁判资源[19]。因此关注算法决策的道德维度,不仅要以伦理规范寻求主体在传统上的权威性,而且要让规范运行始终保持对客观秩序的关注和警醒,以伦理建设的敏感性维持对司法决策领域立法的科学性,以道德的包容性促进司法权力保障社会生活的丰富性和活跃度,以其协调性和应对新技术风险的识别、评估、处理问题,实施全流程监管。
(二)以人性化保障加强司法责任
独立的算法决策依赖于文字、图像、语言或者视觉等识别系统,给司法程序带来权力的变化。算法会让权限走向集中化[20],并可能从传统的国家决策转变为私人业务的范畴,而这些非公共机构过去可以不受人权法的约束,但是其中如何管理和组织处理个人信息,采用何种方式审查言论,以及如何使用公民的隐私都会涉及基本权利问题。人权理事会从《联合国关于跨国公司和其他商业企业责任的规范(UN Norms on the Responsibilities of Transnational Corporationsand Other Business Enterprises 2003-8-13)》开始就强调:国家在互联网时代如何保护个人数字化的人权问题;承担公共服务的商业机构和组织如何承担保护人权的义务,以及国家对私人和组织实施算法自由的保障。传统的人权保护路径在算法领域的延伸,也强调国家行为的适当性。
在这一过程中,算法布置的泛化,除却急剧上升的司法成本,普遍自动化执行还带来对人性因素的弱化。司法责任的存在,在于当事人在追求自身权利或者感受到自身权利受损时,应该明确知道他所反对的决策是哪一主体作出的。算法决策所引发的担忧源自人们对机器的不信任,算法决策通常严格执行决策程序标准,但许多时候,越是严格执行程序给当事人造成的影响就越大;深度学习算法能够快速整合诸多变量,但其输出结果的质量难以被人类验证,因此难以问责。与之密切相关的问题是,决策者与被决策者都会丧失获取关键信息、表达自由意志、反对算法决策的机会。而这在司法决策过程中尤为重要,无论是在法官职权主义还是当事人对抗主义的诉讼模式中,陈情的权利都被视为司法的自然正义。此外,排除人为因素并非算法决策的目的。因为人的因素在司法决策中具有其独特价值,第一,人的决策具有弹性,裁量权可以提升系统性表现;第二,人的决策保证价值规范持续性的输入;第三,完全以数据和信息作为判断和决策的依据,可能会忽略人的主观能动性,同时完全的客观主义作为抽象范式的依据,最终将造成规范的僵化。
以人性化保障,加强司法责任的落实,在实体正义方面,应当坚持借助算法决策的合理性与维护法官主导性相统一的原则,防止对司法权力的解构和人的主体性消解。人权的保障既是法律的价值追求,也是切实的制度实施。人性化因素的保障离不开程序原则对法律实施公平的保障、公正的审判、对公民的平等对待。传统的侦查—起诉—审判—惩罚程序相互分离,算法决策也要防止因将这些程序融为一体,带来执法与审判权的融合,如果司法治理的重点转向侦查与预防,将对原有的人权保障造成重大挑战。正当程序要求对司法过程的算法设置具有可解释性、竞争性和可问责性。对于如何设置并承担司法算法决策的责任,对司法算法决策结果进行质疑,可解释性是保持人的主导地位的前提。一定程度上,如何平衡询问信息的自由与保护公民的自主,表达自由与保护隐私之间的关系,取决于司法管辖权。规制情形和规制策略虽有差异,事先审查不能取代司法的事后裁决,随着技术的进步,对算法决策功能的全面了解具有更加实际的价值。所以算法决策的正当性有待于技术的成熟,另外可以通过数字排名,引入竞争,增强政府和公民个人对于商业机构加入公权力运行的筛选,通过行业竞争增加信息公开的内部动力。因此,司法算法决策的合理性,又是一项公共事业,需要技术、权利、权力的协作。
结论:司法算法决策拥有一张普罗透斯的脸
人工智能发展的“奇点”看似遥远,却已靠近,算法表面中立,但可能以自动化决策隐藏深刻的社会偏见;同时,算法决策克服了司法固有的系统障碍和人类缺陷,能更加妥善地深度学习并解析法律文本、获取数量庞大且复杂的系统性法律知识、创造性地改进法律推理方法,实现从辅助到自主性司法决策的可能。但司法系统与算法系统的结合,从来就不是为了单纯的发挥技术优势并实现精确地利益衡量,克服技术风险也不是系统性评估的唯一标准而是前提条件。司法算法决策应当实现司法权的固有职能和在维护社会功能层面的独特性,这是其作为算法权力在司法领域延伸的权力起点,权力运行的过程应当注重程序算法布局的科学性,权力运行还要实现结果的公正和非歧视,并且在人性化保障和伦理规制层面,明确权力边界,健全司法责任。但是司法系统与算法系统的结合,并不是一帆风顺,其在起点、过程、结果和界限各个层面的博弈生动体现着规则理性、技术理性和社会价值拒斥又结合,冲突又协作的关系,体现着自然正义与实体正义、国家正义与个体正义、分配正义与交换正义、一般正义与个别正义、程序正义和实体正义的探寻与权衡。