APP下载

论算法可解释性机制的构建
——司法场景下的算法法律规制逻辑

2021-03-07陶怀川徐寅晨

武汉交通职业学院学报 2021年3期
关键词:解释性当事人司法

陶怀川 徐寅晨

(西南政法大学,重庆 401120)

一、问题的提出

智慧法院是指依托现代人工智能,围绕司法为民、公正司法,坚持司法规律、体制改革与技术变革相融合,以高度信息化方式支持司法审判、诉讼服务和司法管理,实现全业务网上办理、全流程依法公开、全方位智能服务的人民法院组织、建设、运行和管理形态[1]。我国智慧法院建设起步于20世纪90年代。1996年,最高人民法院下发《全国法院计算机信息网络建设规划》,拉开了人民法院信息化建设的序幕。2015年7月,全国高级法院院长座谈会首次提出“智慧法院”概念。伴随着大数据、云计算和人工智能等新兴科技手段的发展、司法改革的需要以及案多人少的客观现实,人民法院对智慧法院有了更深刻的认识,同时也对智慧法院建设提出了更高要求。在智慧法院的政策支持方面,2016年,智慧法院建设纳入《国家信息化发展战略纲要》《“十三五”国家信息化规划》;2019年2月,《人民法院第五个五年改革纲要(2019—2023)》发布,为智慧法院向更深领域智能化迈进给出清晰路径。

智慧法院建设迈向纵深,应对不同司法场景需要的司法产品亦层出不穷。算法技术作为现代科技手段,被视为“破解改革难题,提升司法效能”的关键。其在司法领域的发展和运用被寄予厚望,成为学界和实务界关注的焦点,在域外,已有直接参与风险评估与定罪量刑的实例出现。然而,算法技术在司法领域中应用热潮方兴未艾之时,也需要关注到算法自身特性对司法领域带来的冲击。由于算法自身的构成具有复杂性,算法成型之后大多具有商业秘密的外衣会导致其具有“黑箱”特性,这与司法程序强调的公开透明相背离,也与社会民众对司法的传统认知不符。因此,在司法场景中,如何增强算法的透明性及社会民众的接受度,使其适应于现实的司法结构,是算法技术在司法场景下进一步拓展应用的前提。在司法场景下,算法公开不能妥当地解决当事人对算法决策的理解和接受度的问题以及个人数据赋权进路存在行使信息保护权利障碍,反算法歧视存在数据缺失,制度调整成本高昂等问题。在此背景下,算法可解释性机制作为一种可能的方法被提出。作为一种有效手段,人工智能研发者对算法作出必要解释被特别强调[2],在司法裁决中,凡涉及自主研制系统,都应提供一个有说服力的解释[3],由此观之,这一原则已经为越来越多的人认可和接受。在司法领域纠纷解决语境中,“可解释”意在向受自动化算法决策影响的相关人释明应用该算法决策的合理性和正当性,使决策结果被相对人信服和接受。使用“机制”一词,意在取其引申含义,说明“可解释”的构造、功能和相互关系。在技术语境下,保障算法可解释性的核心目的在于算法的深度开发和应用,指的是人工智能应用中的方法和技术应该为人所理解和接受[4]。算法在智慧法院体系建设中的作用愈加凸显,构建“可解释机制”意在保证算法决策在司法场景中作出时,对当事人的质疑能够给出合理、正当、有说服力的理由,以维护司法权威,保证司法公开,增强当事人的可接受性。本文聚焦于算法可解释性机制的构建,以为司法场景下算法的法律规制提供一种可能的方式。

二、传统算法法律规制路径评述

“针对算法崛起所带来的法律挑战,学界公认的三种法律规制方式是:算法公开、个人数据赋权与反算法歧视。”[5]本文分享此种共识,但聚焦于一个更加具体的问题:算法于司法领域的运用及规制应当采取何种进路更为合洽。故而有必要对传统的算法法律规制方式进行述评,并寻求在司法场景下合适的算法法律规制路径。

(一)算法公开

算法公开进路认为,算法技术应用的最大阻碍在于算法的不透明性,因此算法透明化被认为是算法规制的重要途径[6]。算法形式多样、结构各异,对当事人来说就是一个难以捉摸、无法理解的“黑箱”。甚至算法的设计者、运行者,对算法将产生何种结果亦无法准确地预估。但许多算法设计者认为,算法一旦投入生产,便是其具备核心竞争力的商业秘密所在,一味公开算法只会有悖知识产权制度。就提高算法透明度而言,可资借鉴的标准规范见于欧盟《通用数据保护条例》、美国计算机协会《关于算法透明度及可审查性的七项基本原则》等。德国在《自动驾驶法》中要求智能汽车必须安装类似“黑匣子”的装置来对汽车的驾驶情况进行如实的记录,以便交通事故发生后,及时明确责任的承担。在规制算法过程中,为了增加透明度要求,亦可以对整个运作过程予以记录,确保运作程序的公正透明[7]。学界讨论代表性的观点有:内部监督与外部监管相结合,事前管控与事后追责并重;建立专门的规制机构进行规制,如建立“算法审计员”与“大数据局”等里应外合的监管机制[8]。

算法公开进路突出的问题在于,虽然关注到了算法透明的必要性和重要性,但无法针对裁判领域个案当事人的心理特质进行制度设计。另外,即使进行了算法公开,相关人也难以理解运算数据与源代码,但司法场景中的算法决策必须为相关人所理解,否则难以为当事人所接受。

(二)个人数据赋权

以个人数据自决权为核心,构建个人数据权利体系[9],赋予公民或当事人选择退出的权利,并赋予公民对个人信息的控制权,可以要求企业对所收集到的个人信息进行限制、删除等,并建立专门的算法问责制度[10]。包括中国在内的不少国家对于个人数据保护都有相应的规定。我国《民法典》第1034条到1039条规定了个人信息保护的相关权利。《个人信息保护法(草案)》规定了个人信息处理规则、个人在个人信息处理活动中的权利,其第44条前半句规定,“个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理”。欧盟《一般数据保护条例》规定了包括知情权、选择权、访问权、纠正权、删除权等在内的涉及个人信息保护的权利。个人数据赋权进路的逻辑构造在于通过赋予个体一系列的数据权利,强化个人对个人数据的知情与控制。

算法司法决策场景中通过个人信息赋权进路进行法律规制突出的问题表现为,个人在数据收集层面的迟疑和数据处理层面难以行使反对权。首先,数据收集通常采用知情同意原则,例如,当首次打开APP时,会弹窗跳出一份使用告知书,详细载明信息收集事项和隐私政策,然而真正详细阅读隐私政策之后才使用APP的人微乎其微,这种客观情况造成了知情权的弱化。其次,个人在面对数据处理时,虽然被赋予了反对权,但算法黑箱效应带来的影响阻碍了反对权行使的路径,权利主体难以知晓其数据是否被处理了,难以说明在哪些环节被处理,以及最终的使用去向等。最后,个人信息处理的例外规定,也对个人信息处理活动中的权利进行了一定的限制。例如,我国《个人信息保护法(草案)》第44条虽然赋予了个人处理其个人信息的权利,但在其后半句也作出了限制,规定“法律、行政法规另有规定的除外”。

(三)抑制算法歧视

算法歧视也称为算法偏见,是指“算法开发者或所有者可以调控程序参数,从而得到想要看到的结果”[11]。从技术层面来看,算法歧视主要因数据偏差与算法设计偏见产生[12]94。司法场景中通过抑制算法歧视途径对算法进行法律规制存在着数据层面和算法设计层面两方面的问题。数据层面上,一是智慧司法所倚重的裁判文书数据库存在相当的数据空白,且各地依经济水平、司法环境的不同,亦存在“司法数据”采集和上传的断层;二是裁判文书表现为大量的非结构化数据,而算法的迭代更新和深度学习需要大量结构化数据驱动;三是特殊类型案件或者疑难案件并未上网公开,造成司法实践中面临着“简易案件不需要,复杂案件不敢用”的尴尬境遇[13],而上述案件恰是最需要法官智慧和时间投入的案件,同时也是最考验算法司法决策技术水准的训练样本[14]。算法设计层面上,算法开发者、设计者的主观好恶与价值追求都会或多或少的与算法融为一体,造成隐秘的偏差。当前司法领域算法设计的常见配置为“计算机专家+法律专家”模式,其弊端在于设计与使用相分离,导致真正从事审判实务的专家难有大量时间亲自参与科技研发,而计算机工程师难以理解新制度的具体功能和发展历程[15]115。

三、“可解释”算法技术的应用需求

(一)维护法官主体性

以法官主持、审理、质证和裁判的纠纷解决程序是司法裁判系统的核心[16]。具有可解释性的算法技术以维护法官主体性为价值目标。这是考虑到司法活动运行规律,法官审判工作的系统性、职业性以及经验性[17]和人工智能技术在当前阶段的发展特征之后得出的结论。首先,当前算法技术的发展还处于弱人工智能阶段,并不能脱离法官,独立进行价值判断工作。法律是善良与公正的艺术,司法活动中法官的价值判断则是实现公正的必要手段,体现在司法程序进行的各个环节,比如查明事实中的事实认定与证据采信、定罪量刑中的罪名区分等,均端赖于法官的理性和良知,再由其内心形成内心确信。在此意义上,可解释性算法技术既然还不具备法官的能力,也就不能越俎代庖取代法官的位置。将其准确定位辅助性之地位,运用可解释性算法技术在证据标准、证据规则统一、证据合法性校验、逻辑链比对、类案推送等不涉及价值判断的司法场景中,以提高司法效率是较为实际的做法。其次,从社会公众对司法人工智能的接受度来考虑,人工智能裁判与民众对传统司法的认知差异较大,可接受性不高。可解释性算法技术的应用仍需以维护法官主体性为核心价值目标,通过技术建设保障法官亲历审判、直接言词等传统的司法活动基本要求,让社会民众感受到公平正义。最后,算法设计者与算法使用者分离的客观状态要求维护法官的主体性地位。算法技术于司法领域深度运用是顺应现代科技发展和司法现实要求的务实选择,但并不是要将司法权交给算法。与此相反,算法可解释性机制构建的目的在于防止算法被个人主观因素侵蚀,在算法开发中努力实现立法者、专家学者、律师和社会人士的开放性参与,突破设计与使用相分离的状态;在算法运行中,着力打造可公开、可解释、可救济的智能系统,防范算法黑箱和算法霸权[18]。算法技术在司法领域中的运用是一个长期发展和不断完善的系统工程[19],应根据技术发展阶段的不同特征进行取舍,扬长避短,逐步推进现代科技的应用,或许在更高的技术阶段,算法裁判可以为社会所认同。但当前阶段,其只能定位于辅助性地位,维护法官主体性,助力我国社会治理法治化建设。

(二)保障当事人公正需求

囿于算法的黑箱特性,算法在司法场景中的运用常常被诟病有不透明之嫌疑。狭义的司法活动指称的是裁判活动,当事人选择司法途径解决纷争,原因在于通过司法程序能够使受侵害的权利得到救济,纠纷能够平息。算法技术于司法场景的运用,需有助于司法机关实现救济与止争的功能,否则将其引入司法领域的意义便无法彰显。然而,完全的算法透明很难实现,一是因为算法可能受到商业秘密法则的保护,对其进行公开具有一定的难度;二是因为追求完全的算法透明耗费较高。故而,算法于司法场景中应用要适应司法领域的特点和当事人公正需求,保证一定程度的透明度即可。可解释性算法应用于司法场景之中,目的在于更好地保障当事人的程序权利和实体权利的实现。具体来说,在涉及到算法技术应用的司法场景,要做到不影响当事人程序权利和实质正义的实现。保障司法活动的透明和公开,在有算法介入的场景中,为当事人提供详细的操作指引和操作目的说明。并且,诉讼程序具有精密性和复杂性,算法在辅助诉讼程序推进和实现的过程中,需对其运行步骤进行说明和解释,以得到当事人的认同,确保当事人的程序权利充分行使,以保障实体公正的实现[20]。上海高院研发的智能辅助办案系统在功能上实现了程序瑕疵的预防、发现和提示的功能,即是保障程序正义的典型体现。

(三)提升司法权威

任何技术的运用要能够提升司法权威,而非减损司法权威,算法技术于司法领域的应用亦同此理。在此逻辑前提下才能进一步探讨可解释算法的功能发挥。司法权威首先来源于司法确认,但更重要的来源是社会民众的认可,要得到社会民众的认可,司法活动必须具有使人信服的力量和威望[21]。可解释性算法应用于具体案件的审判之中,需能够对所得出的结论的正当性作出令人信服的解释,才能够保证获得当事人的认同。否则,如卢米斯案一般,法官在COMPAS系统所得出的结论在解释上含糊其辞,则会引起争议,削弱司法权威。具体来说,除保障正当程序、维护司法公正、当事人认可,这几点前已述及的理由之外,在随着经济社会的发展,纠纷数量日益增多,纠纷解决复杂程度不断提高,在大量案件涌入法院的客观情况下,司法效率的保持和提高或许是可解释性算法引入司法领域的重要考量。《人民法院第五个五年改革纲要(2019—2023)》接近三分之一的篇幅,共计十二项改革措施涉及法院的智能化建设,其中八项涉及大数据分析技术,三项涉及算法优化,一项需要算力(云计算)提升,一项涉及人工智能技术(语音识别)。可以看到现代科技已经广泛应用于多元化纠纷解决机制建设和智能辅助办案系统建设。例如,统一的在线矛盾纠纷多元化解平台,为当事人提供了包括纠纷的在线咨询、评估、分流、调解、确认在内的一站式服务;利用信息技术推动线上线下相结合的司法确认模式,打破传统线下司法确认的时空限制等等。由此观之,可解释性算法需要顺应提升司法权威的司法应用需求。

四、可解释性机制的正当性

(一)算法在司法领域外显的权力属性决定了可解释性机制构建的正当性

在算法技术日益成熟的今天,以其为核心的“智慧法院”“数字政府”等概念也悄然兴起,算法已逐渐深入大众生活与国家治理的方方面面,人类社会进入算法治理时代已趋必然,而算法解释权是保障和尊重个体自治性的首道屏障[22]。有观点指出:当一个系统可以凭借人类无法企及的速度并且基于个体所不具备的海量即时数据产生某个决策时,显然就构成了一种洞察力与决策能力,这样的能力很容易发展成为权力[23]7。在此种场合下,算法成为一种新型权力形态,即算法权力[24]——以算法运算过程替代决策前的思维和讨论过程,将算法与公权力相结合,易形成一种更为隐秘的权力形态。体现在智慧司法场景下,便使得审判活动的公正性和公开性大受影响,操控算法选择和应用的元素因无法辨识而将导致司法责任制度逐渐沦为陈设,公民合法权利将受到来自于更为隐秘的权力之侵蚀[15]105。故此,算法具有的新型形态揭示了算法运用于社会治理和司法裁判领域所具备的权力本质,其需要通过算法解释保证算法运行的正当性与合理性。权力作为一种强有力的社会治理工具,对把控社会发展方向具有不可或缺的作用,但对个人权益的消极影响而言,需要通过监督和解释的路径予以规制,以期良性发展。如是,以算法透明度和算法解释权为核心的欧盟《通用数据保护条例》(GDPR),成为世界上首次在成文法意义上明确的算法规制方案,其通过个人赋权(算法可解释和反对权等),以赋予个人对抗性的权利来实现算法权力的规制[12]96。

(二)算法决策在司法领域发挥的功能决定了可解释机制构建的正当性

如今,智慧法院的建设场域已从审判辅助领域的诉讼服务和执行阶段向证据规则和法律依据适用领域不断拓展[25]。同时,算法自身所具备的弊端——如算法黑箱、算法偏见等,都将在一定程度上动摇着智慧法院建设的根基,在促进司法公开、司法高效与司法便民的同时,亦制约了智慧司法的发展。算法司法决策可以在裁判领域的各环节形成便利,但由于法律价值判断的非确定性,人工智能只能不断重复法官对案件的审理思维和行为,而不能理解其中的价值性。故而人工智能算法之逻辑与法官自由裁量权所体现的冲突,在某种意义上可以归结到认识论的差异之中[26]。如此,在算法参与的案件审判中,既存在认识论的差异,自然需要从认识论的角度给予相关人以解释,以期破解算法运用于司法领域所易形成的信息茧房。同时,数据作为算法的来源,正如修建地基之材料,其被抓取的源头、体量,都在一定程度上影响着算法的运行。故而智慧法院场景下算法的解释应当专注于算法运行与数据收集两方面。

(三)算法技术深度融合司法的发展惯性决定了可解释机制构建的正当性

有学者指出,我们很多时候所指称的人工智能其实只是IA( Intelligence Augmentation) ,即智能增强[27]。在处于弱人工智能时代的今天,算法技术与司法领域的融合正处于创新的“浅水湾”。究其原因,乃是依赖于人工智能技术的智慧法院建设存有一定的审慎态度——技术作为第一生产力,其在推动司法进步的同时,也在深刻地改变着该领域既有的规则体系。在如此的发展进程中,步伐迈的太大并非一件幸事,其必将伴随着诸多问题的集中爆发。我们认为,我国智慧法院的建设出于自上而下的政策推动,科技与司法的融合虽已成为必然趋势,作为智慧法院大厦之基石的算法也必然逐渐深度参与司法,这一点毋庸置疑。但步伐如何迈得更稳健,路途如何走的宽广,正取决于我们对算法的把控,即有的放矢地使用算法,一方面要使算法促进司法发展,另一方面从机制建构的角度钳制算法的副作用,如此发展的核心,便是算法可解释。可以预见到,在未来的数十年中,科技与司法将进行更深程度的融合,算法也必将从工具型的定位向分析型定位迈进。这之中,算法的解释将有助于消解智慧法院建设路途上关于智能系统介入裁判领域的疑虑;而算法可解释机制的建构,无疑将从较长一段时间的视野里助力于智慧法院的发展,使算法真正成为司法阔步于新时代社会治理领域的车之轮、鸟之翼。

五、算法可解释性机制的建构路径

(一)实现算法可解释性机制的程序保障

1.赋予当事人算法解释请求权

赋予当事人算法解释请求权,是为当事人行使技术性正当程序权利奠定基础[28]。典型的算法解释权路径,如欧盟《通用数据保护条例》(GDPR)以1995年欧盟数据指令为蓝本,在“鉴于”部分第71条和正文第22条针对基于算法的“自动化决策”赋予个人干预的权利,允许其表达的观点,在评估后获得该决策的解释,以及对决策提出质疑[29]。本文的基本设想是,遵循以权利制约权力的控权逻辑,在算法司法决策启动之前或者算法司法决策出现个案非正义结果之时,当事人有权依据算法解释请求权,要求开发者、司法机关共同对决策程序的功能运行和决策结果提供解释与证明。

2.正当程序保障

司法领域属于核心的、高敏感的公共事务领域,故算法运用于智慧司法场景时,必须提高其公开性、透明性以及可解释性的等级与程度,以避免引起严重的正当程序问题[30]。算法可解释性机制要着力解决的是算法司法决策相对人参与司法的正当程序保护问题,适用算法决策之前,需告知决策相对人决策系统的逻辑、意义、设想后果和一般功能,起到保障公民权利,维护司法运行基础的作用,避免出现算法司法辅助或者决策影响司法公正的消极影响。故而应当赋予当事人程序选择权,保障当事人程序参与权,着力保障相对人的知情权和抗辩权。

第一,赋予当事人程序选择权,首当其冲的是赋予当事人启动算法可解释性机制的权利。在当事人对算法司法决策结果存疑时,有权申请启动算法解释程序。最终是否启动算法解释程序由司法机关根据案件具体情况决定。如果司法机关决定不启动算法解释程序,应当将不启动算法解释的决定书及理由一并告知当事人[31]106。其二是赋予当事人拒绝算法司法决策的权利。具体设想是,当事人在纠纷解决程序启动之前,即可根据个人意志无条件地选择是否适用算法司法决策,比如若当事人认为采用算法司法决策会严重影响个人关切的环境、行为和选择,或导致个人遭受排斥或歧视,则其可以拒绝采用算法决策。

第二,保障当事人程序参与权。由于算法司法决策过程的“黑箱”属性,使得当事人参与程序的获得感大大降低。当事人将争端解决最终交由法院,并试图尽可能多地参与这之中的每一关键环节,以促法官能够真正、充分地理解他们的观点和要求。对当事人的这种愿望应给予充分的尊重,这将使当事人内心潜移默化地产生一种信念,即法官已经充分关注到我的“声音”,这将极大地影响当事人看待司法公正的眼光。基本设想是,在程序推进的关键环节构建可视化操作流程,通过程序节点状态和概要信息展示,令当事人通过视图直观地把握程序进行的整体状态。在当事人提供个人信息与智能系统进行交互时,系统应予以充分提示。

3.有效性审查

为确保算法可解释性机制的有效运行,有必要对其进行有效性审查。有效性审查有助于评估个案中的算法司法决策,并确定所涉及的算法系统作为一个整体是否按预期设计在运行。要将算法可解释性机制作为一个广泛的社会治理技术过程进行理解,构建全面审查的系统框架。可解释性机制的有效性审查的具体内容包括可解释机制的启动运行、结果和后续影响[32]。首先,可解释性机制能否在算法司法决策出现偏差时有效启动和运行,是检验其有效性的重要标准。重要的审查要点包括:可解释性机制启动的申请人、申请理由、程序运作过程的技术节点记录。其次,可解释性机制运行的结果,重要的审查要点包括:对解释申请的最后结论以及作出结论的理由,结论在实践中的公平性、有效性和合法性。然后,可解释性机制运行结束的后续影响,重要审查要点包括:当事人是否接受审查结论,审查结论是否达到了社会效果和法律效果相统一。我们认为,只有从整体上达到了切实解决算法司法决策解释之困境,使当事人信服,使社会效果和法律效果相统一,才可以说是可解释性机制具备有效性,否则,则其有效性尚有欠缺。最后,可解释性机制运行的每一关键环节应有详尽备案记录,以便复查。

4.救济程序

救济权是当事人的重要权利,算法司法决策结果有可能影响到当事人实体权利的实现或者加重其义务,因此,赋予当事人完善、可行的救济权利是理性的选择[31]106。具体来说,如果当事人对不启动可解释性机制决定不服,可以通过向上一级法院申请复议来实现救济。之所以选取复议作为救济方式的原因在于,一是本文主张可解释性机制是独立于审判程序之外,单独的程序,对算法司法决策进行解释,并非法院审判权的延伸,故而不能将其纳入审判监督程序框架予以救济。二是算法司法决策启动可解释性程序进行解释的行为与具体行政行为具有相似性,且与审判监督程序相较,复议程序更灵活、简便、高效。具体设想是,当事人向上一级法院申请复议,上一级法院在收到复议申请后,在法律规定时限内做出答复。

(二)构建算法可解释性机制的实体规范

算法可解释性机制要良好有序运行,离不开对其具体功能有效界定,算法可解释性机制的实体展开递进的包括由谁解释(解释主体)、解释什么(解释内容)、如何解释(解释标准)三方面的内容。

1.解释主体

在算法司法决策场景下,我们认为,解释主体至少可以分为算法开发者与算法使用者,开发者主要指算法设计人员,算法使用者主要指法官。算法技术的复杂性,开发者和使用者分离的客观现实决定了算法决策的解释主体多元化之特性。当事人、审判组织、社会公众、监管部门、独立研究者都会对算法技术的应用产生怀疑和不信任,因而需要算法决策进行解释,以打开算法“黑箱”。算法司法决策的应用必须考虑到,算法司法决策相对人及其代理人在司法程序进行的每一环节均有可能对算法的应用提出质疑。如果当事人质疑技术的程序事项,比如算法程序的开发、审核以及部署,此时应由算法设计者担当解释主体进行解释,因为只有算法设计者才能清楚地说明技术原理和运行逻辑。如果当事人质疑算法司法决策结果的合理性,此时应由法官担当解释主体,向当事人作出解释。需要指出的是,算法开发者与算法使用者作为解释主体,在算法司法决策应用场景中进行解释时,二者应该是互相辅助、互为补充、联合行动的,原因在于当事人不服算法司法决策结果,通常是对整个算法技术应用的合理性进行挑战,此时需要解释主体根据当事人提出的解释要求,与其进行充分的沟通交流,作出针对性的解释。

2.解释内容

司法场景中的解释内容,旨在解决算法设计者、算法使用者向算法司法决策相对人解释什么的问题。具体而言,算法设计者的解释内容应当包括数据的收集和使用、算法设计的基本原理、算法程序运行目的、原理以及算法标准。另外,在将已经经过验证评估的算法交付司法机关使用时,还应将可能出现的技术漏洞及风险予以考虑并告知司法机关[33]。司法机关应坚持从法律条文的规范目的出发,联系刑事政策与公共政策的社会取向和价值判断对算法司法决策内容进行解释[34],从司法逻辑与法律论证的吻合度、裁判过程与个案具体情境的精密度以及裁判结果与司法政策的契合度三方面,向算法司法决策相对人解释裁判结果的合理性[35],力求全面真实的向算法司法决策相对人阐明算法司法决策所依据的规则,消除算法规则的歧义与冲突,增强算法司法决策相对人对决策结果的可接受性。

3.解释标准

从解释标准观之,不同的算法司法决策应用场景需要制定不同的解释标准,而非对所有应用场景都要求同一解释标准。比如,对于民事案件场景中的交通肇事、民间借贷一类的标准化程度高的案件,解释标准应与刑事案件场景有所区别。首先可以区分为刑事、民事、行政三大类案件应用场景,在刑事案件应用场景中又可继续区分为事务性场景和实质影响审判决策的应用场景,前者如案卷录入工作,后者如智能审判辅助办案系统中的全案证据审查场景。刑事案件中的定罪量刑场景,比如刑法种类的确定、有罪或者无罪判决的作出,需要由法官独立进行判断。原因在于,从技术层面考量,算法技术并不能准确实现此种需求,从当事人以及社会层面考量,定罪量刑由机器作出难以被接受,此外,此种决策将对传统司法体系带来巨大的冲击。算法司法决策在民事案件解决中具有更广泛的场景,但也应有所区分,对于案情简单、争议不大的案件,当事人对解释的要求自然不高。反之,若算法司法决策应用于家事纠纷解决场景,特别是离婚纠纷解决场景中,如何判断“夫妻感情破裂”则需要作出更多的解释努力,盖因算法这一技术产物,在价值评断上的薄弱,需要法官解释加以弥补。在这个大前提下,欧盟《一般数据保护条例》可以为算法可解释性机制的解释标准提供借鉴,《一般数据保护条例》第13条第2款第(f)项、第14条第2款第(g)项、第15条第1款第(h)项提出了向数据主体提供与算法逻辑相关的有意义信息[36]。司法场景中,当事人对算法司法决策提出质疑,意在救济自己受到算法决策侵害的权利,从这个角度出发,所谓有意义的信息,应与当事人具有相关性,即必须与当事人所受的算法司法决策有关联,对缺乏解释必要性的事项无须解释说明;其次,有意义的信息还必须是当事人可理解的信息,即提供的信息具备可理解性[37],对缺乏解释可能性的事情向当事人说明;其三,有意义的信息需要具有可接受性,澄清算法规则背后的理由。

六、结语

欧盟会议智库《算法决策:机遇与挑战》报告将“可解释性”视为决策系统中的关键议题。《伯克利对人工智能面临挑战的系统性观点》亦将“可解释性”视为人工智能算法“适时、稳健、安全”的核心要素。以上论述表达的核心理念在于:如果算法不具有可解释性,则其也不具备应用的正当性。算法已然逐步发展成为一种新型权力形态,并在弱人工智能时代的今天显示出侵蚀个人权利的苗头,其介入司法领域,需要明确其辅助性定位。面对算法技术深度介入司法领域凸显的新形势和新特点,传统的算法法律规制路径难以适应司法场景的需要,故应明确司法场景中对算法技术的应用需求,考量其正当性,并在此基础上形成解释主体、解释内容、解释标准相对明晰的算法可解释性机制,以修正算法技术深度应用对司法体系的挑战。人类设计算法、运用算法的最终目的是为了增强自身解决问题的能力,进一步提升生活水平并优化社会结构[38]。尽管对算法广泛而深入的应用还存在质疑,但算法在当下和未来的治理体系中正在发挥越来越重要的作用是毋庸置疑的。算法可解释性机制的构建是本文研究的出发点,我们将继续跟踪司法场景中算法可解释性机制构建的理论和实践发展,为破解改革难题,提升改革效能,促进审判体系和审判能力现代化提供更大助力。

猜你喜欢

解释性当事人司法
我不喜欢你
论行政自由裁量的“解释性控权”
制定法解释中的司法自由裁量权
什么是当事人质证?
司法所悉心调解 垫付款有了着落
非正式司法的悖谬
什么是赞扬激励法?
英汉互译中的认知隐喻翻译探究
非解释性宪法适用论
限于亲友“低吸高贷”行为的司法认定