APP下载

司法人工智能的可能空间、内在限度与前景展望

2022-11-24

关键词:裁判法官司法

王 文 玉

(重庆大学 法学院, 重庆 400044)

以布坎南与亨德里克于1970年发表的《关于人工智能和法律推理若干问题的考察》一文为起点,司法人工智能的相关问题开始进入人们视野。近年来随着大数据、云计算、语音视觉识别等技术的突破,掀起了司法人工智能应用和研究的热潮。对此,我国官方及时出台了一系列文件和政策,以积极推动人工智能技术和司法应用实践的深度结合。如2017年国务院印发的《新一代人工智能发展规划》明确提出要加快智慧法庭建设,实现法院审判体系和审判能力的智能化。2019年最高人民法院发布的《人民法院第五个五年改革纲要(2019—2023)》指出:要坚持强化科技驱动,全面建设智慧法院,推动司法改革与智能化、信息化建设两翼齐发。与此同时,学界也开始对司法人工智能的可能空间与内在限度展开探讨。然而,在对司法人工智能的前景展开讨论时,大多数学者或者过于消极地认为司法人工智能只能起到辅助改善法官决策的作用,或者过于激进地认为司法人工智能将全面取代人类法官展开司法裁判工作。其原因在于多数学者仅从宏观性、一般性角度对司法领域的人机共处模式展开原则性和展望性的讨论,而没有立基于司法的独特需求以及司法人工智能的实际应用经验等具体、微观层面展开细致的分析和探讨。因而本文将以司法人工智能的应用现状为出发点,以司法裁判的正义性追求为立足点,对司法人工智能的可能空间和内在限度展开梳理和评析。

一、 司法人工智能的可能空间

依照控制论的观点,只要一种工具或技术能够在某一领域代替人类的思考或劳动,就可以称之为人工智能。如尼尔斯·尼尔森将人工智能定义为能够在相对复杂的环境中展开自主感知、学习、推理、决策的机器或系统。是否能够完成人类所做之事甚至比人类做得更好是界定人工智能的核心标准之一[1]。由此,本文所讨论的司法人工智能便是指那些能够在司法领域替代人类法官展开司法活动的机器或者系统。可以看出,本文所指称的司法人工智能是一种广义上的、涵摄面更为宽泛的概念,“在司法领域中以网络化、数字化和智能化融合驱动为基础的人工智能技术应用”[2]都可归属此类。当前,大量的人工智能法律系统开始进入司法领域替代或帮助法官展开裁判工作,而且这已成为了一种无法阻挡的趋势和潮流。因而有学者就认为:“如若人工智能能够得出超出人类法官的更具可接受性和说服力的裁判文书,那么无论是可靠性还是成本效益都优于人类的人工智能就应当被视作法官。”[3]这样的观点是立基于当前司法人工智能所表现出的高效性和可靠性之上的,可靠性则集中表现为司法人工智能可以保障同案同判、提升裁判理性、坚持客观中立的立场。

其一,与人类法官相比,司法人工智能提供了一种更加高效和便捷的裁判方式。当前“诉讼爆炸”所带来的案多人少的矛盾既增大了当事人诉讼的时间、经济成本,也加大了法官的裁判压力,最终有损于司法公信力的建构。为此,我国积极推动了一系列变革方案,如案件繁简分流制的改革、诉源治理的探索、专业化审判团队的建设,等等。然而,这些方案本质上仍然是通过深挖现有制度潜力的方式以减少案件数量、提升审判效率的,因而未能从根本上化解案多人少的矛盾。司法人工智能则能够凭借其在存储、算法和算力上的优势,借助标准化、自动化、流程化等特点,为司法裁判提供一种变革性的、更具增值力和经济性的生产工具,从而有助于从根本上化解案多人少的司法困境。

从当前的实践经验来看,司法人工智能能够在以下几个方面提升司法审判的效率:首先,司法人工智能在自助立案、在线审判、电子送达等方面摆脱了原有司法审判所受的时空限制,能够有效推动审理流程的便捷化和自动化。如上海市浦东法院开发的二维码自主立案系统,将平均立案时间减少到只有15分钟,为传统立案方式所耗费时间的三分之一左右[4]。其次,司法人工智能的高效还体现在电子数据的生成和审查方面。如通过文字、声音、图像识别技术,人工智能能够有效缩短庭审记录时间。实践中,苏州中院运行的庭审语音识别系统就将庭审时间缩短了20%~30%,甚至在一些疑难复杂案件中,可以缩短50%以上[5]。最后,在裁判文书的生成和制作方面,司法人工智能通过对电子卷宗要素的分解和结构化管理,依照知识图谱和深度学习建构的知识链条,能够自动对全案数据要素展开分析、引证、归纳、组合,从而以要素或图表的方式完成裁判文书的生成。虽然当前裁判文书的生成和制作还需要人工的介入,但就实践效果来看,人工智能已经在缩短文书制作时间方面取得了良好的效果。如海南法院在量刑规范化案件中所使用的量刑规范化智能辅助系统,可以大幅缩短裁判文书的制作时间,在一些程序性案件中,更是能将相关裁判文书制作时间缩短将近90%[6]。

其二,司法人工智能能够充分保障同案同判司法目标的实现。作为裁判正义核心内涵的同案同判原则,既关系到司法裁判的合法性、正当性及社会认同性,也关系到能否通过司法裁判向社会输出明确的是非行为规则信号,推动社会行为的规范化。司法人工智能以先例为训练的数据集合,通过发掘先例中的自变量(如主体身份、行为类型、损害后果)与因变量(如责任划分、赔偿数额、量刑期限等)之间的相关关系,从而建构相应的算法模型,对待决案件作出裁判[7]。这种算法模型的建构保障了当类似案件信息被输入司法人工智能之后,其可以自动根据依照先例所建构的知识图谱而关联相应的裁判知识链条,从而为克服同案不同判的顽疾提供了全新的路径。

虽然当前人工智能还未真正全面介入到司法决策之中,但诸如类案推送系统、量刑辅助系统、裁判偏离预警系统等人工智能法律系统在辅助保障和监督法官遵循同案同判原则方面已经取得了显著效果。如贵州法院建立的办案系统通过发掘先例中的标准值为比对指标,当法官的裁判与那些标准值偏离过大时便会发出预警,从而提醒法官、合议庭及时主动自查,同时院长、庭长、审执团队负责人也可展开相关审查[8]。正是认识到人工智能在保障法律统一适用中的作用,最高人民法院发布的《关于统一法律适用加强类案检索的指导意见(试行)》《关于完善统一法律适用标准工作机制的意见》等都强调了应当进一步加强司法大数据管理平台、类案检索推送系统、裁判偏离预警系统等的建设,从而充分发挥人工智能在保障实现同案同判司法目标中的积极作用。

其三,相较于人类法官,司法人工智能的决策立场更加中立和客观,从而能够有效避免人类法官决策的偏见性或肆意性风险。与以往不同,当前人工智能通过神经网络技术,使算法拥有了深度学习、自主学习、自动迭代等特性,能够直接对司法原始数据要素予以解构、重组,发掘其中的关联意义,并以此为基础展开决策。这就将人情、“关系”等不当案外因素排除于司法决策的过程之外,从而保障了决策的中立性和客观性。对此,有学者就指出:“只要是同类相关的争议都以同一的算法解决,因而司法人工智能能够防范和消除人类法官出于对‘好法官或具有人情味的法官’的名声的追求而任意裁断的风险”[9]。在实践中,司法人工智能的中立性和客观性也受到了肯定。如面对卢米斯以法院运用COMPAS对其量刑有违正当性程序为由提出诉求时,美国威斯康星州最高法院法官就指出:“COMPAS系统依照独立子项和复杂算法得出的关于风险评估和量刑的1~10级的级别评定,具有中立性和客观性,因而是符合程序正义要求的”[10]。

其四,司法人工智能还能够基于法官群体的普遍经验而作出更具稳定性和可预测性的判决。判决的稳定性和可预测性直接关系到裁判的公正性、社会可接受性以及通过司法裁判有效凝聚社会法治共识目标的实现[11]。受益于存储能力、算法和算力的优势,司法人工智能能够通过汇总、分析、归类、索引等方式更加全面地掌握法律法规、裁判文书等司法数据,从而拥有比法官更宽广的视野边界和更周全、稳妥、融贯的裁判思维。一方面,司法人工智能的决策是以全量信息为基础的,其不但在信息总量的掌握上,而且在信息规律的发掘和整理上,拥有超越人类法官的能力。这就保障了司法人工智能的决策更具全面性和理性化。另一方面,即使是在面对新型、复杂、疑难案件时,司法人工智能的决策也是基于法官集体经验和平均理性而展开的,相对于个别法官依照直觉或臆想而作出的裁决,其无疑更具稳定性和可预测性[12]。

在具体实践中,人工智能法律系统已经展现出了优于法律专家的裁判预测准确率,如美国伊利诺伊理工大学和南德克萨斯法学院合作开发了一种算法,通过对1791—2015年美国最高法院数据库的学习之后,研究人员将其用于对1816—2015年美国最高法院法官的28 000项决定和240 000次投票的预测中,相较于法学专家66%的正确率,其以70.2%和 71.9%的准确率获胜[13]。优于人类法官的预测准确性意味着司法人工智能的决策已经拥有了更加稳定和理性的特质,最终将有助于提升司法裁判的确定性和司法整体的公信力。

二、 司法人工智能的内在限度

虽然司法人工智能表现出了优于人类法官的诸多特质,但显然,司法人工智能并不是完美无缺的,其在司法领域的全面应用仍然面临着诸多技术上的困境、价值上的挑战、法治上的难题。只有客观、全面地看待司法人工智能的内在限度,才有助于我们更加理性化地探讨司法人工智能发展的可能前景与努力方向。

1.技术上的困境

首先,司法人工智能的优势在于其是对全量司法数据深度学习基础之上所建构的裁判决策模型,因而司法数据的全面性、完整性、准确性关系到司法人工智能决策的可靠性。目前,绝大多数人工智能法律系统都是以裁判文书作为数据学习来源的,但无论是裁判文书的数量还是质量都无法满足司法人工智能所要求的全面且优质的标准。如我国虽然已经建立起了全世界规模最大的裁判文书数据库,并收录了超过一亿份的裁判文书,但从数量上看,这些已公布的裁判文书可能仅占已审结案件数量的50%左右[14]。从质量上看,由于裁判文书公开规定模糊、监督制度不完善以及法院人力资源不足等原因,存在着选择性公开、已公开的文书质量参差不齐,甚至存在一句话文书、重复公开文书等情形[15]。此外,已经公开的司法数据并不能完全反映司法审判的全貌,例如当事人与法官之间的交流沟通、独特的地域风俗习惯、审委会的讨论等等都是无法通过数据化方式展现的,这也就决定了司法人工智能所习得的数据是有局限性的片段化数据,从而会进一步影响其决策的科学性和可靠性。

其次,司法人工智能无法摆脱算法黑箱的困境,这与司法正义所要求的司法的公开性、透明性相冲突。詹娜·布瑞尔总结了造成算法黑箱的三种原因:一是由于算法关涉国家或商业秘密而出现的“有意的不透明”。二是由于对技术了解能力和程度的不同而产生的“技术文义上的不透明”。三是因算法本身的复杂、先进性而造成的“固有的不透明”[16]。以上三种原因同样也是造成司法人工智能算法缺乏透明性的因素:其一,当前多数人工智能法律系统都是采取外包给相关技术公司的方式建构的,出于对自身商业利益的考虑,其往往并不愿意甚至会强烈抵制相关算法的公开。典型的如在2018年美国纽约出台了《自动化决策特别工作组法》,希望全面监管政府所应用的诸多算法。然而这一法案却遭到了诸多科技公司的强烈抵制,他们以商业秘密保护为由迫使法案不得不将和披露算法相关的规定全部取消[17]。其二,越是高效和精确的司法人工智能算法便需要越多先进技术和复杂原理的支撑,算法知识的专业性无形中为普通人了解其运转原理设置了难以逾越的屏障。绝大多数没有计算机知识背景的法官或诉讼参与人都是无法掌握和理解其设计和运转机理的。其三,人工智能算法的复杂之处还在于其拥有着隐藏性的自我学习、自我编程、自我更新迭代的能力,同时也可以轻松地对万维以上的函数进行拟合。在经历了一段时间的应用之后,即便是算法设计人员也无法对司法人工智能决策背后的算法逻辑作出准确解释。

最后,司法人工智能的主流算法多是以知识图谱和深度学习相结合的方式建立的,在这种以知识图谱为基础的半监督学习方式中,数据和模型的精细化程度直接关系到司法人工智能决策的准确性[18]。然而知识图谱的绘制并不是自动的,需要大量法律专业人员对法律规范以及案件构成的相关节点予以归纳、总结,并打上明确的标签,从而为机器深度学习提供可靠的数据集合。此外,由于裁判文书数据信息的不客观、不真实、不全面,法律术语的不统一,司法数据结构化水平不足等问题,对相关数据的清洗、挖掘、结构化改造等工作也需要大量人工的介入。因而,就当前的实践来看,在司法人工智能领域,“有多少人工方能产出多少智能”“有多少优秀人工才能带来多少优秀智能”[19]。这也就意味着司法人工智能的建设需要长期和大量的人力、物力、财力投入。这一点从上海的智能办案辅助系统仅从6大类8个民商事、行政案由的5 800余份卷宗中,就标注了12万个标注点的实例中可见一斑[20]。另外,由于人文社科领域的主观性和不确定性,当司法人工智能裁判准确率达到一定程度之后,少许的提升就需要呈几何倍的投入增长。在司法人工智能的可靠性、高效性并未完全释放且应用前景并不明朗的情形下,长期的高投入将考验着我们对司法人工智能技术发展和运用的耐心和信心。

2.伦理价值上的挑战

其一,司法人工智能决策无法避免价值偏见的风险。虽然表面上看,司法人工智能裁判能够避免人类法官先入为主的价值偏见,但事实上,司法人工智能本身并没有我们想像的那么中立和客观。一方面,司法人工智能是在深度挖掘和学习先前司法裁判经验与数据的基础上展开裁判预测工作的。在“GIGO(garbage in,garbage out)定律”支配下,司法人工智能在习得先前法官裁判经验的同时,自然也会习得先例中所蕴含的法官的价值偏见,也即“偏见进,则偏见出(bias in,bias out)”[21]。另一方面,由于法院技术能力的有限,多数人工智能法律系统都是通过外包给技术公司的方式建构的。技术人员自身原有的价值偏见或出于对自身利益维护而产生的偏见等便有可能被写入司法人工智能算法中。加之算法黑箱和技术壁垒的存在,这些难以被发现和纠正的价值偏见便有被司法人工智能持续大规模运用于案件裁判中的风险。如美国非政府组织Propublica在对COMPAS系统的调查测试中就发现,这一系统对待黑人的重复犯罪预测率几乎是白人的两倍,但实际数据表明,其所作的预测中只有20%的黑人会继续犯罪[22]。

其二,司法人工智能无法及时根据案情或社会发展需求而展开合理的裁量或适当发展、创制新的规则。司法裁判并不仅仅是简单地将法律与案件事实相结合的过程,无论是对事实的认定还是对相关法律的理解,往往都需要裁决者发挥一定的主观能动性展开适当的裁量。此外,在司法嵌入社会治理的背景下,裁决者还需要考量政治、经济、文化、社会心理等诸多因素,从而充分发挥司法裁判的溢出性效用,以契合与引领时代价值观念和正义理念。然而以“无须满足任何更多的条件即可生成‘是’与‘否’的二元选项代码”[23]为自动化决策基础的司法人工智能虽将人情、关系、金钱等不正当因素排除于审判决策过程之外,但同时意味着司法人工智能并不具备展开价值判断和规则创新的能力。这就将司法人工智能的应用领域限缩在了那些知识需求单一且特定、是非对错明晰、潜在模式简易可辨的场景之中[24]。此外,从伦理上来看,让司法人工智能展开自主的价值衡量和规则创新也是人类需要警惕和遏制的。这是因为一旦司法人工智能能够替代人类展开价值衡量,并为人类创设行为规则,那么人类的主体性地位将受到挑战,随之而来的便是沦为人工智能附庸的风险[25]。

3.法治上的难题

首先,司法人工智能的应用可能会带来司法被技术俘获、法官被算法驯服的风险。有研究就表明,人类一般更倾向于选择信任机器,甚至是处于紧急状况下,人类也可能会对机器给予过度的信任[26]。因而即便在司法人工智能只是辅助法官展开裁判工作的情形下,受从众效应、规避责任风险等因素的影响,法官也往往更加倾向于采取司法人工智能的决策结论,而尽量避免自主性的决断。如若司法人工智能主导了司法裁判,那么真正决定裁判结果的将不再是法官和司法制度,而是创制算法的技术公司和技术人员。这将和审判权独占原则产生冲突,并引发外包科技公司不当介入司法实践的风险。

其次,类似于自动售货机的司法人工智能剥夺了当事人全程和深度参与诉讼过程的机会,并且其还无法提供决策的论证理由,这些因素影响了司法人工智能决策的可信赖和可接受性。有学者通过研究就发现,在决定程序是否正义的相关因素中,过程控制和可信度要排在中立性之前[27]。也即当事人的意见能否在审判程序中得以充分表达、当事人在审判程序中是否得到尊重也是影响裁判结论可接受性的重要因素。然而司法人工智能在这些方面却是无能为力的:“当事人永远无法感知其与决策者之间的个人联系,并且随着技术的进步,人工智能将对司法决策产生更大的影响力,但这同时也意味着当事人所能感觉到的过程控制将会大幅降低,从而最终有损于司法决策的可信赖性。”[28]司法人工智能决策形式的出现便意味着原有递进式的诉讼程序被阶段化的机器论断取代,当事人也将失去通过沟通和辩论不断修正和深入表达意见、通过全面参与诉讼感知决策者对不同利益诉求和价值判断兼容并蓄的中立态度的机会。

最后,司法人工智能决策还带来了司法责任分配的困境。当前,人工智能的责任主体地位、责任分配方式等都是极富争议的问题。审判主体的多元化、错案标准的复杂性、追责方式的模糊性等因素更是使得人工智能在司法领域的责任分配问题面临着多重挑战:其一,由于对司法人工智能是法官的“替身”还是“助手”的角色定位上存在争议,能否将司法人工智能当作法律上的担责主体一直未有定论。即便是对还在猜想之中的强人工智能,也有诸多学者坚持否定其法律主体地位的观点[29]。其二,在现有错案标准模糊、司法追责制度运行不畅的背景下,司法人工智能断案的追责条件以及追责方式的建构也面临着较大的挑战。其三,司法人工智能的出现还挑战了原有的“让审理者裁判,让裁判者负责”的责任分配原则。在责任的承担方式上,是由司法人工智能担责还是由法院、政府担责抑或由科技公司担责也存在一定的争议。

综上,基于对司法人工智能在技术、价值以及法治上的缺陷的反思,就有学者认为,在司法领域,人工智能只能作为法官的“助手”而存在,其无法展开自由裁量工作,也无法自主思考,只是一种更为高级的辅助提升司法效率和公正性的工具。如巴赫曼等人就指出:“包括证据审查、裁判偏离预警、文书纠错等,都只能承担法官决策的辅助工作。对于关键问题,还是要由法官来担任最终的决策者。”[30]

三、 司法人工智能的发展前景

通过上文对司法人工智能的可能空间与内在限度的分析,我们便可以较为全面和理性地看待司法人工智能的发展前景:如何充分发挥司法人工智能在提升司法公正性和效率性上的优势的同时,最大限度克服司法人工智能的技术缺陷、伦理困境等难题。

1.确立积极且务实的人机共处模式

对司法人工智能发展前景展开探讨时,我们首先便需要明确司法领域内的人机关系。显然,单纯地将司法人工智能视为法官的“助手”或“替身”的观点都存在一定的片面性。当前学界较为一致的观点是将事务性工作交由司法人工智能承担,而将疑难复杂案件交由法官裁决[31]。其主要争议点在于司法人工智能是否能够裁决简单案件这一问题上[32],对此,本文持肯定意见。其理由主要有以下几点。

其一,将简单案件交由司法人工智能处理具有技术上的可行性。有学者指出:“之所以人们对人工智能在司法领域的应用有着高涨的热情,是因为作为司法裁判对象的案件相对明晰,作为裁判前提的事实和法律规则具有明确性,而且需要得出的结论也是确定的。这些特性契合了人工智能的形式逻辑内核,自然成为人工智能研究的最佳样本和理想对象。”[33]将这一论断适用于所有类型的案件显得有失偏颇,但将其应用到简单案件之中则相对合适。对于简单案件的裁决而言,其避开了事实认定中复杂的证据推理,以及需要发挥主观能动性的法律解释过程,从而为司法人工智能提供了较为清晰、明确的适用对象和前提。人工智能法律系统只需依照结构化的知识图谱将类案予以关联,并“对号入座”适用法律得出裁判结论即可。当前已经有实践表明,司法人工智能在一些可类型化的简单案件中替代人类法官展开审判工作具有技术上的可行性。如2019年12月,杭州互联网法院就将区块链智能合约技术应用于“深圳某企业诉被告高某网络购物合同纠纷案”中,在国内首次尝试并实现了全程“无人工干预、无外部因素干扰”的司法人工智能断案[34]。

其二,简单案件交由司法人工智能处理,并没有否定人类法官的主导性地位。简单案件之所以简单,在于案件事实和法律规定都是明确的,因而决策者只需要依照法律和案件事实为纠纷提供一个明确的裁决结论即可。而能够体现人类法官主导性地位的则往往是那些需要法官展开价值判断或者创设新规则的疑难、复杂案件。从根本上而言,司法人工智能处理简单案件只是在重复人类法官的经验,而将疑难、复杂案件交由人类法官裁决则保障了人类法官对经验创制的主导地位。只要价值判断以及规则创制的权力还掌握在法官手中,我们便不能断言司法人工智能会危及到人类法官在司法中的主导性地位。

其三,在科学技术进入到“自反性科学化”阶段之后,我们还需要对科学“自我招致”的错误和风险的界定与分配问题予以足够重视[35]。成本—收益分析法无疑是当前帮助我们思考如何正确处理科技与风险之间关系的最基本方法。对于司法人工智能而言,将其应用于简单案件的风险在于可能会出现大规模错判、误判的后果,但由于简单案件有着明晰的案件事实和明确的法律规定,因而发现以及纠正错判的成本往往很低,只需在法院建立相应的算法审查机构,及时、随机地对人工智能算法展开审查并积极受理当事人的申诉意见即可。然而,其收益则是相当可观的:如李少平大法官所言,在诉讼上存在“二八定律”,简单案件占到了将近80%[36],将这些案件交由司法人工智能处理也就意味着大量削减了法官审理案件的数量,进而将会节省法院大量的人力、物力支出。与此同时,法官也可以将更多精力投入到疑难、复杂案件的审判之中,进而促进裁判质量、司法权威和公信力的提升。

2.算法难题之应对

算法是司法人工智能系统运作的核心,因而有效应对算法黑箱、算法歧视、算法漏洞等算法规制难题,是实现司法人工智能决策正当性和可靠性的基础和前提。结合现有研究成果以及司法人工智能本身的司法特质,本文认为可以从以下几个方面应对司法人工智能所面临的算法难题。

其一,建立完善的案例筛选机制,从而为算法提供优良的数据学习集合。首先,由于司法人工智能决策主要集中于类型化的简单案件,因而可以借助现有的案例指导制度、优秀案例评选制度等选择出优质的相关案件作为司法人工智能法律系统建模的基础数据来源。其次,我们还需要进一步完善现有的司法信息记录以及裁判文书公开制度,从而保障作为司法人工智能学习素材的大样本的全面性。我们可以通过提升司法信息记录的电子化和自动化程度,实现简单类案司法过程的全面数据化,从而为保障司法人工智能全面习得法官的裁决信息打下基础。再次,完善的案例退出机制建设对于优化司法人工智能决策的科学性也有着积极意义。在具体实践中,可以通过机器自主清洗、法官在司法实践中标注以及审查机构定期审查等方式,及时清理那些过时、劣质的案例。最后,在对案例的选择以及数据的标注过程中,我们还应当让经验丰富的法律专家参与并主导这一过程,从而保障标注节点的合理性以及数据集合的准确性和代表性。

其二,在算法设计时应当将正义这一基本价值伦理预设嵌入算法之中,从而保障算法决策符合公正性的价值导向。如同凯西·奥尼尔所言,算法是没有道德想象力的,为了保障算法的有益性,将更好的价值嵌入其中从而建构出符合人类道德准则的大数据模型是必要的[37]。算法设计人员将基本的正义价值嵌入算法之中的路径主要有以下两种:一方面,可以通过确立价值函数和权重的方式将司法人工智能的价值判断体系化和客观化。我们可以依照不同案件类型对不同价值的重视程度确定相应的权重比值,从而帮助司法人工智能拥有基本的价值选择和判断能力。依照此种思路,匹兹堡大学的托马斯·萨蒂就提出了等级层次和网络层次分析法,这一算法可以通过定量分析和定性分析相结合的方式,帮助人工智能有效应对价值选择难题[38]。另一方面,我们还可以通过建构“价值判断论证预测模型”以优化司法人工智能的价值判断。“价值判断论证预测模型”的运作原理是通过检索当前案件与先例之间是否有共享的局部或交叉的价值判断区间,并通过权衡这些共享价值判断在先例判决中所占有的比重,从而以类比方式确立当前案件价值选择的论证模型。在具体实践中,格拉布梅尔就对其开发的预测模型在商业秘密法领域进行了相关测试,正确率已经高达75%以上[39]。

其三,通过提升算法的公开性和可解释性以满足司法公开的要求。当前算法的可解释性面临着和商业秘密以及算法先进性相抵牾的问题。由于司法人工智能多是通过法院外包购买的方式建构的,而且这一算法涉及到公共利益,因而法院在和技术公司签订合同时就应当事先将算法代码的交付和公开作为合同内容的一部分,从而保障公众对司法人工智能算法的知情权。然而,代码的开源并不意味着公众就可以掌握算法决策的逻辑架构,实践表明,越是强大和准确的预测模型也往往越是复杂和难以理解,加之机器自我学习、自我迭代能力的强化,许多算法逻辑甚至连专业的技术人员都无法掌握。据此,有学者认为我们不应奢求算法的完全透明,能够对算法目的、设计以及运行的基本原理作出合理解释和说明即可认为是达到了法律要求的公开性[40]。对此,有研究者就开发了一种“概念激活向量定量测试”的算法,其能够以量化的方式显示不同案件要素对裁判结论的影响程度,从而以一种对人类友好的方式解释司法人工智能算法的内部运行状态[41]。

其四,建立完善的算法审查机制是有效消除算法歧视、保障司法人工智能算法公正性的重要方式。鉴于人工智能在各个领域被全面应用的现状,建立独立的算法审查机构重点对涉及公共利益的算法展开监督和审查已经显得十分必要。这样,独立的审查机构也可以对司法人工智能的算法展开全面审查:在司法人工智能算法建构时,审计机构可以要求开发人员将审计线索事先嵌入算法之中,以记录司法人工智能算法决策的依据及过程,从而有助于审计人员开展算法审查工作。例如可以运用以哈希函数为基础的可编辑区块链技术,将司法人工智能算法决策的关键节点予以留存和记录,从而为相关算法审计工作的开展提供便捷的技术接口。在司法人工智能法律系统交付使用前,审计机构应当通过数据测试的方式,针对算法是否存在偏见、漏洞等问题展开审查。在司法人工智能系统交付使用后,审计机构也可采取随机抽查、依申请审查等方式,建立起完善的司法人工智能算法审查机制。

3.对当事人诉讼权利的保障

人工智能技术的发展需要遵循个人自主和个人优先的原则,因而司法人工智能的应用应当充分尊重当事人的自主选择、提出异议、获得解释和救济等权利。首先,即使是对于简单案件,任何一方当事人也都拥有选择是否运用人工智能对案件展开审理裁判的决定权。如若当事人拒绝,则法院就应当将案件的审理判决工作交由法官展开。其次,在司法人工智能作出裁决之后,当事人有选择上诉至上一层级法院的权利,此时,案件的审判应当依照二审或再审等程序,交由人类法官来处理。这样,由于上诉机制的存在,便意味着作为守门人的法官仍然在人机关系之中占据着中心和主导地位,从而避免了算法对司法的统治风险。最后,当事人还有获得技术支持的权利,尤其是在刑事或行政案件的裁决中,为了避免公权力主体等凭借技术优势取得不合理的诉讼地位,可以借鉴当前的法律援助制度,在当事人处于技术弱势地位且经济困难时,可以申请获得专家在数据和技术上的公益性支持,以保障其获得相对平等的诉讼能力。

4.加强人员交流以及复合型人才的培养

人工智能法律系统的专业化、完备化以及精细化有赖于精通法律和精通计算机技术的专业人员通力合作。首先,应当由法官以及相关法律专家全程参与到司法人工智能系统的设计、测试、应用以及改良等流程之中,从而为司法人工智能法律系统更加契合司法需求、符合司法规律、遵循司法伦理提供保障,同时也能够有效防范科技公司不当介入审判权力的风险。其次,司法人工智能技术开发人员在设计之初应当采取蹲点调研、发放问卷等方式,深入了解司法的运转方式、追求目标等司法特质,从而设计出更加契合司法正义需求的人工智能法律系统。最后,从长远来看,培养既懂技术又懂法律的复合型人才将是建构可靠的司法人工智能系统的前提和保障。当前已经有一些院校(如西南政法大学、清华大学法学院等)开始探索培育掌握相关人工智能技术的法律人才。需要我们注意的是,这些院校还应当将伦理教育作为复合型人才培养的重要组成部分,从而从根本上保障司法人工智能朝着更加正义、更加可靠的方向发展。

5.探索合理的责任分配机制

司法人工智能的责任分配问题应当分为两种情形予以探讨。第一种是司法人工智能只是为法官裁判提供数据、材料等辅助性支持工作的情形。这种情形下出现错判、误判时,应当依照“谁审理,谁负责”的原则,由法官承担枉法裁判的主要责任,并根据司法人工智能系统提供的数据、材料在辅助法官裁判中的作用,依照“浮动比例原则”确定司法人工智能系统开发和设计人员的责任[42]。第二种情形是司法人工智能自主决策简单案件出现错判、误判时的责任承担问题。当前,无论是让司法人工智能的最大获益者(法院)来承担责任,还是让司法人工智能偏误的直接设计者承担责任的观点,都有一定的道理。此时,我们认为可以从错判、误判受害者的角度对这一问题展开思考:案件当事人将纠纷交由法院裁决是出于对法院、司法制度的认可和信任,无论是司法人工智能还是法官作出的裁决都是以法院的名义展开的,因而由法院承当相应的责任更加符合当前的诉讼机制构造,也更具政治上的合法性。此外,让当事人起诉算法设计人员或公司不但会增大其获得救济的成本,还会增大绝大多数不懂技术的当事人的败诉率。因而从司法人工智能决策受害者的角度来看,让法院承担司法人工智能决策的偏误责任无疑更具合理性。当然,法院在承担责任之后,可以作为追责主体继续追究算法设计人员或公司的责任,从而合理约束司法人工智能算法设计人员或公司的开发行为。

四、 结 语

面对着新兴的司法人工智能,我们应当以一种理性的眼光看待其所带来的机遇和挑战:在充分发挥司法人工智能在提升司法效率以及保障司法裁判可靠性上的优势的同时,也要积极预防和克服其所面临的技术困境、价值挑战和法治难题。当然,本文针对司法人工智能应用困境所提出的建议方案也存在一定的局限性:如在具体的实践操作中,如何区分什么是疑难案件,什么是可以使用司法人工智能裁决的简单案件的问题;算法规制的制度设计是否会过度增加司法人工智能的应用成本,等等。因而,对于司法人工智能发展前景的讨论并不是一劳永逸的,这需要我们根据司法人工智能的应用实践而不断细化和明确与之相关的制度构造,从而努力推动司法人工智能的健康发展以及“让人民群众在每一个司法案件中都感受到公平正义”的司法目标的实现。

猜你喜欢

裁判法官司法
少捕慎诉慎押刑事司法政策下侦羁关系的反思
牙医跨界冬奥会裁判
服务大局司法为民忠实履职
法官如此裁判
法官如此裁判
人大代表活跃在“司法大舞台”上
奏好人大内务司法监督“三步曲”
阅读理解两则
漫画