人工智能辅助裁判系统的性质与进路
2019-01-03
(广东财经大学 法学院,广州 广东 510320)
技术发展具备引起法律和司法在内容和形态上的变革甚至重塑的力量,而人工智能在司法领域的兴起可谓这一命题的最佳例证。在《人民法院第五个五年改革纲要(2019—2023)》中,对人工智能应用于司法裁判寄予了厚望,认为“充分运用大数据、云计算、人工智能等现代科技手段,能破解改革难题、提升司法效能”。换言之,技术不仅被视为促进制度改革的效率性工具,其本身就是直接达致改革目标的关键一环。然而,实践往往能暴露出构想中不易察觉的张力,在此前不同法域的司法体制所进行的或稳健或激进的尝试中,法官与人工智能之间的关系引起了学界的争论:人工智能是否将侵夺法官的裁判主体地位?但是,人们在讨论这一问题时对人工智能的认知和司法裁判性质的理解不尽相同,那么在讨论前提不相一致的情况下,就有必要厘清“当人们在讨论这一问题时,他们实际上在讨论什么”这一前置问题。本研究指出人工智能辅助裁判系统的运用将塑造并强化法官的前见,但这并不意味着法官裁判主体地位将被侵夺,如果法官能保持对自身的批判性反思,那么人工智能的影响将止于辅助裁判,这对实现司法公正将大有裨益。
一、人工智能辅助裁判:乐观与忧思
(一)技术创新下的司法实践改革
2018年6月28日,杭州互联网法院在一起侵害作品信息网络传播权纠纷中,首次确认了以区块链技术进行存证的电子数据的法律效力。无独有偶,3个月后,在杭州市江干区法院受理的一起破产案件中,各债权人在区块链技术的支持下,在债权人大会中对破产案件的各个事项进行线上表决。区块链,这个因比特币而为人所知的新兴名词,开始作为“可靠”“效率”的代名词,以技术的面孔走进中国司法。区块链技术并非孤身而来,它与大数据、云计算、人工智能等一系列技术共同描绘了一幅司法实务信息化的图景。智慧法院系统是一系列技术的集合,而它们对司法过程的介入性质与程度不尽相同,由此所延伸的讨论方向亦有所区别。如何深入融合技术的革新与法治化进程,将最新的科学技术用于驱动司法改革的深度进行,提升司法效率、司法公信力、公平正义实现等方面符合司法规律,必将成为当下学界普遍关注的焦点问题。关于智慧法院建设带来的影响,可概括为形式性变革和实质性介入。
1.形式性变革。即技术的运用改变了司法工作外在形态,比如以区块链技术进行线上投票代替当面表决,通过电子卷宗和云柜流转取代纸质卷宗和现实移交等。这些技术改变了司法活动场景和证据资料载体,而不涉及司法判断的形成过程。换言之,形式性变革如同高铁取代绿皮火车一样,关涉工作效率,而无关事物性质,它使法官与其他法院工作人员从单调重复的事务中抽身而出,不在重复劳动中耗费司法资源。但是,形式性变革所触及的问题多是表面的、技术性的,如网络系统的可靠性和电子数据的安全性等,并未触及事务的本质,因而也非法理讨论的主要面向。
2.实质性介入。一般认为,司法的过程即是法律适用的过程。而在成文法国家,法律适用的过程大致包括掌握待决事件、寻找对评价事实具有决定性意义的法律规范,将认定的事实涵摄入相关的法律规范中,宣布法律后果[1]。在这一过程中,法官还需对条文作出法律解释,并运用自由裁量权以填补法律漏洞,又或实现个案平衡。那么,实质性介入就意味着技术(通常是依靠人工智能裁判辅助系统)将影响到法官对法律适用的内心判断。当法官在使用人工智能辅助裁判系统时,他将源源不断地接收到系统自主构建的事实,以及在大数据基础上自主选择的法律规范,并得到一个对人类而言是具有价值倾向性的判断。实质性介入是法学理论应该探讨的问题,原因在于:在此意义上的人工智能已经摆脱了“人使用工具”的单向关系,而是呈现出双向交互的情形,法官在使用人工智能的同时,人工智能也在悄无声息地影响着法官的自由意志。
(二)人工智能应用中的法官独立性危机
对此,有论者对人工智能(即使是弱人工智能)实质性介入法官的判断过程表示不安(1)有学者提出人工智能是激活了司法的活性还是促进了司法的固化?是改变还是强化了对审判者的不当监督,甚至是监控?如果没有明确人工智能在司法改革中的地位,理性厘清确定其适用的限度,想当然地推动司法人工智能的应用不但无益于审判质量的提高与社会公正的实现,而且会扭曲、挤压、撕裂、阻碍与破坏司法体制改革。参见钱大军:《司法人工智能的中国进程:功能替代与结构强化》,《法学评论》2018年第5期,第143-157页。。而这种忧思并非杞人忧天。在威廉康星州诉卢米斯案中,根据人工智能辅助量刑系统“CPMPAS”的评估,法官判处卢米斯6年徒刑,此后,卢米斯根据宪法第六修正案确认的“被告人有权知道被控告的理由”之原则,认为人工智能的评估过程是不可获知的“黑箱”,这违反了正当程序,因而提起上诉。尽管初审法院驳回其上述申请,且威廉康星州最高法院维持了该驳回决定,但州最高法院法官仍不无担忧地建议:“法官在使用(CPMPAS进行)风险评估时必须谨慎行事。为确保法官权衡风险评估,法院规定了如何将评估报告提交给法庭,以及法官如何使用这些评估”[2]。而在德国,法律信息系统也引起了担忧:“法律信息系统被集中运用,但这不绝对是一个‘成果’,这里存在一个巨大的危险:证立程序被缩短了。这意指:根据在系统里被发现的既有判决,‘凝固化现象发生了’”[3]。这些忧虑共同指向了这样一种情形:法官作为非技术人员,一方面,他们总是接收着官方舆论所传递的信号——人工智能辅助裁判系统更为精确和便捷;另一方面,法官在繁重的审判工作中很难保持一以贯之的良好思维状态审视人工智能的建议,“个人不接受算法的建议往往是具有挑战性和不寻常的”[2],如此,法官就有可能将原本需要反复权衡或者自由裁量的问题交由人工智能辅助裁判系统决策。一言以蔽之,法官的独立思考和判断即使已被人工智能所遮蔽,却依然对此一无所知。
如果认为司法是内蕴公共理性和道德原则的事业,那么法官的主体地位和独立判断就值得捍卫。人工智能辅助裁判系统对法官思考的影响就应当得到严肃对待。但这个问题不适合直接从“应当如何预防”开始,而首先需要厘清问题的性质,否则所提供的方案就不是解决问题而仅仅是改变现象。因此,本研究将从两个层面来分析这一问题:第一,从法理论的角度厘清人工智能辅助系统对法官影响的性质;第二,指出法官主体性地位与人工智能辅助裁判系统相协调的进路。
二、人工智能辅助裁判系统的影响:塑造法官前见
(一)法官前见对法官判断的影响
人工智能辅助裁判系统影响法官独立判断,大致可以归纳为两种情形。一是,法官将依赖人工智能辅助裁判系统而放弃自身思考。季卫东教授认为:“在受理案件数激增和法定审理期限刚性规定的双重压力下,加上人的思考惰性,或迟或早会出现法官过度依赖参考判决处理案件的倾向。一旦这样的情况司空见惯,算法独裁就无从避免”[4]。的确,在“案多人少”的司法现状下,过度依赖是引入人工智能辅助裁判系统可能出现的后果,但是,这一后果并不根属于人工智能,而涉及法官职业伦理规范问题。原因在于,根据亲历性原则,只有经历了案件审理的法官才有资格作出裁判。因此,过度依赖的问题不在于人工智能,而在于法官放弃了本应坚守的职业伦理。换言之,与其说人工智能遮蔽了法官的独立思考,不如说是法官放弃了自己作为法官的角色责任。
另一种情形或许更值得关注,即人工智能辅助裁判系统将潜移默化地塑造了法官的前见。有学者用锚定效应对此进行阐述。锚定效应指人们往往依赖对事物的第一印象来作出决策,却对有关该事物的后续情报相对麻木,或即使作出了某些偏离于被锚定印象的策略调整,调整的幅度也要小于正确决策所需要的幅度[5]。司法论证包含了事实认定、规范适用和价值衡量三重考量,而随着技术更新和推广,人工智能辅助裁判系统有能力将锚定效应贯穿于法官思考的各个环节。
第一,在事实裁剪上,法官评价案件事实前需从客观事实中截取具有法律意义的法律事实,事实取舍是法官依据案情和经验所作出的带有主观性的判断。而人工智能辅助裁判系统的功能之一便是在法官接收案件信息前对纷繁复杂的事实进行梳理,形成案情关系图,这意味着在法官尚未独立对案件事实形成见解前,人工智能所组织和认定的案情脉络无疑影响法官此后对事实的理解。
第二,在规范适用上,个案裁判是从抽象规范适用于个别事实的过程,其中不免存在需要进行规范选择和法律解释的情形,这要求法官凭依对法律的理解和司法技艺审慎选择,但类案推送系统等却可以筛选相似的类案,“人工智能不但有能力识别出同类判决的海量数据,并且将它们进行合适的分类,然后在此基础上分析、总结出基本模型,然后再将所获得的模型应用到待决案件中”[6],换言之,法官可不就个案进行法律论证,因为人工智能已经通过类案推送告知其同类型个案裁判中所作出的选择和解释。这看似与类案类判的目标相符合,但类案类判的价值在于为法官的个案论证和法律解释提供相对具体的标准,是以论证达致类案的结果;而将人工智能辅助裁判系统总结的同类案件裁判模型适用于待决个案中,却是摒除了法官论证的从类案到本案的过程。
第三,在自由裁量权上,法律规范中本身留存有法官依据具体情境进行价值判断的空间,而人工智能可以在“黑箱”中把种种本应法官留待裁量的因素进行量化,继而输出结果。法官作出裁判时总是希望得到一定依据的支持,而在进行价值衡量时法律规范很难直接为此提供支撑,那么人工智能所提供的量刑意见就填补了这一缺位,但如前所述,不论如何强调系统的辅助性质和参考功能,法官都难以在既不了解算法的逻辑,又没有其他依据的情形下不依赖于算法作出决策。
总言之,上述分析可以归纳为:在法官对原始材料进行研读并形成初步判断前,人工智能辅助裁判系统就已经为他提供了一个基于机器学习和分析所得出的结论。因此,就不能排除法官在锚定效应作用下,不知不觉地受人工智能的影响,那么,“AI司法在大数据先例中侵夺了法官裁判的司法创造性”[7],法官在此后阅卷、庭审和合议的过程中,就很难说是在独立思考和判断了。
(二)法律现实主义论域下的法官前见
事实上,这种影响依然是对一个屡遭考验的理想法院模型的挑战:理想法院模型设定了一个“独立法官”——法官应当独立地认定事实并适用法律,仅凭借自己的理性和良心,运用司法三段论进行推理并得出结论。对此,法律现实主义已经意识到,法官的思维不可能遗世独立而徘徊在法律世界中,相反,法官作出判断时必然无法排除自身的前见。
法律现实主义认为,由于法律的不确定性,法官不可能像法律形式主义描绘的那样,在规则自足的体系中依凭三段论的逻辑推理得出结论,因此,法学研究的重心应当从法律规则转向法官行为。法律现实主义主张,既有法律规范不是判决的唯一正当化依据,相反,大量事实性因素如社会制度和现象、传统与流行文化和实证科学研究成果都影响着判决的形成。这些因素一方面是法官决策时所需要考虑的法律外部思想谱系,另一方面它们亦悄无声息地通过塑造法官的个性和价值观念乃至偏见融入司法决策过程中。事实怀疑论者弗兰克提出了R(规则)×SF(主观事实)=D(判决)公式,认为法官所认定的案件事实实际上是一种“主观事实”,法官的个人经历将影响他对不同身份的当事人或证人的看法,法官并不是在摹刻客观真相,而是在以自己主观感知建构他所认同的“故事”,也就是说,“法官搜集到的各种证据以及他用以回构案情的其他片段事实……不同敏锐程度以及不同阅历的法官很可能面对同样的证据却得出不同的结论”[8],他认为法官的论证实际上是一种从结论到前提的逆向推理:法官因其自身经历和价值判断形成结论后,再回过头去寻觅能得出这一结论的规范。波斯纳坦率地表明:“情感、人格、道德直觉、意识形态、政治、背景以及经历将决定一位法官的决定”[9]。以麦考利为代表的新法律现实主义在裁判理论上基本继受了法律现实主义的论点,通过拓展研究视野和改进研究方法增强这些基本观点的信度。新法律现实主义者关注到“大多数早期法律现实主义者的研究重点是上诉法官的裁判”[10]且缺乏量化分析的局限,新法律实证主义在方法论上强调定量研究,将那些惯常认为影响法官决策的非规范性因素予以量化,使司法裁判受法官前见影响这一结论清晰化,更具可靠性。而法律现实主义者对司法论证和法官前见的洞见,也为其他法学流派所承认,即使是法律过程主义对法律现实主题的批判也建立在此基础上。
故此,法官前见是司法过程中所不可避免的既存事实,而非人工智能辅助裁判系统所独具。法律现实主义者们在法官判断的问题上,不论是温和还是激进,不论是强调普遍性情感抑或个人偏见,都已经得出同样的结论:法官判断时无可避免受其前见的影响,而其前见的形成则来自于法官所经历的一系列外部因素。实际上,这也是在哲学上自由意志论者所反复遭受到的来自决定论的诘难:每个人的行动和选择都有着其解释性的原因,如果存在解释性的原因,那么人们做出某个行为就不是依据自己的意志做出的[11]。但这并不是说无需关注人工智能辅助裁判系统对法官的影响,而是说,前见与法官独立判断并不必然对立,否则后者不过是哈特所言的“高贵之梦”。如果二者具有调和的可能性,就有必要界定人工智能辅助裁判系统介入法官判断过程的界限。
三、保持法官独立性的进路:批判性反思
(一)以批判性反思过滤法官前见
事实上,法官在判断过程中其前见和偏好的确无可避免,然而,法官带有什么样的看法去理解案件事实和法律规范,与法官最终所提供的判决理由并不相同,故问题不在于如何排除前见而“关键就在于裁判者能够为其个人判断提供什么样的理性化或正当化辩护”[12]。这就要求法官能够根据司法德性所要求的一系列原则——“权衡选择时的公正和中立;考虑到影响所及的每个人的利益;以某些广为接纳的普遍原则作为判决的推论基础”[13]作为约束性的道德标准,用以审视自身判断的形成过程,审慎并批判性地发现和反思影响其判断的前见,思考其是否具有正当的辩护理由,继而过滤掉不合理的前见。换言之,法官在思考案件应当如何处理的过程中,即使是基于前见甚至某种偏好而形成初次判断甚至是因此作出裁判,但正如法律方法论的捍卫者所主张的那样,“发现”法律结论和“论证”法律裁判结果是司法裁判中共存,但性质不同的两种思维过程。不论法官如何“发现”结论,重要的是法官能否为这个结论提供合乎法律规范的论证,而论证过程也正是法官检验和反思其前见是否合法和适当的过程,法律规范本身就是反思的检验标尺,如果该结论或相应论据并无法律理由的支持,那么法官将意识到或者不得不承认其前见应当被摒除。
据此,即使法官为前见所缠绕,他的自由意志和独立判断依然能在反思中实现,而进行反思性思考本身又是法官应当遵循的责任之一。进言之,在人工智能时代,法官的反思性思考愈发应当得到重视(2)当然,在立法和制度设计层面明确人工智能辅助裁判系统的司法程序和应用领域,对回答如何消解人工智能辅助裁判系统的潜在危机并发挥其正面价值,同等重要。但制度设计和应用策略在研究上依赖于经验,上述的讨论方向建立在这一前提之上:司法实践中关于人工智能辅助裁判系统所涉及面向足够全面,在不同类型不同地域的司法裁判中得以运用。然而,目前人工智能辅助裁判系统在国内的应用依然有限,不足以形成有代表性的讨论资料,正因它们如此重要,因此对制度设计和应用策略应当建立在更加全面的实证基础上才是审慎的。。尽管在人工智能辅助裁判系统之前,“法官也会基于个人好恶或价值判断,不自觉地对待案件形成预判,但这样的预判是抽象模糊的,通过回避、合议、人民陪审、证据规则等制度设计,能将这样的负面效应降到最低”[14],而如今法官前见却是由技术以精确化的数据、可视化的事实所塑造。如果法官不能保持对自身在司法裁判中主体性地位的反思性认同,那么制度化的措施就难言有效——既然人工智能可以提供数据,那么人的判断和略显冗长的诉讼程序有什么意义呢?因此,这种反思还应当是对自身主体性的反思。也即,法官不仅反思裁判结论是否正确,而且把自己的思维过程作为反思对象,审视融于自己判断中的前见,发现并廓清那些塑造自我前见的因素,从而评价并调整对待这些前见时的意识。正因人拥有将自己对象化并以第三人视角审视自身的能力,“我把自己也看做对象,尝试用一种好像是‘别人’的眼光来看我自己,这就是反思”[15],在面对人工智能辅助裁判系统时,法官可以反思并把握二者之间应有的尺度,而不至于陷入“算法成为无所不能的先知后,就会进一步演变成代理人,最后成为君主”的境地[16]。
但这或许会遇到这样的反驳:目前人工智能的内部运作对人类而言依然是“黑箱”,法官不知其中机理又如何反思?但这也恰恰揭示了本研究所欲阐明的态度——在人工智能与法官判断的问题上,讨论重心应当回到法官本身。技术问题和技术的规范问题并不矛盾。技术问题不可避免地涉及技术原理,因而一切讨论都建立在掌握理论知识和进行科学实验之上。因此,对于科学家和工程师来说,在打开“黑箱”上取得突破的确是深入思考人工智能问题的必要条件。但技术的规范问题并不向内探索技术本身,而是聚焦于技术与诸多公共原则的关系。换言之,规范问题关注的不是技术本身,而是技术运用的效应问题,是对技术所涉及的一系列价值的衡量。那么,法官所面对的同样不是一个技术问题,法官并不是通过思考人工智能辅助裁判系统的技术如何,从而得出结论认为人工智能是否可靠,而是反思应当以怎样的原则对待技术。与其说法官在反思人工智能辅助裁判系统问题,不如说法官在反思其自身。
(二)法官自我反思的现实路径
法官前见在性质上大致可以分成生活经验和法律知识两个方面[17]。法官的社会人身份决定了他的人生阅历和经验会构成其前见的重要部分,其往往会把此类经验看作是生活常识,从而可能导致前见发生偏差。而法官所获得的法学知识除来自法学教育以外,还有个人体悟。由于生活经验先入为主,司法理念的混乱最终也会导致法官前见的偏离。同理,时至今日,人工智能主流技术在本质上并未突破图灵机的架构,对于人工智能发展最为核心的驱动——算法逻辑——并没有根本性的革新,没有从根本上解决类似人类大脑神经元的思维方式构建,仍然处在弱人工智能阶段。那么,人工智能辅助裁判系统推送的案例、文书等大多要依赖于算法的逻辑,而算法逻辑的设计又往往很难规避设计者的偏见,因而才会出现COMPAS危险指数上的偏差[3]。退一步讲,即便能够有效的避免所谓算法歧视,人工智能大数据的判断趋势会不会显示出裁判的普遍性偏见呢?这样问题就回到了本研究所强调的观点,法官不是反思人工智能本身,毋宁说法官应在反思性思考中逐步修正前见的偏差。
因此,尽管法官前见无可避免,但如果法官能够保持反思性的思考,审视并评价影响其裁判的诸多要素,那么人工智能所造成的影响便是可化解的。如前所述,就目前已运用于司法实践中的人工智能皆为弱人工智能,而它所塑造的法官前见在性质上并未超越法现实主义者的论述,那么那些捍卫司法过程、法律论证及判决之规范性的策略依然是有效的,如以理性商谈和论辩过程为核心的司法程序,以及通过法律论证,赋予裁判结论以法律上的正当性。
哈特认为:“一个具有空洞形式的正义原则,如果不能就其内容进行具体化的填补工作,该正义原则自身必然显现为某种极不完备的状态,也就无法给我们的行动提供任何可以依赖的指示”[13]。对于法官的主观评断应当如何规制,学界既已形成诸多创见性理论。比如麦考密克要求法官作出价值判断后进行“一致性和协调性论辩”[18],确保其结论既不与法律设立的条款存在冲突,也与法律体系整体的价值目标相协调;而恩施特在坚持法律方法规范法官思维这一基本立场的同时,承认法官的个人评价促进司法裁判和法律发展的必要性,法律不是仅具有唯一不变答案的规范体系,法律方法论也不必是得出客观正确结论的教条,而是一种可以与主观评价并存的,同时或交替进行的规范性思维,其目的是“使法律发现活动尽可能客观的规范性理解”[19]。当然,人工智能有着与以往其他产生前见的因素不同的形态和影响力。因此,即使确认人工智能所造成的法官前见最终需以法官的反思性思考应对,在未来仍需对这项原则作进一步细化。
在智能化的浪潮下,人工智能辅助裁判系统展现出在减少机械性工作、提高司法效率等方面的巨大潜力。面对人工智能带来的隐忧,不能以去技术化的方式对抗其介入,思考的方向应为人与技术应当如何适调。对此,不论出于何种立场,学界对这一问题的基本共识是:目前的人工智能与法官只能是工具与人的关系而非替代关系。如果坚持以工具主义的立场对待人工智能,那么对如何改进和调整工具的思考固然必不可少,一切讨论的出发点都应当在于使用工具的人。在人工智能时代,法官不仅是裁判的决策者,而且应当是那些或潜藏或显明的决策影响因素的慎思者。