论司法裁判人工智能化的可能性及规制
2021-03-25林静
林 静
(华东政法大学 经济法学院,上海 201600)
一、问题的提出
随着“十四五”规划的发布,人工智能被列为国家重点发展的科技前沿领域之一,人工智能融入各个行业必将成为以后重要的发展趋势。在互联网、大数据、机器学习等现代技术尤其是人工智能算法和算力迅速发展的背景下,面对优质司法资源稀缺的情况,人工智能与司法审判深度融合有着广阔的前景。
目前,一些地方已经开始了这方面的尝试。例如,上海市高级人民法院开发的“上海刑事案件智能辅助办案系统”(简称“206系统”)在全市得到广泛使用,并得到最高人民法院的认可;北京的“睿法官”系统与法官日常办案无缝对接,推进同案同判;还有重庆的“法治云”、河北的“智审”等人工智能系统与法院审判系统相结合,共同推进了司法审判智能化。如此高歌猛进的趋势也引发了人们对人工智能时代司法活动的忧虑,开始考虑法律领域可能遭受的来自于人工智能的巨大挑战。美国首席大法官John Roberts在出席一场活动时被问到,是否曾预见到有朝一日“智能机器在人工智能的驱动下协助法庭裁决,甚至是更有争议的司法裁决”。他回应道:“这一天已经近在眼前,这也给司法部门的工作带来了巨大压力。”
面对人工智能时代所蕴含的危机,探讨司法裁判人工智能化的实现可能性,即司法裁判人工智能化是否能够实现就成为一个前提性问题,而我们又将如何应对这一时代大趋势?基于此,本文将归纳司法裁判人工智能化的理论依据,借此对“人工智能取代论”作出回应。在此过程中,将司法裁判人工智能化带来的挑战剥离出来,并在此基础上尝试探讨人工智能在司法实践中应用的定位与法律规制路径。
二、司法裁判人工智能化的理论依据
人工智能简称AI,是对人的思维的信息过程的模拟。根据人工智能是否具有自我思考能力并能否付诸实践进行划分,可以将人工智能分成三个发展阶段:弱人工智能时代、强人工智能时代和超人工智能时代。①其中,弱人工智能(Artificial Narrow Intelligence,简称ANI)不具备思考能力,也不会有自我意识,如Alpha Go围棋程序;强人工智能(Artificial General Intelligence,简称AGI),是可以胜任人类所有工作的人工智能,指在各方面都能和人类比肩的人工智能;超人工智能(Artificial Super Intelligence,简称ASI)则拥有自我意识和情感等,被认为具有超越人类的能力,即在所有领域及所有认知功能都比最强的人类大脑聪明很多的人工智能。迄今,这种超人工智能尚未出现。目前,人工智能技术在我国司法实践中的应用处于弱人工智能与强人工智能并用的阶段,且仍然在不断深化。学界对此持积极态度,主要有以下三种理由。
(一)法律形式主义与人工智能算法路径的相似性
德国的马克斯·韦伯有这样一句经典名言:“现代法官是自动售卖机,民众投进去的是诉状和诉讼费,吐出来的是判决和从法典上抄下来的理由。”②参见马克思·韦伯.论经济与社会中的法律[M].张乃根,译.北京:中国大百科全书出版社,1998:62.这种“自动售卖机理论”,就成为“人工智能替代论”的前身。与韦伯的形式理性思想构图的发展相伴随的是19世纪概念法学的兴盛。在概念法学的视域中,法官只需从法律体系中发现法律即可完成对案件的判断,在司法裁判中具体体现为“三段论”的要求:以法律规范为大前提,以从生活事实中分离出的法律事实作为小前提,针对法律事实,法官寻找法律根据,继而作出法律决定。
人工智能裁判系统的构建是通过将自然语言转化为法律语言,再将法律语言进一步转化为计算机语言,在模拟“三段论”的刚性逻辑路径的基础上编制算法和程序,形成一种计算机的自动推理模型。人工智能与法律领域的学者试图以这样的一种方式描述法律和法律推理,即生成能够在一个计算机程序中实现的模型[1]。由此可知,司法裁判中的人工智能系统建立的算法逻辑严格依照法律形式主义的要求,将法官的裁判逻辑固定化下来,用一种“算法逻辑”取代了人脑中的主观决策,形成一种数据驱动型的正义。其实,一直以来法官判案何尝不是在以一种粗浅的方式计算着正义,试图建立可以解释正义的标准化衡量尺度,就法官裁判和算法裁判的本质而言,都是在为各种争议和纠纷提供一种可操作性的衡量标准。从这个意义上来讲,人工智能裁判已经具备了裁量正义的雏形,并且人工智能通过算法构建正义具有天然的优势:可以将法官裁判带来的主观性风险降到最低,最大限度的实现同案同判等。③参见蔡星月.算法正义:一种经由算法的法治[J].北方法学,2021(2):140.
(二)人工智能和司法实践的可交互性
在实践中,司法资源的紧缺也是司法部门积极采用互联网、大数据、云计算、人工智能等新型信息技术以提高司法效率的重要原因。近些年来,随着社会经济结构转型和公民权利意识的增强,一些法院受理的案件数量增长较快,法官人均办案件数也相应地增长较快,这就成为司法领域大数据和人工智能应用越来越广泛的原因之一。
在一定条件下,人工智能基于大量的数据基础和强大的计算能力,可以快速分析案情,准确地做出决断,比如可以迅速计算损害赔偿、预估刑期等。尤其是在审理复杂疑难案件时,因为人工智能裁判系统是封闭式裁判和归纳式裁判,所以它可以快速提取关键信息并与同类案件进行比对,从而得出较为科学的结论。在技术情况允许的条件下,上述过程可能在很短时间内完成,人工智能审判将大大地节省司法资源,提高司法效率,尽可能地满足社会成员的司法需求。①参见罗维鹏.人工智能裁判的问题归纳与前瞻[J].国家检察官学院学报,2018(5):24.
从另一方面看,人工智能裁判可以摒弃法官在司法裁判中可能出现的价值偏差,杜绝因法官个人的司法腐败行为而污染了整个司法公正的泉源,导致司法公信力的下降。②英国哲学家培根在《司法论》里提出了著名理论:“一次不公正的审判,比十次犯罪所造成的危害还要尤烈,因为犯罪不过弄脏了水流,而不公正的审判则败坏了水的源头。”再者,人工智能在法律领域的适用已经取得了相当的成果,建立了法律知识库、法律信息检索系统和法律专家系统等辅助型法律智能系统,为决策型司法智能系统奠定了技术和经验基础。可以说,司法裁判人工智能化是人工智能时代司法工作的重要发展趋势之一。
(三)法律融合人工智能推动创新
人工智能技术在司法领域的广泛应用推动了法学学科的思维创新,随着人工智能技术日新月异的发展,法律研究呈现出智能化、自动化的趋势。在案件预测技术上,人工智能系统裁决的算法是刚性的,因此通过对成千上万份判决书进行自然语言的处理,可以构建模型来预测案件判决结果。人们不再像卡夫卡的小说《法律之门》中所描述的那样,可以走近“法律之门”,但难以迈入门内,更难观测“门”内的设置、工序流程和决策机制,而通过人工智能技术,可以消解因物理时空条件局限而导致的正义实现难题,使物理上的“接近正义”迈向数字意义上的“可视争议”。③参见马长山.司法人工智能的重塑效应及其限度[J].法学研究,2020(4):24.人工智能裁判的实现也对法学教育提出了挑战,要求技术人员和法律专家之间必须通力合作。国务院在2017年发布的《新一代人工智能发展规划》就提出,要培养掌握“人工智能+法律”的复合型人才。由此可见,法律与人工智能的结合是时代发展大趋势,这也在一定程度上推动了法学教育的探索革新,开始更加注重对法学专业学生跨学科融合的教育培养。
同时,借助大数据技术,可以准确评估和统计在社会治理中存在的问题,对司法系统自身的改革提供支持。建立在客观数据和真实信息基础上的智慧司法直观展示了公正的意涵,通过“看得见”和“说得出”的体制严格限制司法内部系统的不公正因素,推动构建以网络化、阳光化、智能化为主要特征的现代司法。人工智能技术带来的客观性、科学性和合理性有效改进了司法和社会之间的良好关系,引导建设新型的诉讼社会关系,有力促成了审判体系和审判能力的现代化[2]。
三、司法裁判人工智能化的缺陷
尽管计算机代码运算可以比人类更有效地进行法律逻辑的推理和演算,进而提高司法裁判的效率。但是,从司法领域人工智能助力的实现路径和司法裁判的法理上来看,人工智能不能也不应取代法官成为司法裁判主体。
(一)法官裁判过程的复杂性
法律人工智能决策是效仿法官裁判的过程。因此有必要对法官的裁判活动进行细致观察和整体描述。“三段论”主张,法官必须受法律规范的拘束,严格限制法官审判权中的自由裁量部分。正如拉尔夫·克里斯滕森将规范适用想象为,将个案归属到一般性规范之下的过程(涵摄),而不是对规范做进一步填充或具体化的程序[3]14。因此,法官作为裁判者的权力仅限于在现有的法律规范下作出逻辑推论,进行涵摄。在这种机械的法律推理观的场景下,司法裁判者只是法律的搬运工,司法裁判的含义仅限于机械判断层面。如果裁判过程真如数学问题一样可以通过推演和计算得出正确结论,那么机器的运作效率与正确率是远高于人类的。然而,在实践中法官审理具体案件究竟是如何得出判决的呢?审判过程是否真的如同韦伯描述的机械涵摄的程序呢?
法官裁判是一个复杂的判断和决策过程。德国法学家约瑟夫·埃塞尔指出,司法判决是有创意的活动,其亦参与逐步自我实现的法秩序(相当于在作用中的法)之发展及续造。当司法判决逾越法律文本划定的界限时,它经常求助于法律推得(或据称可由法律推得)的“一般法律思想”或“原则”[3]18。法律体系的普遍实用性要求在制定法律时高度凝练要件,使得要件抽象化。因此,就使得法官在适用法律规范裁判案件时,需要发挥严格的逻辑推理以及主观能动性在法律规范和案件事实之间来回穿梭。事实上,在司法实践中,每个个案都或多或少有异于以往其他案件之处,一些案件的个体化和地域化色彩还十分鲜明。
法律形式主义理论将裁判过程归纳为一种机械式的法律推理观,忽视了法官作为推理主体的社会性,即法官具有的主观能动性和法律推理灵活性,更进一步讲,法律形式主义发展到极端会成为“本本中的法律”。美国现实主义法学派对其僵化性进行了深刻的批判。霍姆斯法官就明确提出,“法律的生命并不在于逻辑而在于经验”[4],这种价值观念在英美法系国家表现得尤为突出。英美法系国家的法官经常头戴白色假发的一个原因是为了表明自己的专业、权威和德高望重,以长者的姿态作出判决。逻辑推理自然可以帮助法官审判案件,但是根据社会政策和逻辑等连接法律规范和案件事实并进行价值判断,有助于法官从多个角度看待案件,这就要求法官有一定程度的自由裁量权。①参见张保生.人工智能法律系统的法理学思考[J].法学评论,2001(5):17.自由裁量权的授予也对法官的职业素养提出了更高的要求。在美国,大多数法官曾做过律师,具有法学学位和职业律师的经验是成为一名法官最基本的资格要求。
由此可以看出,法官在司法实践中要寻求个案的正当裁判,不仅需要逻辑上严谨的推理,也需要有丰富的实践经验作为积淀,从而在法律规范无法满足事实案件的需求时根据高度抽象的法律原则和伦理道德作出裁判。而人工智能裁判的基础是算法,它是基于研发人员输入的计算机语言作为数据库,在导入案件事实后,对已有的数据进行筛选从而得到最匹配的法律规范,在此基础上作出严密的逻辑推理得到裁判结果。但是,人工智能的法律裁判并未考量非规范性要素,无法在高度抽象化的法律规范和具体案件事实之间搭建起说理的坚实桥梁。
(二)人工智能算法的有限性
人工智能发挥司法裁判以研发人员输入的数据库为基础,以算法逻辑为路径,受到严密的限制。人工智能具有处理和操作算法符号的功能,但是可能并不理解这些符号背后的含义。相较于人工智能,法官作为主体具有感性认识,其依据经验、认知和信仰作出裁判的路径是人工智能目前无法企及的。
1.产生的非客观性
就人工智能的产生而言,其算法的科学性也是存疑的。人工智能的算法和代码的设计都要依靠编程人员的设计与选择,因此受到研发人员或研发公司的限制。现在市面上大部分人工智能产品是由商业群体带着很强的目的性研发出来的,因而导致人工智能产品本身在诞生时就带有特殊的价值观,这就有悖于司法的中立性。当下我们也无法保障设置人工智能产品算法的编程人员全都具备法律知识背景,他们往往缺乏对社会科学的深刻认识。因此,依赖编程人员将已有的法律规制准确写入程序是不现实的。同时,还要考虑到,人工智能的数据库是基于已有的法律规范和案件,不可能超前于现有的法律,而法律本身相较于现实又有一定的滞后性。在一些疑难案件中,人工智能审判无法作出富有创新性的判决,在这种情况下,法官可以结合具体要件和案件的特殊性作出裁决,这种优越性是人工智能裁判无法比拟的。
2.算法应用的非透明化与偏见
人工智能的算法系统以大数据为基础,其作出的审判决策本质上是一个运算结果,但我们只能看到输入的数据以及得出的结果,对中间的运算过程一概不知,由此可能会导致出现“算法黑箱”或“算法独裁”。①参见高奇琦、张鹏.论人工智能对未来法律的多方位挑战[J].华中科技大学学报(社会科学版),2018(1):94.英国《卫报》就曾发表评论指出,人工智能可能已经出现种族和性别等偏见,这种偏见并非来自于机器本身,而是机器在学习人类语言时吸收消化了人类语言中约定俗成的理念,从而导致算法歧视。②参见苏令银.透视人工智能背后的“算法歧视”[N].中国社会科学报,2017-10-10(5).2018年,在我国引发舆论热议的“大数据杀熟”事件就引发了大众对商家滥用大数据技术和算法歧视的担忧,有媒体通过对2008名受访者进行的一项调查,显示51.3%的受访者遇到过互联网企业利用大数据“杀熟”的情况,59.2%的受访者指出在大数据面前信息严重不对称,消费者处于弱势地位。③参见杜园春,等.51.3%受访者遭遇过大数据“杀熟”[N].中国青年报,2018-03-15(7).
随着人工智能的发展与应用,算法歧视带来的问题已经扩大到人类日常生活和社会事物中,逐步影响人类社会经济发展的方方面面。更为严峻的问题是,算法歧视在形式上更具开放性和隐蔽性,带来的风险具有不可预知性和不确定性[5]。
(三)法律体系的非完善性
在通常情况下,“自动售卖机”的运行原理是建立在“法律的公理体系”之上的。如果法律体系可以被建构得像公理体系那样,法学家便可以像数学家那样工作,法学问题也可以像数学问题一样通过“计算”予以解决。④参见宋旭光.论司法裁判的人工智能化及其限度[J].比较法研究,2020(5):82-83.这种理论构建的必要前提是法律本身可以做到完美无缺、逻辑自足,可以与具体的个案事实形成恰当的对应关系,法律适用者如法官的角色就只能像是一台“自动售货机”:投入法条和事实,输出法律判决。但是,考虑到法律的抽象性、语言的开放性和社会生活的变化性等特征,这种关于法治的理想构图在理论和实践上是根本不存在的。
1.法律的抽象性
法律并非是完美无缺的,法律是人为制定的,是从现实生活中抽象而来的,不可能超越现实生活。相反,生活是复杂多样的,立法者永远也无法穷尽,更无法模拟将来会出现的案件。法官在裁判具体案件过程中发现现存的法律制度无法解决面前的争议,一般会层层上报给上一级人民法院或是等待有关部门对法律规范重新作出解释。回望法律信息的发展史,我们不难发现,司法审判实际上是科技进步推动司法大数据颠覆司法小数据,或者说,从小数据向大数据司法的演进,并带动司法理念改革的过程。⑤参见李飞.人工智能与司法的裁判及解释[J].法律科学(西北政法大学学报),2018(5):33.这也是在实践中不断出台法律修正案和司法解释的原因之一:法律自其产生之日起与实践之间就有一道无法逾越的鸿沟。
2.语言的开放性
法律解释是法律推理的必要前提。但是,法律不可能通过强调用语的规范严格达到准确的表达,因为语言本身具有“开放”的特性,它会因语境的不同而出现歧义和模糊。法律用语又不同于数理逻辑及科学性语言,它并不是外延性明确的概念,即使是较为明确的概念,仍然经常包含一些本身欠缺明确界限的要素。法律的适用是一种对向交流的过程,法官在考虑可能适用的法条时,就可能会对规范文字的精确意义产生怀疑。⑥参见杨春福.显现的法律与隐在的法律——从语言学的角度分析[J].法律科学(西北政法大学学报),2009(2):5.法官在每一个案件中引用法律规范进行裁判都是法律解释的过程,而法律解释的辩证性对人工智能自然语言理解提出了严峻的挑战。人工智能法律系统对法律知识库中的规则进行简单机械检索是不够的,需要跨越到社会知识库进行“跨库检索”。如同法官那样,综合诸如政策、道德、原则之类的价值考虑和对白纸黑字规则的具体解释对案件作出判决,这就要求人工智能具有更高的主观意识和灵活性。①参见张保生.人工智能法律系统:两个难题和一个悖论[J].上海师范大学学报(哲学社会科学版),2018(6):34-35.
3.社会的变化性
瞬息万变的现代生活与人工智能所要求的法律的稳定性是相悖的。只有在法律规则具有一定的确定性和稳定性的前提下,人工智能所依靠的庞大数据库才能作为裁判的有效逻辑前提和基础。但是,人类所面对的客观世界的不确定性决定了法律规则的确定性是相对的。哲学家休谟就曾指出,“确定普遍的政治准则,应当慎之又慎;在精神领域和物质世界中经常可以发现无规律的和异常的现象”[6]。正因为客观世界的确定性与不确定性并存,确定性的法律规则的描述是片面的,这决定了法律必须具有开放性,亟需在司法裁判中识别是否需要采取各种人为干预进而弥补这一缺陷,以实现具体的司法公正。②参见李琦.法的确定性及其相对性——从人类生活的基本事实出发[J].法学研究,2002(5):35-36.
(四)人类裁判具有无法复制的优势
机器或程序能否成为裁判主体也是存疑的。学术界曾对人工智能究竟能否在刑事和民事范畴领域内作为法律主体展开了激烈的探讨。目前,学术界的主流观点还是不承认人工智能的法律主体地位,认为在法律层面上将其定位为法律客体是较为妥当的,主要理由是人工智能不具备独立性和自主性,无法解决人工智能创造出来的物的归属问题,也没有能力承担法律责任。③参见崔文成.浅谈人工智能的法律地位[J].上海法学研究集刊,2020(7):13-14.
理性是人类区别于其他生物的一个重要特征。运用理性对少量信息和规则进行推理和演绎是人类独有的能力。哲学家康德指出,“那些其实存在不以我们的意志为依据,而以自然的意志为依据的东西,如果它们是无理性的东西,就叫做物件。与此相反,有理性的东西叫做人身,因为它们的本性表明自身自在地就是目的,是种不可被当作手段使用的东西,从而限制了一切人性,并且是一个受尊重的对象”。④参见康德.道德形而上学原理[M].苗力田,译.上海:上海人民出版社,2002:46.此外,康德提出的“人为自然立法”命题,充分肯定了人的主体性的能动作用。由此,康德将理性与伦理价值标识为主体的重要构成要件。同样的,自然人在司法裁判领域的理性和伦理价值判断能力也是目前人工智能不具备的。⑤参见邓经超.人工智能对法教义学构成挑战吗?[J].法律与伦理,2020(1):124-125.
从人工智能的产生原理来说,人工智能既是一项试图理解人类认知的科学,也是一门试图构建具有类似人类能力机器的工程学科。我们肯定人工智能逻辑推理的智能度,但实际司法裁判的过程并非纯粹的逻辑推理,即并非简单的事实推理与匹配工作。逻辑经验主义者想要构造的科学语言是不存在的,其坚持的事实与价值并不是绝对二分的。司法意义上的审判活动是具有判断性质的,而且判断的范围不仅仅限于对象的自然属性,还需要事物的价值属性作为补充。司法裁判追求的公平正义是各方博弈的结果,是各方利益的平衡,这是个灵动的过程,必须由道德、伦理等加以保障。现实生活中的大部分疑难案件或有争议的案件难点不在于寻找适当的法律规范进行涵摄,而在于价值认知层面。法官在一些具有争议性案件中的裁决任务其实本质上是价值的衡量与抉择,需要在案件中传递出特定的价值观,对社会公众的行为起引导作用。只有在与时俱进的价值判断中才能实现司法裁判追求的核心价值,这不是人工智能机械刚性的算法路径可以完成的。
四、人工智能对司法裁判可能带来的影响
当下人工智能不断改革创新,其应用贯彻到人们生产生活的方方面面,一些人已经完全适应、习惯甚至依赖人工智能。从人工智能的发展速度来看,新一代人工智能正在全球范围内蓬勃兴起。从供给的角度来看,司法科技应用是符合技术发展潮流的,但是,不能因此对其持过分乐观和宽容的态度。当前,社会和法学界中大部分人对人工智能的态度是较为宽容的,对其背后隐含的风险过于乐观。①参见季卫东.人工智能时代东司法权之变[J].东方法学,2018(1):126-127.
(一)“算法独裁”可能会影响司法正义
从弱人工智能到强人工智能,再到超人工智能的发展过程是人类逐渐依赖人工智能的过程,人工智能在司法裁判中的应用发展过程是人工智能裁判与司法正义不断匹配的过程。但是,也要防止另外一种极端的情况发生,那就是算法有可能会成为司法权的代名词,人类的权利义务的判定权有可能不再掌握于人类自己的手中。到那时,司法公信力完全取决于人工智能的发展水平,那将有陷入过度依赖人工智能困境的危险。如果人类任由人工智能肆意发展而不加以规范与约束,那这在本质上反而不利于司法的进步。人工智能算法绝不仅仅是一项单纯的技术性问题,其蕴含的政治风险、安全风险与伦理道德风险同样不容忽视。②参见汪怀君,汝绪华.人工智能算法歧视及其治理[J].科学技术哲学研究,2020(2):101.近些年,众多科技公司的算法都被检测出存在风险、伦理或道德方面的问题。例如,谷歌公司的搜索算法将黑人标记为“大猩猩”;微软公司的人工智能聊天机器Tay出乎意料的被“教”成了一个集反犹太人、性别歧视、种族歧视等于一身的“不良少女”;2018年国内出现的飞猪大数据“杀熟”现象,引起众多消费者的不满。在司法领域出现算法歧视,很可能会侵害公民权利甚至危害其生命安全。并且,如果司法领域的算法歧视在被冠以法院名义后更不易被发现,其输出的错误价值观在司法的引导功能下呈放大效果,会极大冲击社会的伦理价值,由此引发的社会后果不堪设想。
(二)司法程序正义有可能遭到破坏
有的学者认为,编程可以被执行的重要条件或者说重要限制在于程序必须足够简单,并能在许多案件中被不断重复而没有显著的变化。但是,即使是简单案件通常并不足以简单到可以用计算机模型来标准化的地步。大多数的案件在外来因素的冲击之下是很难标准化的,更别提是疑难案件了。③参见冯洁.人工智能对司法裁判理论的挑战:回应及其限度[J].华东政法大学学报,2018(2):25.假如司法程序完全像人工智能程序那样简单地标准化,这无异于是在挑战社会因素和自然因素的多样性,另一方面,将所有的可能性归纳在简单的算法程序中是不现实的,也切断了当事人可以从程序事项上获得的救济。人工智能介入司法领域使得传统法律构建的“权力—权利”制衡关系面临新的挑战,信息化和数字化使得包括网络主体在内的第三方主体强制介入原本的二元格局。④参见裴炜.个人信息大数据与刑事正当程序的冲突及其调和[J].法学研究,2018(2):43.在社会发展网络化和数字化的背景下,人工智能可能会对诉讼各方关系的互动模式产生较大影响。相比之下,国家权力具有天然的优越性,其在信息的获取上会有压倒性的优势,此时,就要防止出现利用这种天然的优越性侵害公民司法权利的情况发生。
(三)可能会影响司法公信力
司法是维护社会公平正义的最后一道防线。可以预见的是,司法裁判人工智能化会对社会产生较大的影响,特别是当机器参与或主导的司法裁判出现错案时,如果审判责任的归属和划分不清晰、不明确,就会极大地影响司法的公信力。例如,美国威斯康星州诉卢米斯一案中以COMPAS系统评估报告为依据指导定罪量刑的做法,就受到了公众的广泛质疑。在我国现行的法律制度框架下,机器尚未取得法律主体资格,不能独立承担法律责任。在司法审判人工智能化的场景下,审判责任在法官、智能系统和研发人员之间的安排无论如何分配都会引发社会争议,导致司法公信力的下降。⑤参见周尚君,伍茜.人工智能司法决策的可能与限度[J].华东政法大学学报,2019(1):62.
五、司法裁判人工智能化的法律规制路径初探
当下不断发展的人工智能技术已经开始逐渐影响司法领域,这对司法裁判提出了挑战。司法机构必须适时调整法律解释的方向和策略,以适应司法裁判人工智能化的发展进程。从社会发展情况看,严格规范人工智能的司法应用已经迫在眉睫。笔者认为,遵循上述人工智能在司法领域适用的基本理念,可以在四个维度对其进行规制,包括明确人工智能在司法应用中的法律地位、各级法院区别适用、规制人工智能编译者和确立明确的价值观导向等,以实现其对法治的促进作用。
(一)明确法律地位
对于人工智能的法律地位,笔者认为,应坚持客体说中的工具论,即人工智能只能作为法律权利和义务的客体,不能获得法律主体地位。当前,可以将人工智能技术作为帮助法官裁判的工具,将其定位为一种“决策辅助”或“参谋者”的角色。未来,在逐步完善人工智能算法及司法数据库的同时,不断探索人工智能在司法领域新的应用。
随着智慧法院建设工作的推进,我国各地法院已经开始逐步建立相应的人工智能辅助司法系统,辅助司法人员处理在诉前、诉中和诉后程序中的机械性、重复性工作,这有利于司法人员抽出更多的时间处理人工智能无法处理的案件。例如,在诉前阶段,建设完整的诉讼信息数据平台,从源头上畅通维权渠道、疏导社会纠纷,并从中得到来自现实生活的一手数据,为司法政策的出台提供信息数据。在诉讼阶段,加强程序正义,依靠智能笔录系统和智能辅助证据分析系统,结合智能量刑标准建议分析,为法官的裁判建构基础。在诉后阶段,可借助便捷的信息传播技术及时公开裁判信息,增强司法过程的透明度,加强司法公开。同时,做好基于大数据的风险计算和风险控制,完善舆情管理机制等。①参见宋保振.智慧社会背景下司法治理的理念转变与实践创新[J].山东大学学报(哲学社会科学版),2020(4):98.
(二)各级法院区别适用
考虑到各级人民法院管辖案件的范围以及其裁判结果带来的社会影响的不同,不同级别的法院的人工智能在适用上应当有所区分,并作出相应的限制。
最高人民法院、高级人民法院、中级人民法院、基层人民法院的案件管辖范围呈阶梯式递减状态。由于大多数较为简单的案件分流至基层人民法院,近年来,“案多人少”的状况已经成为基层法院工作的常态,所以其对人工智能辅助系统的需求是最为迫切的。为缓解司法资源紧张的状态,应当有序推进智慧法院的建设工作,重点在司法资源紧缺和人工智能发展水平较高的地方先行试点人工智能辅助系统,如果能取得较好的成效,再逐步面向全国的基层法院推广。最高人民法院和高级人民法院受理的案件或是性质较为严重,或是当事人对基层法院的判决存在争议,或是案件的影响范围较广,这几类案件在司法裁判的各个环节都需要有资历的法官结合法律经验、社会背景等诸多要素作出最为合理的判决,对人工智能的使用需要持谨慎态度。
(三)人工智能编译者规制
人工智能在司法领域的应用需要跨越法律与计算机编程这两个专业领域,这就要求,负责司法审判人工智能应用程序的编译者既要精通编程专业,还要有良好的法学、哲学、社会学、经济学等社会科学和人文学科的知识储备。人工智能代码和算法是刚性的,但是,如果编程人员只懂编程,缺乏应有的其他素养,那么编制出来的代码是无法应用到司法实践中的。因此,为了更好地应对人工智能时代的到来,要从源头上抓起,培养出顺应时代潮流的综合型人才。
具体来说,在培养司法领域人工智能产品的编译者时,应在法学教育体系中融入程序编译的相关课程,积极推进学科交叉融合,努力培养复合性专业人才。考虑到该编程工作的人工智能产品是用于司法领域的工作岗位,且将来可能会辅助法官完成司法审判工作,对该编程人员的专业标准要求应不低于当前法官岗位的要求。
对司法领域的人工智能产品的制造生产链进行事先审查也是很重要的环节。当前,人工智能产品大多数是由商业公司创造出来的,受知识产权保护,具有排他性。但是,多数商业公司都是以盈利为目的的,很难保证他们创造出来的人工智能产品完全符合司法部门的要求。因此,涉及司法领域的人工智能产业的发展是不能完全交由市场的,可能国家权力适当介入会产生较好的结果。例如,可以尝试由国有企业进行研发、设计和生产制造,形成类似于铁路、电力和通信行业的布局效果。
(四)法律规制确立价值观导向
人工智能技术的迅猛发展以及司法领域人工智能技术的应用,为法律规制提出了现实要求。目前,各个国家都开始从技术鼓励、政策应对逐步走向制度规制,如德国的《联邦数据保护法》、加拿大的《个人信息保护法案》、法国的《数字共和国法》、英国的《2017年数据保护法案(草案)》、欧盟的《通用数据保护条例》(GDPR)等等。我国已颁布了一系列战略规划,相关的立法也势在必行[7]。但是,目前对人工智能的规范尚处在一个大框架内,未对特定领域进行单独立法,这就需要对人工智能产业发展进行原则性、方向性的指引,以便于调解和处理各种错综复杂的利益冲突。在人工智能立法领域,强调社会公共利益优先理念,突出利益平衡要求具有重要意义,这是因为人工智能技术及其应用不但是一个技术革新,而且也是一个对人类未来影响深远且关系每一个人切身利益的重大历史事件。①参见赵万一.机器人的法律主体地位辨析——兼谈对机器人进行法律规制的基本要求[J].贵州民族大学学报(哲学社会科学版),2018(3):159-162.在明确人工智能工具论的前提下,人工智能必须以人类优先原则为限,人工智能法律规制应以维护社会公众利益为其优先选项。当然,国家的法律只能提供宏观的原则性指导,更精细、更灵活和更专业的规制需要通过行业规范来实现。随着人工智能的进一步发展,形成体系化的行业自律监督规范也是指日可待的。
六、结语
司法领域的人工智能化是历史发展的大趋势,但机遇与风险往往是并存的。“人工智能取代论”过分夸大了算法在司法裁判中的作用,人工智能应当被限制在工具范畴内以实现人类利益最大化。放眼未来,随着人工智能的不断发展,其在司法审判领域将大有可为。同时,当人工智能被赋予人类的某些特质后,应如何认定、协调人工智能和法官在司法审判中的作用,以及防范其背后所蕴含的风险,或许是更为值得关注的问题。