人工智能对司法实践的影响探究
2019-01-26范芙蓉
范芙蓉
(西北师范大学 法学院,甘肃 兰州 730070)
随着信息科技的飞速发展,人工智能(Artificial Intelligence,简称AI)的发展和应用已经成为当今社会的新焦点。我国近年发布了《国家信息化发展战略纲要》《新一代人工智能发展规划》等一系列指导性文件,把人工智能的发展提高到国家战略地位。人工智能作为核心驱动力,将不断地改造传统行业,并且有可能会大面积取代简单、重复性的人力劳动。当前AI 在司法实践中的应用也日益广泛,然而,“人工智能在给人类带来巨大好处的同时,也伴随着可怕的风险;我们应该密切关注正在发生的变化,并且采取适当的策略,以便促成最好的结果”。[1]因此,对人工智能在司法实践中出现的问题进行有效的应对已是当务之急。
一、人工智能应用于司法实践之概述
(一)人工智能的界定
人工智能AI 是机器模拟人脑思维,以近似人类智能的方式进行推理、记忆、理解、识别、感知以及学习,它拥有自己思考并且足以匹敌人类智慧的能力。目前研究总体上将人工智能划分为三个层次,分别是弱人工智能 (ANI,Artificial Narrow Intelligence)、强人工智能(AGI,Artificial General Intelligence) 和“奇点” 过后的超人工智能(ASI,Artificial Super Intelligence),而我们现在所说的人工智能其实是弱人工智能。在这个阶段,人工智能更多的是人类运用代码和数据算法所创造的高度智能化的机器,它与强人工智能不同的是还没有自主意识、创新思维和自主深度学习的能力,换言之,现在的人工智能只是工程设计师们创造的产品。
作为一项初步的研究,本文所谈的人工智能仅立足于当前社会中适用于法律活动的弱人工智能,并不涉及未来可能会出现的强人工智能乃至超人工智能。而对于这种弱人工智能的界定,去除了简单的拟人式想象,只将其看作一种基于算法设计通过数据自主学习以优化数据处理的计算机制,本质在于算法和数据。[2](P3)
(二)人工智能在司法实践中的应用现状
习近平总书记曾强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,是引领这一轮科技革命和产业变革的战略技术,具有带动性很强的“头雁”效应,应当处理好人工智能在法律、安全和就业等方面提出的新课题,加快发展新一代人工智能。
近年来,人工智能在司法实践中的应用取得了一定成效,“智慧法院”“大数据审判”等司法实践改革在稳步推进,《关于加快建设智慧法院的意见》明确要求以信息化促进审判体系与审判能力的现代化。地方法院已引入“一体式智能审判系统”,从立案扫描、案件整理到文书制作等一套完整流程,助力高效、便捷、开放的信息化司法系统。[3]
例如山东法院系统开发的“智慧法务系统”,利用并行式、分布式计算框架,使用高吞吐量、大并发的信息化手段,实现信息智能推送、数据关联、积累外部数据资源、智能分析与数据可视化的功能,通过系统产生的流程数据和电子卷宗实现对80%的案件制作结案裁判文书,并根据案件的裁判文书和电子卷宗信息自动回填流程信息。上海的“206 工程”具有实体关系分析的技术,也能实现对犯罪嫌疑人或被告人的社会危害性评估,实现所有证据在庭审中的即时调取和当庭出示、为办案人员进行类案推送、形成同类案件量刑参考数据、自动生成裁判文书、为办案人员推送知识索引等等。[4]贵州政法系统的“法镜工程”也很好的把改革精神、法治思维和科技创新有机结合起来,将案件信息精准识别、自动分案,最大程度实现简案快审、繁案精审,让审判效率以更科学的方式提升。[5]
二、人工智能适用于司法实践中存在的问题
(一)个人隐私信息泄露风险
人工智能的技术基础是数据,这意味着它主要依赖于高质量并且精准的大数据作为支撑,而大数据又与个人信息的关系相当密切,因为人工智能在建立数据库时要对个人信息进行收集、存储、处理、传输和应用。一方面,由于当今社会公民的个人信息大多都被数据化,例如姓名、身份证件、财务信用状况、出行信息等,这些有针对性的个人数据具有巨大的商业价值,而这些数据如何安全存储,信息保护是否有相对应的安全等级都是其中隐含的安全问题,在这种背景下人工智能是很有可能被黑客攻击的,并且泄露公民的个人信息使其被商品化交易。由于人工智能具备了与现实世界进行物理性交互的能力,这就有可能会对人们造成严重的人身和财产损害,甚至造成十分严重的精神痛苦。由此可见,公民的个人信息安全在人工智能的适用过程中受到严重威胁且得不到有效的保障。
另一方面,由于现阶段法学教育对于“人工智能+”的横向复合型人才培养尚不足,导致法院内部人工智能技术的研发人员十分稀缺,而现在适用于司法实践的人工智能大多都是选择与科技公司合作开发,那么在这其中就会存在信息泄露的风险。此时如果公民得知自己的个人信息从法院泄露,那么必然会导致法院的信用度降低,使得法院的司法公信力下降。
(二)算法独裁风险
人工智能处理案件是通过代码和算法来实现的,相比于现在司法实践的主观性以及其自身的局限性,人工智能以其更为精细化、功能化的特点,最大限度地保持案件结果的公平性。尤瓦尔·赫拉利在其著作《未来简史》中对未来之法进行了预测,他认为在未来人工智能将获得统治地位,我们的法律将变成一种数字规则,它除了无法管理物理定律之外,将规范人类的一切行为。[6](P282)当然,这一切都是对未来的设想。
随着科技的发展,人工智能作为辅助性工具在司法实践领域发挥着越来越大的作用。程序员是人工智能的构建者,他们为其编制核心程序,但是大多数人工智能算法是不透明的,而这种不透明性可能来源于这几个方面:其一是算法本身所应具有的复杂性所带来的不透明;其二是由于国家秘密或者商业秘密带来的不透明;最后是由于对计算机或者高难度编程技术的不了解而带来的不透明。由此角度观之,用户只能了解到人工智能输入的数据和得出的结果,但并不能得知其中的运算规则,也无法参与到决策过程,此时算法独裁或算法黑箱的问题便显现出来。
以司法为例,美国Northpointe 公司开发的有关犯罪风险评估的人工智能存在歧视黑人现象,被认为是十分不可靠的。这里的基本问题就在于,“由于技术和社会发展的条件限制,人工智能在相当程度上会具有某种歧视性因素以及潜在的导致不公平结果的可能性”[7](P94)。正是由于算法不透明而无法对其进行监督审查,很容易使得编程内部的法律推断继承原有司法实践的弊端和偏见,造成人工智能在输出结果上出现不公平的现象,这将直接影响司法公信力的建立以及司法实践的有序运行。
(三)法官审判地位的降低风险
目前,就专注于司法实践的弱人工智能而言,对于大量信息处理的效率显然超过法官,通过其强大的计算能力,能够更快地通过现有的数据完成对于案件的前期分析,也能更加便捷的生成所需的各类材料,因而其在司法领域当中发挥的作用是显而易见的。[8](P99)随着人工智能在司法实践领域中广泛的应用,一方面使得我们对提高效率的人工智能持有乐观积极的态度,另一方面也对人工智能替代部分劳动力产生忧虑。
从农业社会到工业社会的转型是体力劳动之间的转型,而人工智能革命则是从体力到脑力的升级。霍金曾说,人工智能的发展可能意味着人类的灭亡;赫拉利在《未来简史》中也预测,未来绝大部分人类活动将有可能会被人工智能所取代。一方面随着人工智能在案件预测上全方位清除了海量低附加值的工作,为法官审判提供裁判预测结果或者类案推荐,在这种情况下,审判俨然成为法官和算法工程师共同做出的决定,并且或早或晚法官可能会由于人性本身所具有的思考惰性而过度依赖人工智能,使得其自身的自由裁量权不断减弱,法官的必要性就有可能会降低甚至变的没有必要。另一方面,人工智能在决策的过程中可以将双方当事人的证据信息无差别地传送给对方,这便使得当事人提前知道自己的胜算率以及可能会发生的审判结果,所以这时当事人可能会更愿意通过协商来解决他们之间的争议,这就会酿成一种“软件既定结果,无需面对面论证”的氛围。这些现象都可能会导致法官在审判中所处的核心地位发生极大的动摇,甚至造成审判体系的重大变化。
(四)法官问责追究困难
随着科技的发展,人工智能逐渐可以对案件进行裁判预测,甚至于自动生成案件判决,根据大数据矫正法律决定的偏差等做法可能形成审判主体的双重结构或复数化,将出现软件工程师、数据处理商、信息技术公司与法官共同作出决定的局面。[9](P132)这种情况下,虽然表面上是法官行使了最终裁判的权力,但实际上他们并未通过自身的法律思维进行法律推理而形成独立的判断。
司法系统行使的审判权是维护社会公正的最后一道警戒线,这也是有效维护公民的合法权益不受侵犯的有力保障。如上所述,如果人们质疑法官做出的判决结果时,法官可以答复这是由人工智能产生的“客观事实”,而法官不需要对客观事实进行判断;如果人们质疑法官没有对案件进行独立的审判时,法官便可以答复人工智能只是作为辅助性工具在使用,而其中人工智能真正在判决作出过程中所占的比例无从得知。由此可见,权力的边界将变得十分模糊,责任推卸的幅度也会被进一步扩大,法官问责制度就会逐渐流于形式,这也意味着司法过程和功能将发生巨大变动。
三、人工智能适用于司法实践的对策展望
(一)加强个人隐私信息保护
人工智能的发展对个人隐私提出新的挑战,我们应当采取最为基础的法律应对措施来解决。第一,完善人工智能保护个人隐私信息的法律系统。设计者在设计适用于司法实践的人工智能时,应当考虑数据安全问题,设置自动化处理的禁区,即禁止人工智能对个人隐私信息进行自动化处理,并且应当重视隐私增强技术,应用编码、加密、防火墙等技术,防止黑客和病毒的非法入侵,以便更全面地保护个人隐私信息。第二,法院应当严格选择并审查打造人工智能的合作对象。由于现阶段人工智能技术尚处于初级阶段且专属于一个特定的专业领域,法院自身的技术薄弱并不能支撑其开发适用于司法实践的人工智能,所以他们在打造人工智能法律系统时会更多地选择同智能公司合作。这就有可能会出现智能公司在人工智能系统中为自己开“后门”的情况,一旦发生这种情况,势必会影响司法公正。第三,建立健全人工智能系统的同意机制。人工智能系统的自动化处理使得用户难以获取处理过程的有效信息,用户的同意也就越来越没有意义,甚至有时会出现被迫强行同意的情况,所以应当完善同意机制,无论是用户的一般信息还是必须用到的隐私信息都应当通过用户的同意授权,尤其是隐私信息的使用,用户的明示同意更应当成为其必要条件;在涉及人工智能自动化处理时,人工智能应当首先向当事人发送清晰、易理解的处理通知,此通知应当包含人工智能所用到的信息以及之后可能会产生的影响,并且确保通知有效到达当事人。在司法实践的应用中,这便会有效保障诉讼参与人的知情权,增强当事人与法院之间的信任关系。
(二)建立完善算法透明实现机制
追求透明度最简单的方式,就是要求算法在数据输入最初时态、数据运算过程以及数据输出这三个环节进行全面的、具体的公开。因此在第一个环节,数据输入时的透明化就要求法院公开其使用的案件数据信息;第二个环节的透明化其实是要求算法的透明化,智能公司在打造人工智能时应当至少向法院解释算法生成的复杂步骤以及涉及参数,此时也可能带给法院的挑战是需要培养复合型人才;在数据的输出的第三个环节中,不太能够实现数据的完全透明化,因为如果要求在这个环节透明,就要求法院需要公开“数字身份档案”信息,这些匿名化且涉及到隐私的信息被要求公开,这是不具有可操作性的一种透明化方式。
另一方面,“逆向工程学”的方法也可以增进算法透明度。逆向工程学是指基于专业知识进行严密的观察、推断,发掘出这个系统的模式,用人工推断“黑箱”中的算法规律,并且清楚地对每一个部分进行阐述,介绍这个系统的运作机制。但是此方法也是一种设想的理想状态,在真正实践中可能仍然会存在很多的挑战。如果我们不断深入追求人工智能的完全透明化,可能会导致对于透明度的过分执迷,甚至可能适得其反,带来消极的后果。人们可能会理所当然的把公开等同于公正,对黑箱的复杂机制的认知会出现一种趋简化的倾向。相比之下,所追求的透明度应当是以可行性和社会接受效果作为衡量标准,在理解人工智能时,并不一定要了解每一个细小的部分,相反,理解应当建立在一个宏观把握上,然后通过互动真正去理解算法的运作系统。
(三)合理定位现阶段人工智能
现阶段的人工智能处于弱人工智能阶段,即只是实现特定功能并适用于特定领域的专用智能,它按照程序员提前设计的程序延伸拓展人的能力,因而具有一定的“近人性”,但是现阶段的人工智能本质上是不具有独立思考能力和自主意识,以及缺乏主观能动性的一种辅助“工具”。应用于法院的人工智能系统作为辅助者的角色,它的出现可以帮助法官节省很多无需脑力劳动的重复性工作时间,例如推送法律条文、司法解释和相关类案,使法官节省检索时间,更专注于案件的审判,理顺了法官的办案流程,有效提高了法官的办案效率。
以目前的人工智能技术,法官无需担心自己的职业会被人工智能代替。因为在司法实践中,司法裁判的获得不仅仅只有一个结果,在做出司法裁判的过程中,法官自身长年累月积累的经验、智慧是法律推理活动中不可或缺的一部分,而司法裁判结果是法官作为中立第三方,以公平正义的方式满足当事人的诉求。但是人工智能只是按照法律条文和相关基本信息机械刻板、无意识且无情感地做出司法裁判。例如在离婚案件中,人工智能无法真正的从情感方面判断双方当事人是否真的感情破裂,也无法像法官一样进行调解让当事人和好如初。由此可见,弱人工智能在短期之内无法取代法官职业从而进阶到审判者的地位。
因此,法官可以暂时不用担心被人工智能替代,但是也不能过分依赖人工智能。法官审判案件时除用人工智能完成一些辅助性工作外,依旧要充分发挥自己的主观能动性。如果法官过分依赖人工智能,那么相当于法官将自由裁量的专属权利,没有经过法律的授权,也没有经过公众的同意,就共享给了人工智能。而法官在司法实践中,应当认识到人工智能的辅助作用,把握好自己的自由裁量权,充分发挥自己的能动性。
(四)完善法官问责追究制度
法官作为审判权的主要行使者,理应成为法官问责追究制度的主体,但是人工智能的介入可能会出现法官的审判主体地位有所下降、自由裁量权被削弱或法官主动放弃自由裁量权的情形。就现阶段来看,人工智能是作为辅助工具进入司法实践领域,它并没有被赋予人格主体地位,所以案件最后裁判结果的真正做出者其实还是法官,这一点是毋庸置疑的。
在司法实践的过程中,有可能会出现人工智能技术上的失误而导致司法裁判结果不公,这一失误是法官在适用人工智能裁判过程中不可避免会发生的结果,也是人工智能技术在发展过程中不可避免的节点。一方面,当人工智能在大数据建模时,提取录入大量数据时有可能会出现漏录、错录等人为疏漏的情况,这会严重影响到人工智能的云计算过程和大数据分析能力;另一方面,人工智能编程出现偏差,也有可能会导致人工智能在全方位覆盖海量低附加值的工作中出现真实性的偏差,这些情况都会导致法官所依据的基础数据产生错误,进而导致司法裁判结果不公。在此情况下,其实可以采取责任分担的解决途径,制定完善法官责任追究制度中的责任分担制度,让责任承担者不止限定于未尽到审慎核查相关证据以及信息真实性义务的法官一人,而且让参与到人工智能发明以及导致人工智能出现失误的人员也为此承担一定的责任。
四、结语
迅速发展的人工智能已经逐渐渗透到了人类的日常生活中,而人工智能在司法实践中的适用也逐渐被规范化、合理化。人工智能与司法实践的结合是时代发展的必然趋势,但是任何新生事物都有两面性,它在司法实践中展现着优势的一面的同时,也反映出了很多问题。人工智能在提高司法效率、协助法官处理案件、缓解法院压力的同时,还存在着信息泄露、算法独裁等问题。我们对于人工智能在司法实践领域的发展和适用应抱有开放的心态,在实践中不断完善规制,让人工智能更好地服务于司法实践,从而实现司法的公平正义。