人工智能介入司法审判的风险防范
2020-06-08杨巧雨
摘 要:近年来随着人们法律意识的增强,出现了“案多人少”的司法治理窘境,而人工智能的快速发展为这一难题带来了新的解决思路,大数据背景下司法智能化是一种必然的趋势,人工智能的引入必会给司法审判活动带来新的面貌和影响,成为司法治理的良好动力。但任何新事物都有两面性,人工智能的引入在解决原有问题的基础上,还会带来新的挑战和问题,因此将人工智能运用于司法审判必须审慎进行。
关键词:人工智能;司法实践;风险;防范
中图分类号:TP18 文献标识码:A 文章编号:1004-9436(2020)06-00-05
人工智能,即Artificial Intelligence,从概念的提出到发展应用,已经有60多年的历史。近年来随着人工智能技术的飞速发展,其不仅在日常生活中有广泛的应用,更开始逐步应用于司法实践,比如域外如美国的人工智能律师ROSS、英国的人工智能审判预测程序等,而我国在最高人民法院的推动下,人工智能技术运用于司法实践领域已经取得了傲人的成果:北京的“睿法官”软件和“检立方”系统、江苏的“案管机器人”等。司法智能化在带来效率与便捷的同时,也带来了一系列的风险问题,例如个人信息和隐私权如何保护、人工智能导致的问题如何归责等。因此我们必须正视司法人工智能带来的司法审判风险,完善应对措施和制度。
1 人工智能介入司法审判的基本脉络
1983 年龚祥瑞与李克强在《法学杂志》上发表了一篇名为《法律工作的计算化》的文章,这是我国最早关于计算机技术运用于法律实践研究的文章。文章中提出了将计算机技术运用于司法实践的构想。[1]之后法学专家开始了对司法人工智能的系统性研究,例如1993年中山大学开发的LOA 律师办公自动化系统,[2]以及武汉大学法学院研制的实用刑法专家系统等。
人工智能应用于审判实践的首次尝试在 2006 年,2006年山东淄川区法院研制出了一套自主量刑软件系统,该系统可以根据所输入的案件情节以及相关法律条文,作出相应量刑判断。但由于当时人工智能技术水平的限制以及舆论的争议,该量刑软件未能继续使用发展下去。2006年以后,随着人工智能的快速发展,在最高人民法院的推动下,各地都开展了关于人工智能应用于司法审判的尝试,自2013 年起,我国法院开始进入了以智能化为核心、建设智慧法院的发展时期。[3]例如2016年贵州省高级人民法院研发的“法院云”技术,2017年上海市高级人民法院与各部门联合开发的“206”工程,以及2017年杭州互联网法院的正式挂牌运营等。
从2016年开始,最高人民法院陆续出台了《最高人民法院关于加快建设智慧法院的意见》《人民法院信息化标准制定工作管理办法》《關于加快建设智慧法院的意见》等。[4]在最高人民法院的推动下,我国人民法院审判执行方式的全局性变革不断深化,智慧法院的建设不断加快,有力地促进了审判体系和审判能力的智慧化。虽然我国人工智能在司法实践领域应用的时间较短,但是随着人工智能技术的不断发展完善,同时也是为了适应司法改革与智慧法院的建设需要、适应新时代的要求,未来我国人工智能在司法领域的实践应用将会得到进一步深化。
2 人工智能介入司法审判的风险分析
德国社会学家乌尔里希·贝克曾指出“任何新兴技术的诞生与运用在给人们带来机遇与便利的同时,也可能产生风险与制造挑战”。[5]在将人工智能积极应用于我国司法实践,发挥其辅助审判的重要作用的同时,也必须正视其带来的各种社会风险。
2.1 侵犯个人信息和隐私权的风险
在互联网大数据时代,人们的行为时刻受到“监视”,各种APP搜集了用户大量的指纹信息、人脸识别信息,甚至有的智能产品能将我们的位置信息随时随地上传至网络云端。人工智能以大数据为基础,在开发和使用的过程中必然会使用数据库中海量的个人信息,不仅包括姓名、年龄、性别等个人基础信息,甚至还包括一些敏感隐私信息,基于人工智能数据库数据规模之大、范围之广、私密性之高,一旦数据库中的这些数据遭到泄露、窃取或不当使用,用户的个人信息和隐私安全就会面临极大的风险。
利用人工智能辅助司法审判的过程,同时也是一个收集当事人个人信息、生成新信息的过程,在这一过程中必须考虑个人信息以及隐私安全的问题。就大数据发展的现状而言,企业依然是掌握用户数据的主体。在大数据背景下,企业搜集大量用户信息和数据已经成为一种惯例,比如作为搜索引擎巨头的百度,在其网站首页就没有相关隐私声明的内容,这可能会导致一种被隐藏在合理化外衣下的错误:即对公民个人相关信息的收集与处理似乎是其自愿接受的,人们无从得知自己的信息由谁搜集,不清楚自己的信息如何使用流转,对最终的信息使用者更是无从得知。
个人信息和隐私的泄露不仅会对法院的公信力造成消极影响,更甚者还会威胁公民的人身和财产安全,因此在大力建设智慧法院,推行网上办理业务、流程公开的同时,如何保护这些数据和信息是一个十分重要的问题。
2.2 人工智能的技术风险
尽管人工智能技术相较于传统的审判模式有一定的优势,但是我们必须认识到当前我国司法智慧化建设尚处于起步阶段,一些人工智能技术的应用才刚刚开始,人工智能系统自身的技术风险尚未得到控制。
一方面,与审判工作者的工作方式不同,审判人工智能需要庞大的法律数据作为支撑,如果法律数据自身的客观性和真实性难以保证,那么审判人工智能所得出的裁判结果也会失去真实性和客观性。另外,数据的全面性也会影响审判人工智能的裁判结果,人工智能系统在审判实践中的运用依赖于大量优质法律数据的收集,然而现有法律数据数量有限,根据对中国裁判文书网上所公开的文书数据的统计,线上公开的裁判文书总量仅占线下已审结案件数总量的50%左右,这意味着有近一半的裁判文书未被录人工智能系统,未得到有效利用。[6]并且法律数据的质量也不容乐观,就目前所公开的情况来看,各地法院上传的裁判文书质量不一。同时,数据分散在不同部门、不同层级、不同地域,数据整合存在壁垒,导致了一个个“信息孤岛”的形成,无法发挥法律数据的真正价值。
另一方面,人工智能系统自身固有的机械性、滞后性难以克服。人工智能系统基于以大数据为驱动的特点,在运行中“重相关而轻因果”,审判人工智能依靠明确的法律规则和法律概念来完成对案件的分析处理,但其技术难以准确理解自然语言在具体案件中的具体含义,仅能通过机器语言表达法律规则及案件事实,这一过程的基石是存储在数据库中的各类案件和数据,这些案件和数据在统计、整合和录入时就具有了一定的滞后性,必然会导致审判人工智能系统分析处理结论的滞后性。
2.3 法官自由裁量缺失的风险
正如霍姆斯所说:“法律的生命不在于逻辑而在于经验。”与审判人工智能相比,法官审理案件的过程并不仅仅是硬性地适用法律法规,而是通过裁判经验和思维方式发挥主观能动性,选择、适用法律和司法解释对具体案件作出评价判断,以人性来弥补法律刚性的不足,实现“情、理、法”三者有机统一。[7]然而,人工智能归根结底是一种算法和程序,法官在具体审判实践中所积累的判断力和裁决力是人工智能无法比拟,其缺乏法官独有的裁判经验、思维方式以及情感,也就无法考虑具体案件背后复杂的社会关系和政策因素。审判人工智能分析处理案件是一种机械化的过程,所得出的结果往往也是机械化的“标准答案”,带有浓厚的刚性色彩。但是司法活动是一个综合性的社会活动,其中可能会涉及对道德、习惯、民意等各种实质性内容的判断和处理。而人工智能无法模拟法官的自由裁量、逻辑推理等思维方式,无法弥补立法者认识能力不足所导致的法律适用空缺,因此无法形成有温度的公正的裁判。
2.4 人工智能责任认定风险
随着审判人工智能在司法领域的广泛应用,如果其在辅助司法审判的过程中出现了错误,责任应该由谁承担?能否向审判人工智能追责?这是司法机关在应用人工智能的过程中必然会遇到的重要问题。
人工智能是一种科技产品,若按照一般的产品责任,则应由产品的制造商负责,但是人工智能与传统的产品又有本质上的区别,它并不仅仅是一般的生活用产品,作为一种产品,其还具有与人交互的功能,如果人工智能在和人的交互过程中发生错误,应该由谁来负责?在这一问题的解决上,一些国家和地区使用的方式值得参考,例如2016年欧洲议会向欧盟委员会提出的要求制定民事规范来限制机器人的生产和市场流通,2017年沙特阿拉伯通过授予机器人索菲亚公民身份来明确其法律地位。虽然有些国家对人工智能承担法律责任问题态度明确,但是多数国家仍然采用保守的态度。[8]
我国目前没有出台专门针对人工智能责任承担问题的法律或解释,随着审判人工智能在司法领域的广泛应用,必须尽快出台法律或解释来弥补人工智能责任承担问题相关规定的缺失。
3 人工智能介入司法审判的风险防范
基于审判人工智能在司法实践中产生的积极作用与负面影响,為了使审判工智能在司法实践中的应用产生良性的效果,应从以下几个方面关注人工智能的发展与应用:
3.1 加强对个人信息和隐私权的保护
首先,要明确法院收集信息的范围,法院不能没有限度、肆意地收集个人信息,应当基于案件审理的实际需要有限度地收集个人信息,并且保证对所收集信息的妥善保管,确保所收集信息的安全。其次,法院应当保证对所收集信息的合理使用,并保证当事人知悉其信息的使用方式和范围。个人信息和隐私的保护不仅需要法院引起重视,相关企业也必须重视对个人信息和隐私的保护。企业作为掌握个人信息和隐私数据的主体,必须承担保护个人信息的重要责任,严格遵守国家法律法规,严禁利用企业科学技术优势侵害社会公众的个人隐私和信息安全。
其次,要加强对人工智能系统数据使用程序和方式的监管。随着审判人工智能的应用和普及,必须采取相应的措施,对人工智能系统对数据信息的采集和应用全过程及各个环节进行监管,防止人工智能系统在应用中出现纰漏、危害公民的个人信息和隐私安全。事前的监管方面,可以通过设立专门的行政监管机构,在事前对人工智能企业所提供的数据服务实行准入制,将一些“不良”企业排除在录用门槛以外;事中,由专门的监督机构定期对企业进行监督检查,检查记录存档封存以便随时查验;在事后监管方面,行政监管机构对于发现的存在侵害个人信息和隐私权行为的企业,应强制令其采取有效的补救措施,在对企业给予行政处罚的同时,政府部门要积极采取行动,加大对侵害个人信息及隐私的违法行为的打击力度。
人工智能技术的发展和普及,必然会涉及公民个人信息和隐私安全保护的问题,我们要做的是在保证公民个人信息和隐私安全的前提下,更好地应用人工智能技术、服务司法实践。
3.2 完善人工智能技术的算法与数据
一方面,为了保证人工智能系统算法程序的公平正义,在算法程序编写设计过程中就应保证其公开性、透明性,明确人工智能系统使用了哪些算法、参数和数据,这些算法、参数和数据按照何种程序运行,程序的运行实现了什么目的,以避免基础算法程序出现问题所导致的风险。另一方面,打破技术人员对司法人工智能的垄断,需要推动法学理论知识人才同人工智能科技人才的交流,法学理论人才在深度学习人工智能科技知识后,可以介入对算法程序的设计,与人工智能技术人员合作设计出符合司法实践要求的人工智能法律系统。
“很多数据开始出现交叉,各个维度的数据从点和线渐渐连成了网,或者说,数据之间的关联性极大地增强,在这样的背景下,就出现了大数据。”[9]完善的司法数据库是防范人工智能审判应用风险的要求,基于此提出了新的要求:建设与传统数据库相区别的,能够跨区域、跨部门的,统一的司法数据库。统一司法数据库的建设不仅能满足我国司法机关人工智能发展的需要,还能及时、准确、有效地向社会公众公开司法运行情况、司法信息,跨部门、跨区域数据库的建设也是解决司法机关数据库信息数量不足问题的有效途径之一。
在解决了数据库信息数量的问题之后,就需要接着解决数据库信息质量的问题,数据的准确性和代表性决定人工智能的智能化程度。维克托·迈尔·舍恩伯格认为:“数据量的大幅度增加会造成结果的不准确,一些错误的数据可能会混进数据库。”[10]对此,可以通过对数据的分析,提取案件关键因素,可以删除裁判文书网所公开的参考价值较低的文件、数据、信息;对司法领域的各类数据进行分析整合,努力提高司法数据库中数据信息的准确性和代表性。
3.3 明确司法实践中人工智能的责任承担
2017年国务院颁布的《新一代人工智能发展规划》指出研究人工智能问责问题的必要性,从自动驾驶到机器人管家再到电脑量刑,人工智能已经逐渐渗透到社会、经济的方方面面,但是对人工智能产生的责任问题仍然缺乏足够的认识和研究,人工智能广泛应用的现状亟须法律对这一问题作出明确的规定。
人工智能并不具有獨立的思维和意识,其行为只是按照人类预设的程序进行,在一般情况下不具有责任承担能力,对此可以通过区分人工智能制造者和操作者在审判实践中的不同应用情况,来区分不同的责任承担情况。一种情况是制造者或操作者故意导致的责任承担问题,在这种情况下,制造者或操作者在主观上故意利用人工智能不具有独立的自我意识这一特性,使人工智能按照自己的想法进行某种特定的行为,人工智能在这一过程中扮演的是制造者或操作者的犯罪工具的角色,在这种情况下,应由人工智能的制造者或操作者承担相应的损害赔偿责任。另一种情况是制作者或操作者的过失导致的责任承担问题,人工智能的制造者或操作者由于疏忽大意或者过于自信而未能预见损害的发生,则应由制造者或操作者承担过失责任。
综上,人工智能在司法活动中出现工作失误所导致的损害结果,司法工作人员如果不能在第一时间证明这一损害结果是由人工智能制造者或操作者造成的,就应当先对人工智能失误造成的损害承担责任,之后可根据实际情况,由司法机关向人工智能技术的制造者或实际操作者追偿。
3.4 明确人工智能在审判中的辅助性地位
虽然人工智能系统能够提高司法信息化和智能化水平,但是无论从技术水平层面还是从伦理道德层面,其只能是人的工具,在审判中处于辅助性地位。
从技术水平方面来看,目前人工智能技术的发展仍处于“弱人工智能”阶段,其在司法审判实践中发挥的主要是法律文书的审阅、法律问题的在线咨询以及辅助司法审判工作人员办案等基础性功能,人工智能当前的技术水平决定了其在审判实践中的辅助地位。
从伦理道德层面看,法官的自由裁量权在案件审判中发挥着重要作用,人工智能系统只是一种机器产品,不具备人类的道德情感,无法与人类共情,在案件事实复杂,涉及人性、道德和情感等因素时,难以根据法律和常识作出分析判断并进行妥善处理。
因此,即使人工智能系统如何智能化,其也只能作为人类认识和改造世界的辅助性工具,在法官办案过程中,仅能提供辅助性的帮助而非实质性的帮助。
4 结语
将人工智能技术应用到实践中是社会发展的必然趋势,尤其是运用到司法审判实践中。审判人工智能的应用虽然存在显著的优势,但是也会带来一定的风险和问题。对人工智能在司法实践中的应用,我们要辩证地看待,正视其存在的困境和风险,及时发现司法人工智能建设中存在的问题,规避人工智能的弊端,充分发挥司法工作人员的主观能动性,不断改进、完善司法人工智能系统,研究设计符合司法实践需要的审判人工智能。
参考文献:
[1] 黄琪.司法实践中人工智能应用的现状与定位思考[J].边缘法学论坛,2019(02):8-14.
[2] 杨建广,骆梅芬.法治系统工程[M].中山大学出版社,1996:344-349.
[3] 王禄生.司法大数据与人工智能开发的技术障碍[J].中国法律评论,2018(02):46-53.
[4] 高鲁嘉.人工智能时代我国司法智慧化的机遇、挑战及发展路径[J].山东大学学报(哲学社会科学版),2019(03):115-123.
[5] 乌尔里希·贝克(德).风险社会[M].何博闻,译.南京:译林出版社,2004:39.
[6] 左卫民.关于法律人工智能在中国运用前景的若干思考[J].清华法学,2018,12(02):108-124.
[7] 武树臣.法律涵量、法官裁量和裁判自律,判例制度研究(下)[M].北京:人民出版社,2004:789.
[8] 潘庸鲁.人工智能介入司法领域的价值与定位[J].探索与争鸣,2017(10):101-106.
[9] 吴军.智能时代[M].北京:中信出版集团,2016:62.
[10] 维克托·迈尔·舍恩伯格(英).大数据时代[M].盛杨燕,周涛,译.浙江人民出版社,2012:132.
作者简介:杨巧雨(1996—),女,江苏淮安人,硕士研究生,通讯作者,研究方向:法学理论。