人工智能在审判中的应用
2020-05-13张书勤
张书勤
摘要:技术在给人类带来利益的同时,也会带来灾难,甚至成为一种异己的、敌对的力量,人反而成为被迫适应技术要求的工具,司法人工智能在审判中的滥用也会造成上述问题进而损害正义。针对司法人工智能在审判中的三方面应用,文章认为只有审判信息数据化具有价值,文书制作智能化则用处不大,而辅助裁判功能则毫无用处。在看到问题的同时,文章认为人工智能对法院工作的正面意义仍然是难以估量的,文章最后给出了人工智能建设应该注意的问题以及法官对其应用所应持有的正确态度.提出要以制度创新为切入点,结合技术设计、加强监管和价值引导等措施进行综合施策,让司法人工智能在审判规律和伦理限度的范围内使用。
关键词:审判;法院;人工智能;异化
中图分类号:TP18 文献标识码:A 文章编号:1004-8634(2020)01-0102-(10)
DOI.10.13852/J.CNKI.JSHNU.2020.01.010
当前,整个人类站在了人工智能(后文简称AI)变革的边缘,很多人相信其带来的影响将会比电或火更深远。中国的法院系统没有回避这种变革。最高人民法院院长周强在多次会议上提出要研究构建司法AI系统,为审判体系和审判能力现代化注入新动力。实践中,审判工作和AI的融合在日益深入。如,2018年1月,最高人民法院在继2016年推出“中国法律应用数字网络服务平台(法信)”之后,又推出了“智慧法院导航系统”和“类案智能推送系统”。尽管存在地方性试点意义有限的问题,但很多地方法院也在推进。如,河北法院系统主推的“智审1.0系统”在AI应用上走得更远。它有五大功能:自动生成电子卷宗;自动关联与当事人相关的案件,避免重复诉讼、恶意诉讼或虚假诉讼的产生:智能推送相关的信息辅助审判:自动生成与辅助制作各类文书,目前已实现裁判文书80%的内容一键生成:智能分析裁量标准,根据法官点选的关键词,自动统计、实时展示同类案件裁判情况。
AI本质上是一种技术,纵观历史,从人类产生以来,技术和人就存在极为复杂和纠缠的关系。马克思发展了黑格尔的异化概念,将其应用于对资本主义社会劳动以及工人阶级生存状况的批判,他认为:“科学对于劳动者来说,表现为异己的、敌对的和统治的权力。”以英国产业革命为例,在采用机器以前,纺纱和织布都是在工人家里进行的。但是,机器的产生最终导致了“劳动生产了智慧,但是给工人生产了愚钝和痴呆”的悲惨结局。换言之,科技中性论是站不住脚的,它必然负荷着特定社会中人的价值。因此有必要让科技成为充满人性的科技,尽量弱化和消除其异己力量。对此,恩格斯认为:“单是依靠认识是不够的;还需要对我们现有的生产方式,以及和这种生产方式连在一起的我们今天的整个社会制度进行完全的变革。”以基于AI技术的搜索引擎为例,其广泛运用已经使人们对知识的理解越来越浅显化,并进而威胁到人性的自觉和自律。AI并没有摆脱人依赖于技术但是有可能被技术俘虏的魔咒。对于AI在审判中的运用,我们有理由怀疑它也会产生诸多问题。因此,对之进行探讨并基于此而采取防范手段是有必要的。
一、当前AI在审判中的应用情况
像AI这样的技术,人类应用它的核心目的到底是什么?这个目的,对几乎所有行业来说都是一样的——提高效率。AI正逐渐替代法院日常工作中流程化和重复性的工作岗位,概括起來,主要有以下三方面:
一是司法信息数据化,如数据文书录入、证据识别、诉前咨询、远程立案,等等,其节省下的人工成本可让研发耗费忽略不计。以开庭记录为例,在以往的开庭中,当事人往往屡屡被法官提醒要注意书记员的记录速度.个别书记员经常不知道字怎么打,还要律师反复重念,以至于还要告诉他用哪个字,这极大地影响了庭审效率。但是,考虑到审判的特殊性,以传统的单纯语音输入和录音录像技术来代替书记员的记录也是有问题的。首先,要让法官通过听音频的方式处理上诉案件或者案件的再审,是一种非常低效且容易产生错误的方法,远不如白纸黑字的记录来得可靠,在庭审中,条件也不允许随时调出录音来听。其次,传统语音输入设备对于中文这种同音字很多的语言不占优势,尤其遇到人名或者公司名,事后校对是一件麻烦事。最后,中国方言很多,话语表达方式差别很大,语音输入可能支持某种方言,但是对于一些很不标准的方言往往无能为力,以大城市的法院为例,市区方言与郊区方言甚至都不一样,各郊区也有各郊区方言,由于外来人口多,还有不少当事人带外地口音,识别难度大:一些当事人说话时会方言、普通话混杂,这就更加难以识别。
但是,AI将有效解决上述问题,当前最有挖掘价值的应该是基于AI和语音交互的语音助手软件,近两年的深度学习研究为语音识别带来了突破性进展,语音识别率有了很大的提升。根据收集的数据来看,国内语音识别率较高的是科大讯飞开发的灵犀语音助手,识别率已高达近100%。当语音识别率这一大难题被解决后,只需等灵犀、Siri这类的语音助手打通更多的生活场景从而变得更加实用、便捷。在此基础上,法院将可以实现当事人对于常规问题的咨询由AI负责回答,如上诉期限如何计算、诉讼费用如何交纳等,从而指引当事人选择调解或者和解等更加经济、高效的纠纷解决方式。
二是文书制作智能化。由于简单案件可以使用令状式、要素式、表格式等简式裁判文书,并且可以简化说理,因此,对于大量案情简单的类型化案件,如刑事的危险驾驶、民事的交通事故损害赔偿以及行政的政府信息公开等,可通过OCR、语义分析、大数据分析等技术自动识别这类案件的诉讼材料,并依托知识图谱,解构案件事实要素,进而实现“要素式”裁判文书自动生成,使案件从起诉、庭前准备、庭审、举证到裁判各个环节围绕要素无缝对接,省略拖沓步骤。如,对于政府信息公开类案件,上海法院系统的AI系统能通过语义分析实现对起诉状、庭审笔录等案件卷宗信息的智能分析和信息提取,然后按照用户选定的模版,一键自动生成判决、裁定等法律文书,从而大幅减轻法官手工录入的工作量,并保证法律文书与案件信息的一致性。
三是辅助裁判智能化。据报道,阿里推出的“AI法官”已在部分法院配置。它分析了上万个交易纠纷类案件,学习了近千条交易领域的法律条款,针对每种案由,整理成计算机能理解的模型,同时,针对案件的每一个要素,阿里AI自动提供相关法条等判决依据,从而建立了一整套审判知识图谱,深刻刻画了交易人、交易行为与法律事实的关联性,并且把这种关联性融入AI中。当法官遇到类似案件时,阿里AI就能够针对纠纷争议点迅速开启“大脑”进行分析和判断,并能在极短时间内向法官给出调解和判案建议。与此类似,2016年底,北京法院智能审判系统“睿法官”正式上线。在庭前准备阶段,“睿法官”会自动梳理出待审事实,生成庭审提纲,并推送到庭审系统中。庭审结束后,“睿法官”会对案情要素进行进一步提取,根据法官认定的内容,向其推送更为精准的相似案例、裁判尺度、法律法规等,最终帮助法官完成裁判文书撰写。
总之,AI与审判的结合可谓如火如荼,一些巨头纷纷参与,法院系统已经无法回避这种变革。
二、上述应用的价值分析
对于AI在审判信息数据化方面的使用,稍有常识的人都会认为很有必要。
对于自动生成判决文书,则值得推敲了。一般而言,裁判文书的复杂程度要高于新闻和诗歌的复杂程度。尽管AI已经可以写诗,但其本质上还是玩具一样的功能。AI的创作更像是按规范格式和词汇标签进行的排列组合,不是真正的文学创作。它根本不知道诗歌里面所蕴含的意境,所以远远达不到有心灵和情商的阶段。一些人(包括法官)之所以觉得AI的这项功能有用,是因为他们觉得写裁判文书对于自身来说是一件难事。这很容易理解,12万员额法官水平参差不齐,一些裁判文书不仅难以达到“信、达、雅”的水准,有时候甚至句子前后矛盾,逻辑不通。现实中,有些案件是通过裁判说理完全能够讲明白的,就是因为没有在说理部分讲明白,所以造成当事人的不解甚至误解。对于这些法官来说,AI的这项功能可谓“雪中送炭”甚至于“救命稻草”。可是,每一个裁判文书就是一篇命题作文。法官在撰写裁判文书时必须考虑逻辑上是否清晰、论辩的视角是否能消除当事人双方的意见分歧、修辞上是否令人信服等。换言之,审判中必须发挥裁判文书引领社会道德、维护公序良俗的作用,注重在裁判中体现出社会主义核心价值观与主流道德。追溯历史,那些受到称道、传至后世以为楷模的裁判文书往往正是这种参酌情理而非仅仅依据法律条文的判决,这方面的事例可谓不胜枚举。
那么,只要AI还无法做到百分之百准确,就必须由法官进行复核,而复核的过程无法跳过任何环节,其效率与传统的办案方式并不存在根本性的差异。所以,如果一个法官在撰写裁判文书时很大程度上依赖于AI的帮助,这样的行为是很轻率和危险的。在我看来,AI的辅助制作文书功能最多可以在撰写简式裁判文书时有点用。
对于AI的辅助裁判功能,这就更显得华而不实甚至削足适履。
第一,对于一些人津津乐道的法律检索和案例数据库,现实中很可能按照同一法条做出的判决,其裁判结果也可能一样,但是案件事实却大相径庭。这个时候别说机器了,法官都不见得没有不同的看法和理解。其原因就在于生活是如此丰富,而这些丰富的细节却无法全部归纳到法律规定的所谓构成要件中。这个时候只有经过专业训练的法官才能够就此来归纳、总结和解释。17世纪詹姆士一世和英国首席大法官柯克关于国王能否担任法官的经典争论已经表明,即便AI的智能超过国王,也不能独立担任法官。可是,AI的智能超过普通人了吗?并且,考虑到中国的国情,法律和政策的變动往往很频繁,而且法治建设还在起步阶段,以既往审判案例为基准的法律体系还比较初级,这会使得AI难以有效地“学习”。现实中,很多优秀法官对于自己所处的审判业务领域所需引用的法条在具体法律文本中的位置都了然于胸,所以他们在写作裁判文书时已经不需要把很多时间花在法条的查找和相似案例的参考上,他们更多的是花时间在组织逻辑和语言以及思考案件处理的策略,机械的工作(包括寻找资料,核查文书范式和引用等)往往不是问题。
我们注意到,AI辅助办案系统的应用已经造成一些负面影响,如方便的法条和案例检索导致了合议庭论证过程被缩短,因为办案法官很容易从以往的判例中寻找现成的论证思路:AI在无形中逐渐改变着审判组织的判断。个别法官在运用辅助系统时往往倾向于通过搜索一些关键词来解决问题,但是却忽视了一系列相关联的概念和逻辑推导过程,一些同义词之间的“联想关联”也造成了法律适用的偏离。确实,在没有AI时,不排除法官有时候会花大量时间用于查找法律和案例,他们也会受到各种非规范因素的影响,比如和同事探讨案件,但是,这些材料一般是印在现实中的书本上的,因而是固定不变的,或者关于法律适用的建议是由人做出的,人类无论自己做出什么决策,其他人都会感到“事态可控”,但若同一决策出自AI之手,许多人就会感到巨大的不适。AI的数据是可以不断修改、扩充和更新的。一旦用户开始相信和依赖AI的判断和决定,那么他们就可能不愿多动脑筋和变得懒惰,并失去对许多问题的责任感和敏感性。教育工作者发现日常生活中那些过分依赖搜索引擎的学生的主动思维能力和计算能力会明显下降,他们在逐渐蜕化成搜索引擎所提供结果(这种结果有时候是娱乐化、不严谨甚至别有用心的)的使用者,而非知识和文明的传承和创造者。这种状态在一定程度上和动物有区别吗?动物的特点就在于没有精神而仅凭自然给予的而生活!类似地,做出法律决定时过分地相信AI的结论而不加分析地接受,将会使法官的认知能力下降并增加误解。所以,即便有些企业要研制法律检索和案例推送AI,也应考虑到上述问题,尽量鼓励法官在问题求解中的能动性,让他们积极决策而非被动接受。
第二,对于AI能够给出裁判建议并保证同案同判的功能,这就比案例检索更不靠谱了。
首先,算法本身存在歧视和“黑箱化”问题,这不可避免。人类对于个体的判断通常是综合和动态的,但算法无法获取或处理对象的全部数据,它只把人的行为理解为与社会和自然背景毫无关联的依据规则的计算。其决策根基是相关性,而非因果性,可是,因果是认识论的基本诉求,我们需要知道原因。那么,算法有时候就会做出不完整甚至错误的决定,并且其工作方式缺乏监管和透明度。即便公权力机关采取各种方式刻意引导企业减少算法歧视,然而,工程师往往也无法解释软件中隐藏的决策过程。
近些年AI领域的一切进步,都可归为“输入数据,生成回应”模式。即由过去推导未来,机器无法预测完全不在它“经验”范围内的意外。不过一些对于AI持有乐观态度的人马上会反驳:法官的阅历和直觉也不是天堑.因为AI有迁移学习能力。可是,对于AI,有很多核心问题都是完全没有解决的,甚至在很大程度上还没有被人提及。深度学习不是一种万能的溶剂,它只是一种工具。一些人一直想神话AI,但大多数情况下,人类做不到的事情,AI也无能为力。以当前广泛使用的基于神经网络开发的AI为例,它是一种像人脑一样运作的深度学习算法,就本质而言它不可能透明化。神经网络会自己建立数据连接,而不是被明确地进行编辑。这个系统过程非常隐秘,也会经常变化。一般而言,法院自己并不编写算法,而是向企业购买或者合作开发,由于AI在这方面是黑盒子,那么,自然会引起人们对其可靠性的怀疑。即便公开算法以供民众监督,神经网络也是浅薄的,因为它们的编写没有什么先天的知识,对于世界或人类心理没有感触。如果法官无法理解这些决策过程,那么该如何判断AI作为决策辅助工具的有效性呢?AI这个很不靠谱的角色,为审判带来了两条潜在的道路:要么盲目地任由技术向前推进,由未受控制的算法危险地将审判推向悬崖,要么暂时禁止不透明的AI用于法官决策辅助。
其次,在遇到棘手案件时,形式逻辑往往无能为力。形式逻辑既不能帮助法官填补法的空隙,也不能帮助法官在两个可适用的法律规范或原则之间做出选择。这时候,法官多不直接依据现有的证据和法律做出最佳的判断,而需要借助法律背后的理念、价值,这种非形式逻辑的裁判技巧更让AI无法学习。和人一样,只懂法律的人做不了法官,因为法官还必须有健全的人格、强烈的法治信仰、敏锐的思维、对历史和人性的深刻理解等,那么只有法律知识的AI当然不能担当法官,因为形式正义与实质正义是一对矛盾。伯尔曼认为:“仅从效力角度考虑法律,则我们使之丧失的,便正好是效力。”这一点对于当今变迁频繁的中国社会尤有参考价值。对此,马克思指出:“如果现行法律和社会发展刚刚达到的阶段发生显著的矛盾,那么,诸位陪审员先生,你们的职责恰恰就是要在过时的律令和社会的迫切要求的斗争中讲出自己有分量的话。那时你们的任务就是要超过法律,直到它认识到必须满足社会的要求为止。这是陪审法庭的最高尚的特权。诸位先生,在这种情况下,法律的文字本身就便于你们执行这个任务。你们只是应当根据我们的时代、我们的政治权利、我们的社会要求来解释它。”
优秀的法官都知道审判中真正打动人的是生动的事实和鲜活的生活,而不是法律本身。人们所能把握的只有在特定的历史境遇中所阐述的价值。对于法律问题的解答需要在社会利益、人情世故、机会、公序良俗等各个方面进行衡量,德沃金对此就提出:“法官必须把他们所控制的法律视为一个整体,而不是一套他们可以随意逐一制定或修改的互不相关的决定。”因此,法官必须具有真正理解现实社会的能力,这对经验丰富的法官来说有时候都不是一件简单的事。如,婚姻法连同相关司法解释不过数百条,但离婚案件中最基本的“感情破裂”就包含了AI根本不能理解的复杂性。没有人怀疑审判AI的复杂性要高于自动驾驶汽车AI的复杂性,很多机构,包括监管机关、科研院所、公司等已经招聘了科技、哲学、伦理和法律方面的专家,绞尽脑汁地力图赋予自动驾驶汽车以道德准则,从而使之遇事做出正确决策,可是他们发现这个任务实在是过于艰深和严肃,至今没得出令人满意的方案,因为机器不足以了解在实际场景中人类将做出的不同反应。审判AI的靠谱与否就不言自明了。
以“睿法官”为例,有些人认为它能将判后监督管理转变为判前办案指引,将经验判断为主转变为数据参照印证,所以能有效推进同案同判,统一法律裁判尺度,进而为提升司法权威和公信力提供坚强的科技支撑。但这只是一种错觉。AI具有的数学化和符号化特征似乎满足了理性主义者对于确定性的追求,但是却抹杀了事物的质的区别,在很多时候,把握事物的质更为重要,因为意义是建立在质的差异上的。对于刑事案件,由于争议点不多,这个问题相对还不突出,但是对于民事案件,需要考虑的因素太多了,比如说当地的风俗习惯,法院审理案件往往并不是追求非黑即白,AI更难以检测出法律的细微精妙之处。虽然世界上没有两片完全一样的树叶,但毕竟存在两个情节基本一样的案件,任何裁判也不可能仅仅根据“法律”而做出,法官的价值观同样在裁判过程中发挥着甚至比法律本身更大的影响,不同的法官只要依法对之做出判决,即便结果稍有出入(如刑事案件虽然两个相似案件的宣告刑不同,但都在法定刑内),就应该被接受,因为这恰恰是符合司法规律的表现。任何把价值固定化的努力都会因价值的相对性而失败。法官(不仅仅是法官,对于全人类都是这样)的不同价值取向是人类进步的源泉,这种不同取向的价值观念能够通过博弈取得最优值。人类具有心灵和社会历史性,这导致了信仰的多元性,法官的早餐也会影响法官的判决,AI却仅具有自然性和机械性,其达到的仅仅是一元性。把统一裁判尺度的希望寄托在AI上无疑让人服从机器.必须拥有自由裁量权的法官会感到惴惴不安。
对于完全不采用AI决策辅助的法院,每天做出的判决林林总总,虽然每个法官的办案习惯不一样,但是在相同的法律事实和证据的情况下,基本上还是能够得出相同的判决,这就意味着没必要引入AI来监督法官群体。目前尚不知道“睿法官”的判前办案指引是否具有强制性或者是否会影响对法官的绩效考核,如果有,那么它就是违反司法规律的;如果没有,那么就完全没必要存在这项功能。
三、AI到底应该用来做什么
近年来,很多名人,包括比尔·盖茨、马斯克,以及霍金等,都表达了对AI的担忧,告诫人类要警惕AI的应用。其原因就在于机器一旦可以独立思考,就能以前所未有的超快速度重新设计自己,可能脱离人的控制而叛变,人却受到生物进化规律的限制,与之相比根本没有竞争力,由此必然导致人类的生存和伦理问题。
从现有的技术来看,AI距离独立写程式还有相当一段距离,但这在几十年内极有可能会实现,因为它已经跨过了关键性的非线性的自学、自我调整的门槛。届时,AI将逐渐获得类似于人类的价值观念,塑造出对具体场景的理解和随机化感受力,其运用场景将具有通用性而非仅限于特定的任务。那么,届时一切我们习以为常的伦理和常识是否将不复存在?对此有学者指出:“人工智能的发展已衍生出‘过度依赖数据的危机。对数据和算法的依赖开始形成一种权益的悄然转移。算法和数据开始接管大众媒介的权力,算法输出结果所依赖的数据,开始代替人类进行决策。”但是,这个世界上只有人类才具有真正的心灵,有些心灵现象是不可能被形式化的,如果要让AI具有心灵智能的话,它是不可能全面超越人类智能并实现超级AI的。由于人的自由意志无法被程序化,那么人机之间的界限是无法打破的。根据康德的自由意志理论,如果我们要使AI不具备做出不道德行为的能力,那么,AI不可能具有人工道德主体資格,它在根本上只是解决具体问题并形成实际用途的工具,仅仅具有接受外部事物刺激的能力和逻辑推演能力。当然,也不排除AI全面超越人类智能而成为超级AI,不过,如上所述,由于它不是人类的心灵智能,人类届时仍然可以仅仅把它看作工具,其对人类伦理的破坏依然不会存在。由此看来,如果人类发展AI的目的仅仅是追求它能够模拟或者具有心灵智能的话,实属有失偏颇。A1只是一种能够解决问题的工程科学,是否具有心灵智能则无关紧要。但是有一点可以明确,只有具有自由意志的主体才能担当法官,所以,AI在审判中的辅助和工具地位则不可避免了。
但是,机器在没有自由意志的情况下的确可能造成人类的“异化”。那么,对于这种深刻而危险的人的异化,法律界该充分讨论AI开发和应用的政策问题了,即哪些可以研发,哪些禁止研发,哪些优先研发等,就像当年对克隆技术不能放任自流一样。毕竟AI的定位是为我们的工作和生活提供帮助的,而非替代甚至取代人类的工作和生活。如上文所述,即便仅仅作为审判辅助工具,AI的某些应用仍然会造成司法意义的消解以及公众对司法公信的合理怀疑等诸多问题。人类进化几百万年,却要听从新兴起的机器的判决,这确实不可思议,很多有识之士正陷入由这些AI繁荣后的负面影响而产生的苦恼和忧虑中。我们注意到,相关企业出于企业公关、引导舆论、拉高估值等目的,肆意夸大AI还远不具备的功能,并有意掩盖其背后的技术瓶颈和严峻的伦理问题等现阶段无法跨越的障碍,一些随波逐流的法律人也对算法风险评估带来的负面影响缺乏讨论和警醒,其后果完全可能造成人与机器地位的颠倒。因此,面对司法AI,我们应该理性对待,让其回归其本位,也让法官回归其本质。
追溯历史,我们发现人类技术产品的力量越大,它就越难以掌控,技术使人类文明的未来充满不确定性,所以冷战时期美国人对于苏联核弹的畏惧超过了对末日审判的害怕。根据《人类简史》中的论述,正是想象出的共同体,使得人类走进了文明时代,人类的想象力的速度超过了基因演化的速度,由此建立起地球上前所未有的大型合作网络。人类的文明是一场“想象”,人类作为高级动物,和其他动物的不同在于,人类能以想象力赋予事物意义,也可以创造虚拟的世界和物品,例如货币、神话、宗教……这里所谓的“想象”,其实就是价值观念,即人类个体的思想性和群体的修正能力,修正能力是个体交流的结果。在动物界,可以看到个体的存在,但绝对不会找到群体的修正能力。所谓修正能力,即是在尊重个体思想自由的前提下,经过个体之间的博弈而达成体现多数人意志和利益的集体行动。人类社会的体制、制度、法律等,都是这种能力的表现形式,因为制度是价值观的外化。“价值观念是人性的最好表现形式。”在劳动中,人们形成了关于生产力、生产关系和人神关系的价值观念,所以,马克思认为:“人的本质并不是单个人所固有的抽象物。在其现实性上,它是一切社会关系的总和。”
假设将来有人研制出基于非心灵智能的超级AI,它能给人们所需要的一切美好的东西(物质、制度、爱情、性欲等),那么,人们事实上等于被豢养,也会感到难以接受。因此,我们宁愿要一个不太完美的世界,也不要一个被AI完全控制的完美世界。因为在人类无法做出选择的情况下,善恶根本没有任何意义。只有在充分的可能和真实的多样性中,人类才会找到真正的善。回到司法AI,用客观公平的算法(不管它是否是心灵智能,不管它是否是超级AI)来代替法官进行自动化决策,虽然会带来效率的提升,但人性必然会泯灭,不劳而获的惰性也会膨胀,从而不自觉地成为工具的工具。对此,有学者就一针见血地指出:“随着AI的快速发展和海量伪知识与全民全面娱乐的泛滥,不仅一切真知识正在被泛滥的海量伪知识遮蔽和包裹,而且各种公认的、严谨的人类文明的价值观以及文明固有的传承方式也正在被娱乐化地恶搞着。”2019年高考语文作文(全国I卷)要求考生以“热爱劳动,从我做起”为主题写一篇演讲稿对“科技进步这么快,劳动的事,以后可以交给人工智能”等论调做出回应。很多公众在网上留言表示:“这个和现实紧密联系的题目实在不好写,因为它需要反思现实并具有哲学思维”“画鬼容易,画人不好画”,等等。可见,在AI概念泛滥的时代,这样的话题极具警醒意义,因为人本质上是生命与精神同构的苦行者,决不应因为AI的出现而放纵自己的贪欲。
监管部门也注意到了AI影响的双重性。2017年7月,国务院发布了《新一代人工智能发展规划》,提出初步建立人工智能的法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,让技术创新运行在法律和规范的轨道上。在实践中,可要求所有AI系统的开发必须进行登记并具有可解释性,督促开发者以公开、透明的模式遵守法律和伦理规则,同时赋予用户拒绝权和解释权,即在用户认为算法存在歧视的情况下,他有要求开发者给出解释的权利,直至拒绝接受算法,等等。
不过,仍然需要看到,现行的人类社会架构是难以担当科学监管AI的重任的,因为人类社会自古至今都存在“异化”,异化的人类社会组织不可能把人的自由全面发展作为其出发点。这就需要人类更进一步的“想象”了,只有让人类在劳动关系和社会关系上获得真正的解放.唯有实现“自由人的自由联合”,才能确保AI服务于人类福祉。
四、结语
人类的发展绝不应该在科技牵引下一意孤行,而是人类按照真善美法则构建出来的理想田园。从根本上讲,AI和人是分工关系,它代替人不擅长的相对机械枯燥的部分,剩下的更有创造性的则留给人来做,人类智力因此面临的提升空间可能更大。换言之,AI不应也不会取代法官,相反还会加强、促进审判工作。而法官也将借助AI获得更强的信息整合、分析、判断能力,于是有更多的时间、精力去钻研、深挖细分的业务领域,从而顺应因社会变化而对审判工作提出的要求。
基于以上分析,AI最擅长的领域是“标准化”“流程化”和“重复性”的数据分析和处理,在这方面,人类几乎不可能和AI相匹敌,尽早使用并适应新技术才是明智的选择。实践中,AI可在多方面与审判深度融合,包含网上预约、网上立案、远程讯问、网上送达、审判公开、网上接访、智能穿戴等多个环节。AI在审判领域的推广,应做好顶层设计,以标准化的手段加大各级法院的信息化、数字化水平,在审判程序的各个环节形成真实、可用、有效的数据资源,消除“信息孤岛”,为智能化的应用夯实基础。当前,全国法院已基本实现了专网全连通和数据全覆盖,这为AI的纵深利用提供了有力支持。如,眼下就很有必要推动电子诉讼的开展,因为电子文书、电子签章和电子送达可以极大提高工作效率和提供诉讼便利。特别是一些涉外或者海事方面的案件,和当事人根本不需要或难以见面,很多诉讼文书都需要在网上传输。据报道,有些法院在这方面已走在了全国前列。如,在线下司法实践中,受地域限制,许多案件的调解、举证、庭审成本高昂。一旦当事人故意隐匿地址,法律文书将无法送达。浙江法院系统顺利对接阿里巴巴平台的海量数据,不但突破空间限制实现了电子商务纠纷从起诉到举证、庭审、判决、执行全流程的在线解决,还能通过数据分析精确锁定被告人常用的收货电话和地址,帮助司法文书顺利送达。统计表明,在运行了AI网上立案系统的法院的立案大厅,已经几乎看不到人声鼎沸的场面,因为很多案件都是通过网络、ATM机自助、二维码等立案方式解决的,每个案件平均立案时间只有15分钟。快速和有效的服务让群众对于法院的司法改革和技术创新有了更多的获得感,这也凸显了全国法院系统在推进AI融入方面进行统筹规划的必要性。
而作为法官,亦应从以下方面看待和使用司法AI:
1.了解。面对每段时间都会被热炒一次的AI话题,以及当前层出不穷的司法AI产品,“漠视、恐慌、追捧”都不该是法官的应有态度。首先,漠视容易导致对新技术的无知,法官应充分发挥搜集、掌握信息的职业能力,去了解与行业相关的新生事物,虽然目前更多只是概念炒作,但将来未尝不会成为行业变革之契机。其次,恐慌多来自外行的担忧,真正优秀的法官,自然明白审判技巧和法律知识的独到之处与难以替代的内核,对于那些司法AI将会取代法官的言论,只会一笑置之。最后,追捧是对自己定位的盲目,在这些新技术、新概念的新闻包围中,法官应保持充分理性,在了解的基础上,审视这些概念的真实性和背后的机理,结合自己所处的行业环境、职业阶段和发展需求谨慎判断。
2.利用。AI带来的诸多辅助功能就像人类在陆地、在空中、在网络世界的触角,是人类本体的延伸,帮助人类不断突破生物构造的限制。“君子性非异也,善假于物也。”司法AI的研发、完善,最终也将成为法官审判的外延,懂得利用的法官,可以借助这些外延提升效率,打破时空限制,为自己也为民众创造更多价值。
3.合作。司法AI在法院工作中的運用,特别是在其研发阶段,事实上离不开法官。AI的前提仍是人工,司法AI的技能不会凭空产生,其形成的过程离不开行业内资深法官的智力贡献,对于这类合作机会,只要有心,其实很多。既然司法AI是一个不可避免的新趋势,法官何不参与其中从而成为司法AI的缔造者?比如,如果说代码是AI产品的工作规则,那么学会一点编程并掌握这种思维方式就是了解AI的捷径,可以帮助法官加深对AI禀性的认识。无论如何,法官在和司法AI相处的全程中,都必须坚守法官的主体地位和AI的辅助角色.防止因为AI而导致的异化和锚定效应,确立AI在审判领域应用的制度框架,让司法AI来促进司法正义,而非带来混乱、偏见和歧视。