APP下载

智慧司法中的忧虑:想象、剖析与展望

2020-06-01刘雁鹏

理论与改革 2020年3期
关键词:法官司法法院

刘雁鹏

一、问题的提出

中国智慧司法发展已经走上了快车道,全国各级法院的智慧应用不断涌现,与此同时针对智慧法院的研究已经成为新的学术热点和富矿。但是学术界出现了一些悲观论者,相当一部分学者对于智慧法院建设产生了深深忧虑。

忧虑之一:大数据标签导致主观偏见。智慧法院有能力集聚诉讼参与人的各类信息,既包括征信记录、诉讼记录、经济状况,还包括社会地位等信息,经过数据采集分析很容易对诉讼参与人进行数字画像,并且为其贴上一个个标签。例如有的屡次登上失信被执行人,有的则属于道德模范。这种行为极容易形成先入为主的偏见,尤其是刑事案件中,大数据将为法官提供是否有罪的倾向性意见,如果被告人曾经留下了不良记录,被定罪的可能性将大大增加。[1]

忧虑之二:裁决算法黑箱产生歧视。有的被告人的量刑会参照智能辅助系统构建出风险评估报告,该报告仅仅提供与特定群体相关的数据,而系统如何做出该报告却不得而知。①例如,美国威斯康星州诉卢米斯案中,争议焦点之一便是法院使用COMPAS评估进行判决,侵犯了其获得“个殊化判决(individualized sentence)”的权利和基于准确信息获得判决的权利。参见:朱体正.人工智能辅助刑事裁判的不确定性风险及其防范——美国威斯康星州诉卢米斯案的启示[J].浙江社会科学,2018,(6):77-79.裁决算法黑箱直接限制了当事人的知情权和抗辩权,极容易造成司法不公。[2]此外,前案不公的裁判结果会作为将来算法进行情景模型训练的基础数据,使得原有的算法偏见得到进一步强化,发展出一种自我实现的歧视性反馈循环,最终可能导致个案不公异化为类案不公。[3]

忧虑之三:人工智能替代法官思考甚至取代法官。人工智能自动生成判决、根据大数据矫正法律决定等做法事实上导致程序员、软件工程师、技术公司与法官共同作出决定的局面,[4]人工智能将逐步替代法官思考,甚至将来有一天取代法官。

二、对于忧虑的剖析

偏见、歧视、不公既是学界对智慧法院建设关注的焦点,同时也是对智慧法院建设的忧虑。从这些忧虑出发提出了各项建议举措和应对措施。例如,设置算法论证程序、嵌入案件纠补机制、确立算法解释规则、构建司法商谈机制;[5]再如,制定专门的算法问责监管法,增强智能算法的透明性;[6]又如,建立算法审查委员会,对算法进行伦理和法律审查,保证算法的合法性与公正性。[7]那么上述问题真的存在吗?智慧法院建设真的会带来偏见、歧视以及不公吗?

(一)贴标签可能产生偏见吗?

对诉讼参与人贴标签如何能够成功?这首先需要海量且真实数据。在消费能力方面,需要获得本人的银行卡存款、住房信息、车辆保有信息、支付宝微信支付等第三方支付的记录;在征信方面,需要来自政府的交税记录、罚款记录、违法记录;在社会层级方面,还需要掌握本人工作情况、亲属关系、资产配置、教育经历等;在应诉能力方面,需要掌握与当事人相关的报案、报警记录、诉讼应诉记录、执行情况等。唯有掌握如此庞大且复杂的信息,方才可能对当事人进行完整的数据画像。这是在理论上的分析和探讨,实践中的情况要残酷得多。一方面法院内部数据不真实、不完整、不准确的现象比比皆是,法院系统内部信息孤岛现象短期内尚且无法解决,例如,法院比较成熟的电子档案管理目前仍然无法完全实现四级法院无障碍互通。[8]另一方面,在法院、公安、检察院、银行、移动支付等信息互通也难上加难,尤其是公安、检察院以及监狱管理局的信息,很难顺利获得。[9]此外,还有大量信息被淘宝、京东、支付宝、微信支付等企业掌握,法院要汇聚企业信息可能比政府更加复杂。即便随着技术的进步,信息共享制度的完善,法院可能在有限范围内掌握部分上述信息,但拥有这些信息一定会产生主观偏见吗?

法官在裁决案件过程中了解当事人更多的个人信息,不仅不会产生偏见,反而有利于案件的审判执行。在民商事领域,在执行过程中法官常常为查人找物头疼不已,浙江法院与阿里巴巴合作,通过大数据分析发现被执行人网购收件地址较为固定,则此地极有可能是被执行人的经常住所地。对于刑事案件而言,犯罪倾向性意见只能迷惑普通人,法官受过专业训练,认定某人是否有罪仅仅能够依靠足够的证据,即便在过去几年内,某人若干年前招摇撞骗、寻衅滋事、吃喝嫖赌、恶语相加,只要与被指控犯罪无关,仍不能作为本次罪行的证据。以往过去的经历可能会成为当下被告人定罪的证据只不过是部分人的想象,将道德评价纳入定罪量刑也是没有经过系统训练的普通人的臆断。对被告人进行大数据分析并不会影响其定罪,但是可能会对量刑结果产生影响。《刑法》第61条规定:“对于犯罪分子决定刑罚的时候,应当根据犯罪的事实、犯罪的性质、情节和对社会的危害程度,依照本法的有关规定判处。”其中犯罪的危害程度有时需要其他相关材料方能得到印证。例如,经常聚众闹事、寻衅滋事、甚至属于累犯,那么社会危害性可能更高,而没有上述事实,且曾经有见义勇为、优秀标兵、积极悔罪、挽回损失的记录则可能社会危害性较低,在量刑上也应当有所区分。可见,对于刑事案件而言,大数据画像、大数据贴标签可以帮助法官裁判更加精准和科学。对于行政案件而言,大数据标签可能会分析出某人长期以来专门从事政务公开申请工作,其目的不是为了获取信息,而是通过诉讼向政府施压,以达到其预想目的,那么这个数据分析结果就可以成为不予受理的法定理由。①《政府信息公开条例》第35条规定:“申请人申请公开政府信息的数量、频次明显超过合理范围,行政机关可以要求申请人说明理由。行政机关认为申请理由不合理的,告知申请人不予处理。”而且大数据标签还能够发现政府在依法行政过程中普遍存在的漏洞,为政府完善依法行政、提高执法水平提供参考和借鉴。

但是大数据进入司法确实让学界产生了深深的忧虑,他们忧虑的真正内容不是数据会给当事人贴标签,而是大数据进入司法后破坏了原有的审判模式。大数据时代到来之前,法官仅能通过案卷材料了解当事人的相关情况,其他相关信息不清楚、不了解、不知道,这相当于构建了低配版的“无知之幕”,遮挡了法官多余的视线,让法官将注意力焦点集中在案件事实,服从内心的自由心证,而不是原被告的身份、地位、宗教信仰、受教育程度、工作经历等无关因素。为了保证法官不受外来消息的影响,各国司法制度都做出了相应的安排,英国有媒体报道的约束制度和程序规范,[10]美国则有对律师及检察官的缄口令制度,[11]中国通过干预案件记录制度杜绝案件受到来自领导干部的干预和影响。②参见:《领导干部干预司法活动、插手具体案件处理的记录、通报和责任追究规定》。上述一切努力都是为了营造一个相对封闭的环境,让法官的自由心证不受来自媒体的、领导干部的、律师的、检察官的影响,仅仅依据事实和法律得出结论。大数据的到来对现有的司法制度造成了一些波澜,法官有可能在案件事实之外了解到原被告的其他信息,基于这些信息可以判断当事人的品格、诉讼目的、征信情况等等。这不仅破坏了原先由程序设计好的封闭环境,而且迫使蒙眼的正义女神睁开了双眼,其破坏了法官仅仅依据案件事实和证据进行裁判的原则,夹杂了来自大数据的信息和内容。于是乎部分学者认为信息系统给当事人贴上了一个个标签,让法官在裁判过程中产生了偏见。事实上,这种忧虑杂念不能停歇是因为忘却了更为基本的原则。首先,法律仅仅能够对行为作出评价,任何没有行为依据的思想都不能成为评价依据。一个人内心狂躁,想要毁灭世界,只要他没有表达出来,没有任何行为,没有造成后果,就不能以任何罪名认定其有罪。故仅凭大数据分析出来的想法或者可能性不能作为法律的评价依据。其次,除非法律规定,法律仅仅能够对当前行为作出评价,排除过往。这也是为什么不能对同一件事情评价两次,一事不能二罚。即便某人过去屡屡犯错,常常在街边盗窃他人钱包,也不能据此认定此人此次不是捡到钱包而是盗窃钱包。故即便大数据记载了过去大量不良记录,依旧不能对当下行为定性。最后,除非法律规定,法律仅仅能够对已经发生的行为作出评价,排除未来。即便某人过去是一个地痞、流氓、无赖、骗吃、骗喝、骗婚,依然不能否定未来能成为反抗暴秦的领袖,并建立一个被后世铭记的大汉王朝。故即便大数据记录个人征信情况不佳、道德品质不高,未来依旧可能成为一个万世表率。大数据进入司法可能会对当事人贴标签,但是标签并不会产生偏见,只会有利于法官审判执行,所谓的偏见不在法官心中,而在社会民众之中,在学界学者心里。

(二)智慧法院系统存在算法黑箱吗?

算法黑箱意味着算法在输入数据和输出答案之间存在着无法洞悉的内容,一般人无法理解。[12]算法黑箱广泛地存在于搜索、网购、阅读等算法程序之中。当人们在搜索栏目中输入关键词,搜索引擎就能将与关键词相关的内容呈现出来;当打开购物APP或者网站时,总能出现想要购买或近期急需的商品;当打开今日头条、网易新闻等软件,总能推送喜欢的内容。大部分人可能不了解构成算法黑箱的爬虫算法、索引算法、排序算法、链接分析算法、RSA算法、基于投票的个性化算法等内容。但是不会质疑这些算法给生活带来的便捷,足不出户就能够购买各种商品,搜索一下就能找到想要的知识,动动手指就能获取自己想看的内容。人们无需了解算法是如何运作的,只需要获取算法带来的福利。算法黑箱广泛存在于智能应用之中,那么裁决过程中的算法黑箱存在吗?这就要从算法介入到司法活动的广度和深度来分析了。从各地法院的创新实践来看,算法参与到司法活动主要有以下几种类型(参见表1):其一,整理案卷材料,生成庭审提纲。其二,提取电子卷宗,文书快速生成。其三,实现类案推送,提供量刑建议。

对于功能一和功能二而言,基本属于抽取案卷材料,按照既定逻辑,生成法官需要的结果。至于系统是基于什么样的指令将纸质案卷扫描成电子卷宗,基于什么样的算法将PDF或者图片中的文字生成庭审提纲,法官并不知道,这个过程中存在黑箱,但是这并不影响案卷材料的完整性、电子卷宗的真实性以及庭审提纲的准确性。就如人们通过搜索引擎得到的网上新闻和自己翻阅报纸得到的新闻在内容上不存在差别,人们不会因为新闻获取方式存在算法介入,就认为新闻内容有假、数据遭到篡改。新闻依然是那个新闻,数据依旧是那个数据,只不过经过算法的加工,会调动起读者的积极性,喜欢什么样的内容就会推送什么内容。而案件辅助系统不同,不会因为法官喜欢看案件事实部分,就不推送证据部分,而是全方位的推送;更不会因为法官不喜欢看那部分的案卷材料,就不扫描那部分内容。可见在这个阶段的智能应用,算法的作用仅仅是对繁琐的人力工作进行了替代,法官或者书记员不用再做简单重复的劳动,而可以将主要精力集中在案件审判中。

对于功能三,是学界对于智慧司法应用争议的焦点,美国威斯康星州诉艾瑞克·卢米斯(Eric Loomis)就是因为该案采用量刑智能辅助工具对被告人判刑。[13]这里需要指出的是,量刑辅助系统所做的仅仅是类案推送,或者将大量的案件数据进行类比分析后得出一个区域范围值,即便如此,得出的结论都是描述性的而非规范性的,系统不会得出案件“应当”如何裁判,而是以技术优势给法官提供某个特定案件的平均裁判水平,以便法官能够根据数据库中的数值对自己手头案件作出初步的评估。[14]范围值的做出是哪一条代码决定的,当事人、律师、检察官、法官都不得而知,但是基本原理是清楚的,通过关键词归纳类案,对类案进行分析后得出一个上限和下限。可以说,这个过程中存在黑箱,但是这个黑箱并不造成逻辑困扰,即便没有这些算法加成,以正常人的经验和判断亦可以通过大量阅读判例得出特定案件裁判的平均值,只不过这个工作可能要消耗人类太多的时间,而对于系统而言仅仅是几分钟而已。

(三)算法歧视存在于司法活动中吗?

大数据时代,是否存在算法歧视?答案是肯定的。一般在数据应用过程中主要会产生以下几种歧视:1.内置性编码造成的歧视。在程序员编纂程序过程中就将不同的对象区分为三六九等,将自身的主观意识和偏见加入到算法之中。[15]例如,滴滴打车的苹果手机用户收费比安卓用户要高,这是程序员写入算法中的,是程序所追求的结果。2.数据不完整造成的歧视。由于数据样本代表性不足导致一些要素没有被纳入范围,造成一些群体持续被忽视甚至歧视。例如,针对大学毕业生的就业情况进行统计,若大量统计985、211等知名高校,忽视其他本科院校以及大专院校,则可能得出较高的就业率、较高的工资水平,那么对于那些出身普通高校,找不到合适工作或者工资水平较低的毕业生而言可能会产生歧视。3.数据关联造成的歧视。这类歧视中,算法决策者虽然使用了客观中立的基础数据,但这些合法的客观中立的数据组合在一起产生了歧视性的后果。[16]例如,将某种犯罪行为和地域相结合,容易造成××地的人都是电信诈骗犯,××地的人都是造假的等具有地域歧视的结论。4.特征选择造成的歧视。这种歧视是将性别、体重、肤色、毕业院校、学历、户籍等敏感信息输入,从而构成歧视性看法。例如,刘某是一个来自某二本院校的180斤的胖子。这种歧视还可能会造成反馈循环,进一步强化这种偏见。例如,搜索引擎会将矮矬穷胖和刘某自动关联,甚至输入刘某进行搜索时,自动会跳出胖子、屌丝、矮子等字样。上述几种典型的算法歧视是否真的会在智慧法院中出现?

首先,智慧法院不会刻意将歧视设置在编码中。对于内置性编码造成的歧视,其本身是由人对人的歧视,而不是算法造成的歧视,算法在这个过程中仅仅是一个运算工具而已。这种算法歧视的本质是将歧视从线下照搬到了线上,无论是滴滴苹果客户端收费高于安卓客户端,还是网购平台中的大数据杀熟,都是运营者主观追求的结果。那么法院作为确定算法基本方向的甲方,会将不公平对待作为算法的要求之一吗?这显然是不可能的。因为在制度上,法院应当遵循法律面前人人平等原则,不因民族、种族、性别、职业、家庭出身、宗教信仰、教育程度、财产状况的不同而有所区别。故在讨论智慧司法中的歧视问题时,应当将内置性编码造成的歧视排除在外。

其次,数据关联的主要应用不是产生歧视。智慧法院建设中的数据关联可以便利审判管理,可以提高审判效率解决案多人少矛盾,可以为社会治理提供司法数据。例如,通过大数据分析,将地域、罪名等相关中立性的信息输入,通过大数据运算得出结论,××省××地区什么类别的犯罪居全国首位。这样不会造成地域歧视,相反,相关结论可能会加强相关的预防和教育工作,减少相关的犯罪率,这对于改进社会治安、对于地方法治建设具有重要意义。但是这种情况下是否会带来算法歧视呢?法官在没有审判之前就清楚地看到了相关的报告,某某省某某市某某县电信诈骗较为猖獗,看到被告人正好是该地区的人,那么就不加审慎地认定此人罪名成立?恐怕没有经过严格训练的法学本科生都不会做出这样的结论,更不用说久经历练的法官了。

最后,歧视反馈循环需要大量歧视案例。当把大量案件的关键要素和审判结果录入之后,想要出现歧视性反馈循环,这要求大量的生效判决案件都存在类似的歧视,例如,在Google算法歧视案中,当搜索非洲裔美国人相关名称时,往往会关联到犯罪的相关信息,这是过去长期搜索将非洲裔美国人与犯罪同时搜索造成的结果,其搜索过程本身就带有歧视。[17]而智能审判系统出现歧视反馈循环则要求多个案件,甚至是每一个案件都存在歧视,这样形成的算法数据库才可能出现歧视反馈循环。若出现了大量歧视案件,此时应该规制的不是算法,而是案件审判的法官。事实上,真正的歧视存在于人的心中,而非算法之中。即便算法无比强大能够得出一些歧视性结论,只要法官恪守自由心证,严格依照法定事实和法律规定,则不会造成歧视性结果。反之,即便算法无法得出歧视性结论,只要审判者心中存有歧视,就会任由心中的偏见左右案件审判。

即便没有大数据,没有智慧法院,没有算法的介入,审判工作也很难做到绝对的公平,绝对没有任何歧视。有学者对中国1060份刑事判决进行实证分析,发现当事人的性别、学历、职业、机关等确实会对量刑产生影响,并体现出被告人自致因素的影响力大于先赋因素,社会地位越高法度越宽等规律。[18]在美国量刑歧视不仅体现在司法辅助系统中,实际审判中种族、肤色、社会地位等因素对于量刑的影响远远超乎想象。当一个黑人被认定杀死一个白人,被判处死刑的概率要远大于白人杀死黑人。①黑人杀死白人相比白人杀死黑人被判处死刑的概率要高很多,在俄亥俄州是15倍,在佐治亚州是30倍,得克萨斯州是 90 倍。 参见:张训.论量刑歧视[J].浙江社会科学,2011,(2):49-55.智慧司法系统应用之前,可以说歧视已经存在,而大数据的出现能够帮助法官将判决锁定在合法的区间范围内,一旦案件超出了警戒值,系统会予以提醒防止结果畸轻畸重。[19]从这个角度而言,歧视并不是算法造成的,而是天然的存在于司法裁判之中,而智能审判系统中的算法能够在一定程度上削弱歧视的程度。

(四)算法能够替代法官思考吗?

有的学者担忧:“越来越多的司法机关建成强大的信息系统,开发出更加智能的软件来代替传统的司法审理活动,甚至做出裁判。”[20]这里需要反思的问题是,算法未来有能力替代法官思考吗?算法替代法官有主客观两方面的要件:在客观上,案件本身可以预测;在主观上,法官思维方式可以模拟。

在客观上,案件审判结果是否可以通过算法预测?裁判预测是基于过往案件信息与法律后果之间的因果关系的一种分析,对于案件结果的一种盖然率的推测。[21]有学者通过32万份刑事判决为样本,对其中有罪判决和无罪判决进行量化研究比较。结果发现,无罪与有罪的司法决定不完全取决于案件基本事实是否符合实体定罪条件,还与刑事诉讼过程中的某种司法潜见有关。司法潜见来源于证据信息不对称、实体性暗示、控辩力量对比悬殊、控方对案件的初选等背景信息。[22]例如,同样的案件由不同的律师团队代理,不同的检察官提起公诉,不同的法官审理,其结果不可能做到完全一致。无论是代理、辩护、公诉还是审判都是一门需要长期积累的技艺,仅仅依靠系统预测或者计算,很难与最终结果相贴合,更何况这些内容还很难放进大数据分析的材料之中,更难成为分析的要素。此外,法律法规的变更,冤假错案的纠偏导致预测所依赖的数据库背景需要及时的修正与更新,这些杂质数据的存在也为案件预测增加了难度。有些相似案件出现了截然相反的判决,例如针对职业打假,前后数个法院作出不同的判决。①支持职业打假的判例参见:最高人民法院2014年1月26日发布的指导性案例之一《孙银山诉南京欧尚超市有限公司江宁买卖合同纠纷案》,反对职业打假的判例有携带公证员购买10箱茅台索赔受阻,参见:杨琳.打假人买假茅台索赔10倍被驳[N].北京青年报,2018-01-07.预测系统的正确有效是基于对过去完整信息的掌握和分析,关键分析要素的缺失,杂质数据的客观存在直接导致裁判预测无法实现。

在主观上,法官的思维方式算法是否可以模拟?法官通过大前提与小前提经由涵摄导出结论,这个逻辑过程很容易抽象概括,但在实践中却困难重重,尤其是面对疑难案件和重大价值判断,仅仅依靠逻辑推理很难做出正确裁决。因为法律的生命不在于逻辑本身,而在于经验,法官不是法条主义者,更不是自动售货机,许多司法决定都受到法官的政治偏好或者法律之外的其他因素的强烈影响,[23]而政治偏好或者法律之外的其他因素很难被算法所学习和掌握。对于政治偏好而言,即便是政治立场和意识形态明显的美国法官,算法将上述因素纳入考量范围,其模拟实践情况亦不是非常理想,无法完全模拟法官思维。②2017年,美国伊利诺伊立功大学教授丹尼尔·卡茨的团队利用美国最高法院数据库中的历史数据,为每个投票标注若干个属性标签,包括法官任期长短、管辖法院、口头辩论权利保障等,创建了一种“随机森林”的机器监督学习算法。“随机森林”模型学习了1816年到2015年最高法院的案例。经过测试,该模型对于28000项判决结果预测正确率为70.2%,对24万张法官投票预测的正确率为71.9%。参见:缪成.人工智能与大数据技术在司法领域的发展现状[J].法制博览,2019,(7):14-17.对于法律之外的其他因素,更是达到了目前算法所能处理的极限:其一,在语义分析方面,缺少背景知识可能使得人工智能无法正常分析问题,例如,“我借了你5万元钱现在还没有还”,单纯从这一句话人工智能是区分不了谁是债权人谁是债务人的。再如,当证人说“那天我大姨妈来,特别需要人帮忙,但是姨妈有事没有来,当天我没有和她在一起,不能作她不在场证明的证人”,从人工智能语义分析可能会产生疑惑,她姨妈来了没有?其二,在逻辑处理中,缺少文化背景使得人工智能分析问题沦为简单的逻辑推演,并可能导向错误的判决。例如,对于山东辱母案、广东许霆案按照逻辑推演可能会认定无期徒刑符合法律规定,但最终因整体衡量社会公平正义,考量国法天理人情等诸多因素进行了改判。社会公平正义以及天理人情等因素如何体现在算法之中成为目前人工智能所能处理的边界和极限。其三,在法律适用上,缺少对整个中国法律体系的把控使得法律适用中步履维艰。例如,民法中的公序良俗何时适用?诚信原则如何理解?规则与规则之间发生冲突如何协调?原则与规则之间发生冲突如何处理?上述这些问题在理论上尚且有争议,更不可能将解决思路形成代码编写入智能程序中。

人类理解事物的方式首先是通过外部感官(眼耳鼻舌身)获取相关信息(光声嗅味触),而后对信息进行整合、加工、改造、处理,将不同的信息内容建立关联并形成概念、经验、判断。人工智能理解外在事物的方式需要人类编写代码,规定各种要素、条件、要求,再经由人类输入外部信息,最后将信息按照代码规定的逻辑得出结论。两者区别在于人类拥有自由意志,人工智能是照章办事;人类可以选择接受或者屏蔽各类信息,人工智能只能被动接受指令;人类可以多角度看待信息内容,人工智能只能依照既定的模式处理信息;人类看待案件是全方位审视,人工智能是按照逻辑针对要素进行匹配和比对;人类更能够理解要素背后的社会意义和隐藏信息,而人工智能无法对细节背后的意义作出正确的判断。当前人工智能所欠缺的不是算力,在计算能力上人工智能早已超越了人类,即便是人类最后一处优势的围棋,也被阿尔法狗打败。但是人工智能缺少的是对文化的掌握以及常识的把控。一方面,人是社会关系的总和,讨论案件预测和法官思维离不开其所处的社会,离不开社会中的文化和主流价值观。文化和价值并不是人工智能擅长的领域,强劲的算力不能解决文化之间的对话问题,也不可能提出文明冲突的解决之道,一旦案件审理涉及文化背景和价值观问题,人工智能则无法介入。另一方面,人类在处理某些事务过程中依赖的不是逻辑而是常识,人工智能缺少人类拥有的常识,因此在判断案件基本事实时可能出现偏差。例如,身中五刀断头断脚系自杀,缺少生活常识的人工智能可能会认定为真,但正常人都会认为可能有假。常识的养成依赖于生活中的各种细节,且一旦形成就会嵌入潜意识当中,而恰恰是因为这种潜意识,通常会被忽略掉,因此一般不会刻意录入智能系统中。即便需要录入也是无比庞大的数据任务,几乎不可能完成。综上,以目前的发展水平,人工智能不可能替代法官思考,更不可能完全预判案件的走向。

(五)算法可以替代法官判决吗?

既然以目前的技术水平,算法没有足够的能力替代法官,那么是否随着数据的健全、技术的提升、模型的优化,有一天算法替代法官的场景可能出现?这一点是否定的。因为算法替代法官本身既不符合司法改革的方向,又与宪法法律相违背,抱有这样想法的尝试和努力注定失败。

首先,算法替代法官与当前司法改革方向不同。2017年《最高人民法院关于加快建设智慧法院的意见》颁布实施,该意见提出,加快建设智慧法院是最高人民法院落实“四个全面”战略布局和新发展理念的必然要求,是国家信息化发展战略的重要内容,是人民法院适应信息化时代新趋势、满足人民群众新期待的重要举措。根据该意见的内容,智慧法院主要的工作集中在以下几个方面:1.审务信息实现从上墙公示到上网公开;2.裁判文书实现从送达当事人到社会共享;3.流程信息实现从无处查询到主动推送;4.法庭审理实现从剧场公开到远程可视;5.执行信息实现从局部曝光到全程透明。从上述内容不难看出,阳光法院、网络法院、智能法院是构成智慧法院的三个维度。[24]智慧法院所做的一切努力都是为了化繁为简,方便法官的同时让更多人接近司法,而不是为了制造麻烦和困扰。司法改革的方向是将智慧法院建设成为司法的车之两轮、鸟之两翼,并非车本身、鸟本身。更不是车上的方向盘,也不是鸟的大脑,充其量只不过是辅助法官的工具。法官才是司法改革的中心,不可能通过本轮司法改革将法官剔除出审判主体,成为可有可无的存在。司法改革的方向是赋予法官更多的裁判自主权,而不是赋予机器或者人工智能裁判权。司法改革的方向决定了技术是否会朝向相关领域发展,学界所担忧的人工智能裁判出现无疑会影响法官的裁判权,同时也会影响到整个司法权威,与司法改革方向背道而驰。

其二,算法替代法官违反宪法及法律的规定。《宪法》第128条规定:“中华人民共和国人民法院是国家的审判机关。”《中华人民共和国人民法院组织法》第4条规定:“人民法院依照法律规定独立行使审判权,不受行政机关、社会团体和个人的干涉。”审判权是人民通过宪法赋予法院的权能,不可能让渡给政府、检察院、监察委行使审判职能,更不可能让渡给软件公司、计算机公司、算法工程师。即便未来技术的发展已经能够将万物数据化,将人与人之间的关系用数据衡量,算法可以精确地判定价值观,只要宪法没有变动,法律没有修改,那么就不会出现所谓的算法替代法官进行审判的实践。从本质上而言,算法替代法官裁决,软件公司替代法院成为审判机构,本质上是一种违反宪法法律的行为。

其三,算法替代法官违背商业规律。算法替代法官的尝试并非易事,需要算法工程师不停地试错和创新,甚至需要集合法官的智慧共同研发方能成功,这势必需要资本与法院深入合作。在法院方面,自然不会令资本占据主动地位,既掌握数据又左右司法审判。在资本投入方面,商业机构在投资之前都会对相关政策风险、法律风险、社会风险以及道德风险进行全方位的评估,如此违背政策要求以及法律规定的投资势必会被商业机构所否决,缺少资金来源的项目工程注定无法实现。

智慧司法能够辅助到什么程度、可以辅助到什么程度、应该辅助到什么程度是不同的问题。智慧法院能够辅助到什么程度取决于算法的能力和特点,截至目前,算法所能达到的都是基于数字和逻辑推理,而非人情世故,所以一旦案件涉及社会背景则无法得出结论。智慧法院可以辅助到什么程度取决于司法机关的选择,司法机关的任何选择不会有悖于司法改革的大方向。智慧法院应当辅助到什么程度取决于宪法法律的规定,任何超出宪法法律范围的尝试将会因缺少法律依据而流产,审判权是宪法赋予法院独有的权力,不可让渡给所谓的算法或者机器,更不可能由软件公司操控,这是对中国法律制度的挑战,是对现有政治制度的颠覆,不可能出现更不可能成功。

三、智慧司法的展望

以上否定了算法贴标签、算法替代法官思考、算法取代法官审判,分析了算法黑箱和算法歧视,认为智慧法院中的算法即便存在黑箱,也不影响人们理解其中的逻辑;即便存在算法歧视,也明显弱于法官本身带有的歧视,算法甚至可以缓解审判歧视。智慧司法的所有焦虑和担忧均来自于对陌生事物的恐惧,对于智慧司法建设关注焦点不应当是算法,而是算法给司法带来的各项冲击。

(一)对算法的忧虑来源于恐惧

人工智能对于大部分人而言是一个既熟悉又陌生的新鲜事物,而对新鲜事物的排斥和恐惧是人类的本能。当出现月食人们认为是天狗吃月,要敲打乐器驱赶天狗;当出现社会动乱或者瘟疫横行时,中世纪欧洲不明就里地开始猎杀女巫;当照相机出现时被认为可能会摄人魂魄,进而夺人性命;当汽车出现时,美国媒体将其形容为恶魔的车,英国甚至出台了“红旗法”限制汽车车速;当5G技术出现时,有人公开担忧5G信号辐射严重。诸如此类的担忧无一不是情景再现,面对无法理解的事物、现象以及技术,任何错误的信息通过简单的逻辑推演,就能够在群众中广泛传播,最终形成一种牢不可破的执念。对人工智能的忧虑和恐惧亦是如此,一方面这种恐惧体现在科幻小说和科幻电影中,人类成为人工智能的奴隶,进行着各种反抗活动。例如,生化危机中的红皇后,黑客帝国中的电子矩阵,漫威电影中的奥创。这些科幻小说和电影受众面较广,潜移默化中输入了人工智能将来会取代甚至奴役人类的错觉。另一方面新闻媒体在宣传人工智能取得的重大成就时,采取夸大标题吸引别人眼球。例如,阿尔法狗大杀四方的时候,新闻标题大多是“新阿尔法狗横空出世:人工智能反人类是什么结局?”[25]“人工智能阿尔法狗战胜棋手,人类会被人工智能代替?”[26]尽管仔细品读这些文章,发现内容比较客观中立,但是仅仅从标题来看无疑加重了普通人群的恐慌和焦虑。此外,现实生活中技术的进步,尤其是人工智能的发展,逐步造成了部分人员失业。例如,电话接线员、码头信号调度员、铁路扳道工等已经淡出人们视线。有些尚未失业的人员,随着人工智能的进一步应用,也在逐渐减少甚至未来某一天彻底失业。例如,收费站工作人员、速录员、收银员等可能逐渐减少甚至在未来消失。这样的冲击让人们对新技术的发展产生反感、厌恶、排斥甚至是恐惧。针对智慧法院中的人工智能、算法应用等内容,潜意识中对人工智能的恐惧支配了正常的思考,一些夸张炒作成为研究的前提假设,诸如超强人工智能超越人类取代人类成为必然甚嚣尘上。因此需要尽早研究算法取代人类法律的对策,研究人工智能引发的各类风险,防患于未然,[27]有的甚至主张刑法积极应对和规制人工智能犯罪问题。[28]这种未雨绸缪的精神让人钦佩,但是所有焦虑以及恐惧均是来自于虚妄执念,只不过是抚慰恐惧的内心而已。[29]

(二)不应当过度关注智慧法院中的算法

关注算法本身的结果就是要求加强对智慧法院的算法进行审查,要求法院公开算法。[30]但事实上,法院公开算法对于消除算法歧视收效甚微。首先,公开算法并不能保证没有歧视。只要算法存在,就可能产生算法黑箱和算法歧视,即便程序员刻意避免歧视出现的前提下,在算法运用过程中依然可能出现歧视性结果。[31]例如,在输入法词库中没有将肥宅和快乐水关联在一起,但网友长期将二者一起输入,其结果是算法判定“肥宅快乐水”是一种新的词语。其次,算法公开容易造成信息淹没。公开算法后关注的焦点就成了算法本身是否存在歧视,是否会导致不公正的判决。而事实上相比于算法,法官对于诉讼参与人的歧视以及类案不同判更应当被关注,当关注的焦点从案件本身转移到了算法,那么案件裁判适用法律是否恰当,案件结果是否合理等均可能被忽略。再次,算法公开可能存在技术鸿沟。即便是公开算法,无论是PHP,还是Python,抑或是java,对于普通人而言都是如同天书一般,根本无法根据算法所记载的内容判断算法是否存在歧视或者偏见。最后,算法公开存在安全隐患。由于算法内容的专业性,无论是公开算法,还是审查算法,都不得不依赖由法官委员会、算法工程师、法学专家或者伦理专家共同组成的委员会,公开或者审查过程中增加了原始代码泄露的危险,一旦被黑客掌握其中的漏洞,则可能以此为踏板侵入法院内部系统,造成关键数据被篡改、核心数据遭到泄露。

(三)应当关注算法给司法带来的冲击

尽管智慧法院建设过程中的算法问题无须过度担忧,但大数据应用、算法革命对司法及审判工作的影响却不止于此。有的通过深度挖掘裁判文书,对其进行大数据分析形成报告,推动相关领域的学术研究;有的基于以往判决对案件胜负概率进行预测,提供诉讼建议;[32]有的则利用人工智能审查合同或者保密协议,其效率和准确率甚至超过了经验丰富的律师。①美国法律人工智能平台LawGeex就四个小时审查五项保密协议与20位有经验的律师展开竞争,结果显示,lawGeex以95%的准确率完胜人类律师的85%的准确率。在速度方面,法律人工智能完成任务仅需26秒,人类律师需要92分钟。参见:左卫民.热与冷:中国法律人工智能的再思考[J].环球法律评论,2019,(2):53-62.这些看似无关的商业应用,实质可能会对审判工作产生巨大的影响。首先,大数据分析报告成为影响司法的工具。除了司法机关之外,大数据分析也可以由个人、公司、企业进行,他们热衷于利用爬虫技术获取裁判文书及其关键信息,有的是为了从事科研,有的则是为了分析审判规律并从中获利。技术公司可能会在算法中设置偏见或歧视编码,以期得到预想的分析结果,并以此为依据影响甚至左右法院的判决。其次,算法预测案件结果可能会对司法权威造成冲击。前文已述,人工智能预测案件结果并不能做到100%,那么一旦法官最终判决结果与预测结果不同,那么个人、公司、企业的预测结果是否会成为公众质疑司法的依据?一旦非司法机构能够掌握司法审判规律,甚至可以对司法判决评头论足,获取公众的普遍支持和信任,那么本就脆弱的司法权威是否会遭受毁灭性的打击?最后,残缺的样本得出错误的结论影响司法公信。事实上,法院对外公开的裁判文书并不全面,有大量文书因法定或者非法定原因未能公开。根据学者对河南法院裁判文书公开的研究,发现裁判文书公开的比例各不相同,有的公开比例高达83%,有的仅为15%,[33]个人、公司、企业根据不完整的样本分析得出的结论可能存在偏差,甚至利用上述残缺样本得出一些明显带有歧视性的结论。而这些结论的得出来自于法院的各类信息,这无疑将司法机构推向舆论的风口浪尖,极大地影响了司法公信。

结 语

不知从何时开始,如何更好地批评和监督公权力成为学术界的共识,而来自商业机构的“隐形权力”却往往被忽略,当学术界在关注智慧法院建设过程中大数据、算法运用、信息化建设可能对公民、企业、组织造成各类不平等和伤害时,却忽略了同样的内容可以对司法机构、公民、企业、组织造成影响。法院作为国家审判机构不可能在编辑代码之初就将歧视和偏见写入,而滴滴、京东、淘宝等出现的大数据杀熟,算法歧视则比比皆是。与公权力相比,资本力量利用算法造成的伤害远超公权力机关,一旦让其突破司法审判中的各类算法,极有可能既伤害与其对立的商业对手、法人、组织以及普通公民,还有可能影响、左右甚至架空司法机构。故学术界应当从对智慧司法建设中的忧虑中走出,将注意力焦点集中在资本力量掌握的隐形权力上。

猜你喜欢

法官司法法院
制定法解释中的司法自由裁量权
百姓拆迁心结一朝化解法院主持调解握手言和
法官如此裁判
法官如此裁判
司法所悉心调解 垫付款有了着落
非正式司法的悖谬
班里设个小“法院”
做“德法兼修”的好法官
我国法院在线调解的兴起、挑战与未来
当法官当不忘初心