人工智能辅助刑事审判的限度
2023-01-07胡佳
胡 佳
(四川大学 法学院,四川 成都 610207)
引 言
人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门技术科学。2017年7月国务院印发《新一代人工智能发展规划》,将发展人工智能上升为国家战略。其中,“推进社会治理智能化”部分提出要建设“智慧法庭”,“促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”。2019年《人民法院信息化建设五年发展规划(2019-2023)》提出“充分挖掘人工智能技术在法院领域的应用潜力,为 2021 年到 2025 年以智慧司法知识为中心的信息化建设奠定基础”,将法院系统的人工智能建设作为重点任务进行部署。在国家政策文件的积极推动下,各地法院主动将人工智能运用到刑事审判活动中,涌现出许多智能系统建设的创新成果。可以说,人工智能运用已经深刻影响着司法审判领域,成为审判工作的“新常态”。受此影响,理论界对审判中人工智能运用的关注度和研究热情也与日俱增①在“中国知网”以“审判”“人工智能”为关键词进行检索发现,2016年及以前的文献数量为个位数,个别年份甚至出现研究空白,如2014和2009年。2017年及之后的文献数量猛增,2019年达168篇,2020年达187篇。理论界对审判中人工智能运用的研究热情可见一斑。检索日期为2021年11月26日。,法律人工智能已然成为学术研究的热点、重点。相关研究集中于人工智能对司法裁判的影响和冲击、审判中人工智能运用风险的应对举措等等。相较于政策层面和司法实务的积极主动姿态,理论界在对审判中人工智能运用怀抱期待的同时,更多了一份谨慎的反思。尽管存在认为人工智能未来会替代人类法官的乐观主义者,但是当前法学界基本形成了一个共识,即人工智能仅仅是辅助法官裁判,司法审判的主宰者仍然是人类法官。因此,在推进法院信息化智能化建设中,需要处理好人工智能辅助与法官独立审判(或称审判自主性)之间的关系,也即确定辅助的限度何在。[1]正如司法责任制改革中通过出台正负面权责清单明确法官行权边界一样,规范人工智能既要从正向明确人工智能介入审判的允许范围,也要从反向界定人工智能介入审判的负面清单,防止变相替代、操纵。相较于民商事审判,刑事审判是一个较为传统且保守的领域,效率与公平、形式正义与实质正义的冲突体现最为明显,为了研究的典型性和集中性,本文主要探讨刑事审判中人工智能运用的界限问题。
一、基本共识:辅助而非替代
从计算机技术问世以来,法学研究者就开始追问“机器能否开展法律推理”“人类法官是否会被机器法官所取代”等问题。随着技术和法律的不断发展,这一讨论持续深化并形成观点派系。乐观主义者认为人工智能会逐步取代人类法官,形成“人工智能为主,法官为辅”的司法局面。①庄永廉,等.人工智能与刑事法治的未来[J].人民检察.2018,(1):41-48.也有论者认为“如果未来的法律机器人因其功能强大而大行其道,法官的必要性就会降低甚至变得没有必要。”参见高奇琦、张鹏.论人工智能对未来法律的多方位挑战[J].华中科技大学学报(社会科学版).2018,(1):86-96 ;还有论者认为“人工智能成为裁判主体,现实来看是可能的和可行的。”参见范兴科.智能裁判的科学内涵[J].温州大学学报(社会科学版).2020,(2):49-57.“算法裁判或将成为法律的终极形态”[2],人工智能可以代替法官直接作出裁判。中立期待者则认为人工智能运用应当坚持辅助性原则[3],不能完全取代司法工作者,只能作为工具或辅助手段形式存在。[4]最高人民法院院长周强同志曾明确指出“无论多么先进的人工智能,都是法官的辅助,裁判的主体只能是法官”[5],这代表着我国目前的主流观点。
对于人工智能只能发挥辅助作用的原因,现有研究已经进行了十分全面深入的论述,且基本达成共识。本文将之简单归纳为:(1)人工智能本身的限制。除算法黑箱、算法歧视外,不允许人工智能裁判的缘由还在于,其可能只有权力没有责任。而如果不能为决断本身所负责,那么作出决断的行为将失去基础。[6]并且“有多少人工,就有多少智能”的法则在法律人工智能产品上体现得十分明显[7],意味着法律人工智能的智能程度实际上是较为有限的。(2)司法裁判的独特性。人工智能的认识论基础是“认知可计算化”[7],而左右司法裁判的价值衡量、经验和情感却无法计量,“人工智能判决是一种价值真空的判决”[8],难以实现政治效果、社会效果和法律效果相统一。人工智能判决与人类裁判具有形式判断与实质判断、归纳推理与演绎推理、标准司法与个别正义的根本分歧。(3)政策考量。人工智能裁判还可能毁损司法权的独立性、法定性和仪式感,造成信息不对称而进一步加剧刑事审判的控辩失衡,冲击审级制度等等。
至于辅助审判的范围,各界均认可人工智能用于非审判事务的可行性,实务中也确实取得了良好效果。例如上海市徐汇区人民法院将人工智能应用于创新庭审记录改革,使庭审时间节省了约1/3。江苏省苏州市中级人民法院通过庭审语音智能转换、电子质证“随讲随翻”等智能应用,将法官事务性工作剥离约40%,书记员事务性工作减少约50%,案件平均审判效率提高30%左右。②江苏推广智慧审判苏州模式 提高案件审判效率[EB/OL].人民网(手机)2017年4月16日,http://m.people.cn/n4/2017/0416/c1549-8770962.html,2021-11-08.同时,个案学习后疑难复杂案件识别正确率达95%以上[9],切实提升了审判监督管理的精准性。不过,基于辅助定位的人工智能能否介入审判事务以及介入的程度,各界有不同认识。有论者认为人工智能可以适当裁判轻微的刑事案件。[10]也有论者认为人工智能辅助裁判应该多适用于民商事案件,而非刑事案件。[11]在具体事项上,有论者认为人工智能应当避免涉及实体利益的裁判。[12]也有论者认为人工智能可以就证据能力之有无和证明力之强弱,给出概率上的参考。[13]还有论者认为不能用于证明能力的实质判断,但可以检验形式性要素。不能独立应用于证明力判断,但可以以技术手段发现证据矛盾之处。[3]虽然没能达成统一认识,但总归而言人工智能辅助审判应当有“允许”与“禁止”之分。
二、刑事审判中人工智能的深度应用
与理论界对人工智能辅助审判的犹疑不同,技术的日益智能化使得各地法院的智能辅助系统建设阔步向前,如北京高院“睿法官”智能研判系统、上海高院刑事案件智能辅助办案系统(简称“206”系统)、贵州省“政法大数据执法监督智慧云平台”、杭州互联网法院智能证据分析系统以及广州互联网法院的“类案批量智审系统”,等等。刑事审判中人工智能的运用几乎已经实现对刑事诉讼流程的全覆盖。[14]109其功能重点表现在以下三个方面:
1.证据标准与证据规则统一指引
证据标准指引一般用于审前程序,主要是对办案过程中需要收集的证据以及证据收集规范进行具体化和规范化。截至2018年10月,上海“206系统”对该市刑事案件常涉的71个罪名进行标准制定,形成校验点12989个[14]123,实现分层、分类、分段指引。在案件证据进入办案系统之初,即可告知是否存在证据缺漏,以促进证据收集的全面性、充分性。
证据规则指引是对证据三性和非法证据排除等规则的快速检索机制,例如通过整合最高法《关于适用<中华人民共和国刑事诉讼法>的解释》以及相应规定,将电子数据的审查判断固定为17个具体方面。同时明确什么情况下属于瑕疵电子证据、如何补正,以及非法电子证据的排除等等。审判人员只需要对照证据规则指引就可以确定证据能否采信,或要求补正,或予以排除。
2.证据自动校验
证据自动校验包括单一证据校验和证据链与全案证据审查判断。前者既可在庭下使用,也可以在庭审中使用,后者则常常在庭下使用。单一证据校验是建立在证据规则指引的基础上,依据“海量数据挖掘+办案专家总结”的校验规则,从单个证据的程序、形式和内容三方面进行比对校验,自动生成审查结论。例如在上海市二中院运用“206系统”的首次庭审中,系统发现涉案扣押物品缺乏相应扣押笔录,并给予法官证据瑕疵提示,法院依据提示要求公诉人对瑕疵证据进行了补正说明。此外,“206系统”通过适用证据模型,可以对上传的证据材料能否形成完成、闭合的证据链条进行初步判定。对同一查证事项下的证据印证关系,各类查证事项的逻辑符合性,以及被告人供述的矛盾进行审查判断。[14]112例如系统可以提请法官注意,针对是否与被害人相识这一事实,被告人多次作出矛盾供述,从而促进证据的实质审查。还可以利用系统的证据链审查功能判断当事人是否具有抢劫意图,构成抢劫罪还是故意杀人罪或盗窃罪,是否具有如实供述情节等等。
3.量刑的规范辅助
智能量刑辅助是司法与技术结合的最早领域之一,也是探索经验较为丰富的领域之一。计算机技术较为普及时,我国就曾出现机器量刑的尝试①最早可追溯至上世纪80年代末,只是那时主要停留在对量刑情节个数,各类情节权重评价以及处罚程序等的初步运算。新京报在2004年5月23日刊发题为《输入犯罪情节电脑作出量刑》的消息。2006年山东省淄博市淄川区还曾研制出电脑量刑软件,参见郭新磊: 淄博电脑量刑挑战自由裁量权[N].民主与法制时报.2006-09-11(A01).,只是当时还停留在初步的机器计算。目前,人工智能量刑辅助主要包括类案推送、量刑参考、裁判偏离预警和社会危险性评估功能四个方面。江苏法院量刑辅助流程遵循“图谱构建→情节解析→权重排序→类案识别→模型训练→量刑预测→偏离预警”七大步骤。当一个刑事案件进入系统后,智能辅助办案系统会根据深度神经网络自动抽取案件信息,在海量案件库中查找最相近的案件进行自动推送,以供办案人员参考。依托量刑预测模型,系统可以实现自动依据历史量刑数据推荐量刑。如果法官的裁判结果与类案裁判结果发生重大偏离,系统则会自动预警(根据偏离度的不同,预警的程度也不同),并进行犯罪定性和量刑差异性分析,必要时还可以提请院庭长行使监督管理职权。系统中的社会危险性评估模型还能对涉案人员进行社会危险性评估,影响刑罚执行方式,如缓刑的适用。
民事审判中人工智能运用则走得更远。福建等地试行的交通事故“智能裁判系统”,可以通过分析原告的起诉状和被告的答辩状,生成案件基本要素。法官只需要对要素进行筛选,就能点击获得裁判文书。浙江嘉兴的金融智审系统不仅能够自动生成判决书稿,还能利用AI助理主持和推进庭审,法官根据反馈、核查后确认宣判即可。②法官判案调解写文书 有个厦门造AI助理[EB/OL].http://www.taihainet.com/news/xmnews/xqzmr/2020-09 -26/243 1106_3.html, 2021-11-08.民事诉讼的改革动向往往代表着刑事诉讼的发展方向,如在线诉讼机制的适用。
人工智能运用具有科学性、可重复校验性和快速性的特点,科学性体现在可以识别出肉眼无法直接辨别的证据问题,如可以直接审查出图片是否经过篡改,提高证据审查的准确性;可以总结出案件的共识性、一般性规律,为办理案件提供整体性参考,实现量刑的均衡性。可重复校验性体现在智能系统可以对在案证据进行反复验证,为法官决策提供实时参考。快速性体现在利用系统自动运算可以快速得出数据化结论,大大减少个案的人力投入,提高司法效率。因为有具体数据作为支撑,人工智能辅助审判对于促成“好的裁判”生成具有明显优势和积极作用。然而,从上述简要梳理也可以看出,当前刑事审判中人工智能运用从审前的证据充分性审查,庭前的全案证据审查功能,庭中的单一证据校验,到庭后的量刑预测辅助、类案推送和社会危险性评估,几乎贯穿刑事案件办案始终。辅助的事项逐渐拓展至证据审查、案件裁量环节,间接决定着证据的“去留”与案件的定性和量刑。从证据标准指引到证据自动校验,再到量刑智能辅助,人工智能距离裁判的核心事务——定罪量刑越来越近。从证据的数据化到法律规则的代码化,再到算法模型的自动结果,司法人员的裁判权力在智能系统的层层引导提示下,算法技术的不断嵌入下逐渐被削弱,可能影响法官的独立审判地位。
三、确立人工智能辅助审判界限的必要性
审判中的人工智能已趋“全能”,这不得不引起我们的注意和警惕。在智能技术发展加快、法律与技术融合深化的当下,反思人工智能辅助审判的界限具有必要性和现实意义。
(一)应对“辅助审判”的溢出风险
在法律人工智能深度应用之前,为了使法官专司裁判,提高审判质效,司法改革就曾尝试实现审判辅助事务与审判核心事务的分离。截至目前,《法官法》《人民法院组织法》等法律法规还没有对两者进行明确的区分。审判辅助事务既可以被理解为程序性保障事务和判断实施类事务的集合,前者如庭审记录、卷宗装订等,后者如诉讼保全等。也可以被理解为除开庭审理和作出裁判以外的其他所有诉讼事项。可见,实务中审判辅助是一个多义且十分宽泛的概念,容易形成不同理解,与审判的边界较为模糊,容易造成混同。
司法责任制改革后,最高法根据人员类型的不同对审判权力及其事项进行划分。最高法《关于完善人民法院司法责任制的若干意见》(以下简称《意见》)第九条、第十三条和第十四条分别规定,法官负责行使审判权力、法官助理负责完成审判辅助性工作、书记员负责审判事务性工作。第十三条列举的审判辅助性工作主要包括形式审查诉讼材料、协助证据交换,受法官委托或协助法官办理保全,准备与案件审理相关的参考资料等等,简言之就是排除实质判断的事项。审查证据、开展庭审活动、提出案件处理意见均属于法官的审判权力,法官助理和书记员无从干涉。尽管许多地方都将法律人工智能系统称为AI助理,法官也认为自己仿佛“多了一个助理”,但是实务中法律人工智能系统可以进行证据审查、提出量刑意见,显然已经超出前述《意见》对法官助理的职责定位。当然,“辅助审判”不等于“审判辅助”,前者的“辅助”是动词,指“从旁帮助”,所以辅助审判不一定只针对审判辅助性事项,也可以被理解为对法官裁判提供参考。是故,人工智能不仅可以履行法官助理的职责,还可以帮助法官作出决策,而这就代表了人工智能可以介入到法官决策的各个诉讼阶段、各类事项,带来人工智能权力无限扩张的隐患。
毫无疑问,人工智能辅助审判意味着人工智能运用是次要,法官审查判断是主要核心。而当前人工智能辅助系统不但引导法官开展审判活动,还要求法官在不采纳人工智能意见(如类案量刑)时进行必要说明。法官判断与人工智能计算的主次地位已经不太明显,甚至有所颠倒。如果不对人工智能应用进行必要限制,可能导致其功能膨胀而直接决定案件裁判,违背审判中智能运用的初衷。
(二)确保权责一致和裁判公正
一方面,只有坚持人工智能的辅助地位,保留人类法官的决策权力,才能实现权责一致。司法责任制改革是司法改革的“牛鼻子”,具有基础性、关键性地位,目的在于实现“让审理者裁判,让裁判者负责”。其逻辑前提是权利与责任的协调一致。当法官无法独立、直接地行使案件审判权时,片面强调审判责任是不合理的。人工智能系统是虚拟的,不具有责任意识也无法对外承担责任。如果允许人工智能干涉案件裁判,或者赋予其数据结果以强制约束力,实质上也是对法官独立行权的“干预”。由于无法追究人工智能责任,容易形成人工智能“有权而无责”、人类法官“无权而担责”的吊诡局面,造成消极裁判。
另一方面,只有坚持人工智能的辅助地位,才能实现技术准确与审判智慧的有机统一,确保裁判公正。如上文所述,人工智能技术难以进行价值判断、情理判断,无法满足司法裁判的独特性。不仅如此,我国的法律人工智能还处于初步发展阶段,实务应用的绝大多数人工智能属于“弱人工智能”。人工智能运用的前提问题——数据的质量和完整性还没有得到保障,技术发展远远没有达到可以准确作出裁判的程度,相应计算结果只能作为参考而无法成为终局性结论,否则容易造成误判。
(三)顺应法律人工智能发展的国际趋势
全球范围来看,规范和限制人工智能尤其是法律人工智能运用是总体趋势。以欧洲和美国为例,法律人工智能主要用于为私主体提供法律服务而非执法司法机关办理案件,少数用于司法领域的人工智能运用也一直饱受争议,从而催生出相应的限制性举措。针对美国的COMPAS量刑风险评估系统,理论研究者犀利指出风险评估的种族不平等来源,不是输入的数据,也不是特定的算法或算法方法,而是预测自身。①Mayson, S.G., Bias in, bias out, 128(8) Yale L.J.2218 (2019).美国Loomis一案中威斯康星州最高法院认为考量(consider)而不是依靠(rely)风险评估结果,不违背正当法律程序;同时也认为风险评估报告中应该提醒使用方注意,系统可能会对不同人种或少数族群的犯罪者作出不当分类。②State v.loomis.
欧洲国家智能技术发展较为成熟,但欧盟成员国的法官似乎还没有对预测性软件进行日常的实际应用。③《European Commission for the Efficiency of Justice (CEPEJ)》.Adopted at the 31st plenary meeting of the CEPEJ(Strasbourg, 3-4 December 2018).而且,欧盟还出台了多项规范法律人工智能运用的提案。如2018年12月欧洲司法效率委员会通过《关于在司法系统及其环境中使用人工智能的欧洲伦理宪章》,确立人工智能司法运用的四大基本原则。④全称为《European ethical charter on the use of artificial intelligence in judicial systems and their environment》提出尊重基本权利原则、非歧视原则、质量和安全原则、透明公正公开原则以及“用户控制”原则[EB/OL].https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment,2021-11-01.2021年4月欧盟委员会又发布人工智能统一规则提案,其第5条明确了禁止的人工智能实践,包括造成或可能造成对自然人或整个群体不利或负面待遇的智能评估等四种情形;第6条划定了高风险人工智能系统的分类,并在附录中进行详尽列举,包括用于自然人的犯罪风险评估,调查或起诉过程中的证据可靠性评估,或者协助司法机关研究和解释事实与法律以进行具体应用等等。作为应对,提案要求加重系统提供者的义务,如系统投入使用之前应进行符合性评估(conformity assessment)等,违反则会受到相应处罚。⑤该提案全称为《Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts》.EUR-Lex - 52021PC0206 - EN - EUR-Lex https://eur-lex.europa.eu/legal-content/EN/TXT/?qi d=1623335154975&uri=CELEX%3A52021PC0206 ,2021-11-01.欧盟成员国的法国甚至还禁止私主体将法官和书记官的个人数据用于评估、分析、比较或预测他们的实际做出或将要做出的专业行为。[15]
相比之下,我国司法机关是法律人工智能的主要运用主体,且智能应用的深度和广度均位于世界前列。国家政策层面十分重视促进、扶持和发展人工智能产业,较少提及人工智能的审查规制,约束机制付之阙如。⑥只有个别协会发出倡议。如2019年6月中国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出和谐友好、公平公正、包容共享等纲领性治理原则。司法机关虽然坚持强调人工智能的辅助地位,但是也没有针对性出台相应限制举措。实务运行更加关注人工智能的“能”,而非“不能”。在法律人工智能强势发展之际,有必要确立其边界,防止过犹不及。
四、人工智能辅助审判的限度
为了确保法律人工智能运用更好地辅助法官决策,而又不至于替代“法官决策”,有必要为其确立辅助边界。
(一)基本逻辑:证伪以纠偏
证实与证伪是检验科学性与正确性的两种基本方式。证伪遵循的是消极解构思路,即通过检验和纠正错误来获得真理。人工智能辅助审判应当以证伪的逻辑运行,而非证实。原因在于,一方面人工智能辅助审判以深度学习归纳海量数据中的共性规律,以类推思维得出数据化结果。个性化数据在自动计算过程中被忽略,将共性规律直接适用于个案裁判可能存在不适当。另一方面人工智能将案件要素文本化、代码化并进行功能模拟,过程具有形式化特点,得出的结论更趋向于形式正义。而形式正义与实质正义往往是矛盾关系,直接采纳人工智能结论可能造成机械司法。是故,人工智能辅助审判应当通过证伪发挥纠偏功能,以作为校验在案证据是否完全、证据审查是否准确以及量刑是否均衡的标尺。具体而言,在证据标准指引方面,案件证据导入后系统会提示缺乏哪些证据材料,以弥补法官审查的不足。但是即便证据指引中的每一类证据均在案,也无法证明在案证据达到了确实充分、排除合理怀疑的证明标准。对于确有特殊原因无法收集某类证据的案件,在实质审查证据后认为达到证明标准的,仍然可以定罪量刑;在证据校验方面,法官在办案中可以利用智能系统对单一证据、证据链及全案证据体系进行审查,以发现证据瑕疵或矛盾,为证据审查提供思路和方向。对于发现证据瑕疵或矛盾的,应当要求控辩双方进行说明。而没有发现证据瑕疵或矛盾仍然无法说明证明的充分性,还需要法官在听取庭审的基础上进行实质判断和逻辑经验架构;在量刑辅助方面,类案推送为办案法官提供参考,偏离预警则提供裁判结果的检验。偏离不等于错误,但裁判偏离的案件应当要求加强裁判说理,对于偏离程度较高的案件还可以提请院庭长监督。
总而言之,人工智能系统可以检查校对法官裁判的合法性和合理性,而不能直接生成裁判结果本身。
(二)基本规则
1.是参考性辅助而非规范性辅助。参考指“参证有关材料来帮助研究和了解”。[16]参考性辅助是指人工智能得出的结论只作为法官裁量的考虑因素,不具有强制约束力。规范性参考是指人工智能得出的结论对于法官裁判具有规范作用,法官必须采纳,如不采纳则需要给出合理的理由。①甄航.人工智能介入量刑机制:困境、定位与解构[J].重庆大学学报(社会科学版),2020,(6):10.不过该文认为人工智能给出的“量刑”应当对法官具有规范作用。人工智能得出的结论是非终局性的,允许算法使用不代表替代或剥夺法官自由裁量权。智能工具的使用旨在服务于法官决策,而不是加以限制。司法人员在任何时候都应当享有根据案件具体特点推进司法流程,做出司法判决的权力,而不必须受制于人工智能得出的结论。只有将人工智能辅助审判定位为参考性辅助,才能在尊重法官独立审判地位基础上实现智能辅助与人类智慧的良性互动,不至于越俎代庖。为了案件质量的过程监管,可以要求法官对裁判结果与类案具有重大偏差的案件,在系统内进行说明,但不得强制要求采纳。正因为只作为参考性辅助,法官采纳人工智能结论的也应当进行释明说理。
2.应注意人工智能工具价值与公正价值的协调衡量。技术带来审判效率的大幅提升,例如证据链和全案证据审查判断功能。以盗窃案件为例,法院梳理证据的时间大约平均减少了30%-50%。但是,刑事审判中人工智能运用的工具价值不能涵盖或超越公正价值。例如,要确保基本的三方诉讼结构,防止算法歧视影响法官客观中立地位,保障被追诉人无罪推定权利;要确保被追诉人辩护权的有效行使。例如要思考解决被告人在传统司法审判中享有的针对审判人员或者公诉方的诉讼权利如何适用于人工智能系统的问题。
(三)具体范围
1.案件范围。其一可以适用于情节简单、标准客观或主观裁量较少的案件。例如醉酒型危险驾驶案件,这类案件的法律行为和量刑情节有限,智能识别和理解的难度较小,准确度较高。而且醉酒型危险驾驶案件还有明显的“数量标准”即血液酒精含量,更加契合人工智能数据化分析方法和形式推理逻辑;其二尽量避免适用于重大疑难复杂案件。重大疑难复杂案件中证据和法律关系交错复杂,当前的“弱人工智能”很难精准识别分析。其三禁止适用于新类型案件和社会影响广泛的案件。人工智能系统是对已发生的案件数据的学习归纳与总结,新类型案件面临基础数据缺失,人工智能难以得出有效判断。新型案件审判可能还涉及法律续造,应当谨慎行之。例如自动驾驶汽车交通犯罪案件。而社会影响广泛的案件与人伦、情理密切关联,触动公众敏感神经,案件裁判需要回应社会舆情、衡量伦理法理与情感,人工智能不具备“人”的主体身份,无法感同身受,也难以结合法理和情理进行判断。当前民众对司法的信任依托于法律制度和法官的个人能力,而不是科技技术,在社会影响广泛的案件适用人工智能也不利于维护司法公信力。
2.辅助事项上,一是情感价值判断与法律价值判断的划分,情感价值判断交给人类法官,关于法律的问题则可以交给人工智能;二是涉及实体利益的事项与涉及程序利益的事项的划分。涉及实体利益的事项与公民的人身自由财产等密切关联,涉及审判的本质与核心,应交由人类法官。而涉及程序性利益的事项可以适当交给人工智能;三是证据审查上应当侧重于形式判断,而不是实质判断。人工智能可以也非常擅长开展形式性要素检验,如勘验笔录是否具有事由时间地点、勘验人员签名、见证人签名等八项内容,收集提取电子数据是否为两名以上侦查人员。在此方面,人工智能具有优越于人类判断的效率和精准度,可以快速检测出哪一部分缺失或存在瑕疵,由此侧面反映证据的证据能力和证明力。对于已经开展的单个证据评价和全案证据评价,人工智能应该通过算法模拟或证据模型推算对单个证据或全案证据进行似真概率测算,提供定量分析结果而非定性结论,避免审理人员片面相信某一证据。在量刑参考方面,人工智能计算结果应当有区间幅度,同时表明幅度不同的影响因素,给予法官决策参考。
3.诉讼阶段上,应当避免庭审中人工智能的辅助判断。由AI助理主持和推进庭审,法官进行补充和确认的做法有损法官的庭审指挥权。人工智能变相成为庭审的主导者,法官成为形式参与者,超越了人工智能辅助审判的范畴。在算法不公开的背景下在庭审中利用人工智能辅助判断,容易导致辩方无从发表质证意见,有损公平审判权。人工智能辅助审判是对办案方式的革新,应当主要用于庭下环节。
司法实务中个案情况错综复杂,情感判断与价值判断、涉及实体利益的事项与涉及程序利益的事项不是泾渭分明。以海量数据为基础,经过复杂算法模型计算而得的结果具有天然的可信性,致使法官客观上难以反驳。在激增的案件数量、法定的审理期限以及严格的绩效考核的多重压力下,加之人的惰性,纵然法官知道人工智能计算的结果可能存在偏误,也会倾向于积极评价,甚至不排除产生过度依赖。为此,一是要采取相应措施保障人工智能系统的中立、客观与公正,尤其是在系统上线运行之前,需要加强第三方专业评估。二是要注重保障被追诉人知情权和质证权,被追诉人享有对人工智能计算结果提出异议的权利,并要求司法机关拒绝采纳该计算结果。对于采纳人工智能计算结果作出判决的,应当在裁判文书中进行说理,三是要保障被追诉人事后获得救济的权利,对于一审采纳类案量刑推荐区间进行裁判,被追诉人上诉的,二审不应再适用同样的人工智能系统进行量刑辅助,否则会削弱审级制度,损害当事人上诉权。
结 语
不论人工智能发展到何种程度,都只能作为人类的辅助工具,而无法替代人类的决策地位。正如德国学者发出的警告:人工智能不知人生为何物,又如何能够裁决人民的人生?[6]即使人工智能能够做出比人类法官更加精准的裁判,也无法替代人类审判。因为司法权力和司法责任必须对等。人工智能计算结果不具有强制力和约束力,人类法官享有拒绝采纳的权力,甚至可以在特殊情况下排除人工智能的辅助。本文不是否定人工智能在刑事审判领域的运用,只是在人工智能在审判领域大放异彩之际,提出一些疑问和“冷思考”,即人工智能辅助审判必须有限度并应当进行规范。