论刑事司法人工智能的实质化人工干预
2024-06-12张式泽
张式泽
一、问题的提出
在算法决策逐步广泛且深度嵌入司法活动的背景下,刑事司法领域的人工智能应居辅助地位已成为国际社会的共识,受到来自司法人员的天然“监视”。不过,这把“人工干预”的双刃剑也将司法人工智能划进了算法决策法律规制的盲区,在此背景下,如何对刑事司法领域辅助智能系统进行合法化规制成为了一项重大敏感而又未经深入探讨的课题。
具体而言,“站立”在法官旁边的智能算法系统的司法性质如何界定?该系统做出的辅助性决策如何定性,诉讼参与主体能否对其进行质疑、抗辩?在公民个人信息与算法权利纷纷兴起的背景下,当事人能否对司法辅助智能系统申请脱离算法的排除权利?法官的问责机制是否会发生变化?如果进行更深入的思考,我们还可以追问,运用人工智能技术预测、评估当事人的相关行为是否可欲?如果说数字科技再次燃起了人类对司法实质正义的渴望,那么在“追求更优质的决策”的技术崇拜浪潮中,如何保障司法中的规范性建构及其理念基础(例如法官权威与司法公信力)不被破坏?或许,如何保障司法辅助智能系统能够让我们距离司法公正更近而非更远,是当下需要破解的难题。
基于此,本文提出一种系统性规制刑事司法辅助智能系统的实质化人工干预的概念,指对刑事司法领域人工智能设备及其决策予以人为管理、控制、评价和约束的制度体系。该体系不仅包括司法机关对人工智能系统平台的日常监督、约束和系统化评估制度,而且包括在事务性或决策性辅助场景下诉讼主体对人工智能决策的审查、评价与救济机制。在此概念基础上,本文将对刑事司法领域人工智能适用现状及其暴露出的问题进行考察分析,讨论辅助智能及其决策在不同国家的司法定位情况,提出实质化人工干预机制的制度标准。
二、刑事司法领域人工智能的实践应用
人工智能的革命性浪潮席卷了人类社会的方方面面,司法领域自然也概莫能外。因由大数据和深度学习等算法技术的突破,人工智能在司法领域的应用,从以判例法分析、检索资料等机械、被动式的法学知识与案例资讯的查询工具,转变为能够实现分析海量数据、辅助审查判断和自动化分析预测的高度精密复杂的智能化系统。具体而言,人工智能在司法中的应用与发展前景主要包括以下几个方面。其一,法律资料与判例法检索。法律资料系统的构建,是希望借此帮助司法人员或民众方便查找各级法院裁判及相关法学资料,从而了解实务判例或专家学者的研究成果。其二,增进法律触达,提升司法效率。如使用智能聊天软件使公众可以使用自然语言获取现有的法律信息、文书模板、相关法律判例;通过自动化或调解员在线的方式在线解决诉讼争议;对争议解决过程进行定性和定量评估,作为替代性争议解决机制选择的依据;帮助制定某些民事纠纷的量化标准、相关司法人员的业绩考核指标等。其三,推测辅助判断。在刑事侦查、缓起诉、量刑、假释、监所管理与矫正等方面辅助审查判断证据,使用算法评估再犯风险,并对量刑区间进行数字化规范。
与民事、行政执法相比,犯罪预警、当事人再犯风险评估和量刑数字规范化是刑事司法领域特有的应用。对当事人人身危险程度和再犯风险进行评估的系统也被称为风险评估工具(risk-need assessment tool),依据案件犯罪事实与被告个人背景进行系统运算,运用不同因素所形成的加权数值整理分析,从而预测被告或罪犯的再犯率。受选择性失能(selective incapacitation) 运动的影响,美国司法部门近几十年来大量引入风险评估工具,在侦查破案、审查科学证据可采性、评估保释和预测案件审理结果等领域应用广泛(1)郭春镇、黄思晗:《刑事司法人工智能信任及其构建》,《吉林大学社会科学学报》2023年第2期。。相较而言,欧盟在《2016年刑事犯罪领域个人信息保护指令》中,虽然认可了算法决策在刑侦领域适用的合法性,但在欧洲委员会成员国的刑事司法系统中寻找使用人工智能算法应用的实例却并不容易,法官在刑事审判中使用预测工具更是罕见。原因在于,欧洲刑事司法领域使用人工智能系统通常由欧洲司法效率委员会和非政府组织处理,其响应级别相对较低,且通常未被纳入成员国公共政策和评估范围。因此,大部分欧洲司法效率委员会成员国在司法领域只能引用公共领域目前使用的智能辅助工具,主要体现为审前阶段的预测性警务活动。
量刑数字规范化系统是基于裁判文书大数据深度学习案情特征和判决结果,根据诉讼文书提供的事实、情节,预测正在审理案件的实体量刑区间,并自动统计、精准推送类似案例裁判情况供法官参考的辅助智能系统。虽然该系统做出的预测不对法官具有拘束力,但该预测具有对法官的裁判产生一定影响的可能。有学者将量刑数字规范化视为广义的AI法官,因为“它做了案件间的比较与含蓄的处理建议”(2)左卫民:《AI法官的时代会到来吗——基于中外司法人工智能的对比与展望》,《政法论坛》2021年第5期。。例如在我国台湾地区,2018年台湾地方法院启用“量刑趋势建议系统”为法官提供参考,同时也将该系统为控辩双方及民众开放使用。
在我国,研发应用现代人工智能技术、构建智慧司法已经成为推动我国司法体制改革、强化审判体系与审判能力现代化建设的重要抓手。2016年中共中央办公厅、国务院办公厅印发的《国家信息化发展战略纲要》首次将“智慧法院”建设纳入国家信息化发展战略,随后2017年国务院与最高人民法院先后发布《新一代人工智能发展规划》和《最高人民法院关于加快建设智慧法院的意见》,提出要推进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力的智能化的改革主张。2021年最高人民法院又印发《人民法院信息化建设五年发展规划(2021—2025)》,强调要建设司法数据和智慧法院大脑,为各类应用提供智能平台支持。于是,在顶层设计与政策的推动下,各地方法院纷纷研发、建设司法领域人工智能系统,形成了多点开花、广泛分布且各具特色的改革局面。例如,北京市开发的智能审判系统“睿法官”依托大数据和智能算法可以以案情要素匹配方式生成“案情画像”并给出“裁判建议”。上海市研发的刑事案件智能辅助办案系统(206系统)可以依托专家经验和模型算法制定出证据审查标准指引,帮助法官“全案证据审查判断”,还可以对当事人进行“社会危险性评估”,建立“量刑预测模型,提供量刑建议参考”。此外,该系统还能够实现嫌疑人社会危险性评估、电子卷宗移送、类案搜索推送、量刑预测与参考、文书自动生成和减刑假释案件线上全程办理等多项模块化功能。
总体而言,我国人工智能系统在刑事诉讼领域分布广泛,适用程度深入。不仅涵盖刑事诉讼侦查阶段“犯罪预测系统”和“大数据侦查”等技术性侦查体系建设,而且还包含审查起诉阶段“数字检察”等检察业务智能化建设和“智慧司法”等审判体系与审判能力现代化建设。具体到刑事司法领域,数字案件管理、电子卷宗、智能语音识别、判例和同案的推送、证据审查判断、量刑偏离预警与量刑预测、当事人社会危险性评估等子系统的建立也不同程度地嵌入和影响刑事司法体系的运行过程。
三、刑事司法人工智能的应用困境与规制缺位
在刑事司法领域,人工智能技术与系统研发、应用的重心依旧集中在刑事犯罪预测、嫌疑人再犯风险评估、基于历史裁判规律提供法官量刑分布的量刑参考系统和增进线上司法触达等领域,“其共同点多为追求效率、正确性及一致性,缓解人类主观偏见”(3)林勤富:《智慧法院之发展与界限(上)——演算法、科技治理与司法韧性》,《月旦法学杂志》2022年第4期。。不过,刑事司法领域辅助智能的应用在带来增益的同时,也逐渐暴露出不少弊端。
(一)辅助智能系统的“先天不足”
因由在私法与行政法领域对人工智能系统规制的思考与借鉴,刑事诉讼领域的学者也逐渐开始对司法人工智能予以关注与思考。目前针对刑事司法辅助智能系统的质疑与批判依旧主要集中于数据质量和算法技术两个方面。
在数据质量方面,辅助智能系统在刑事司法领域应用效果的达至,受制于司法裁判数据质量本身的优劣。司法裁判数据因受现实多重因素的影响具有不稳定性。具体而言,一是司法数据总量不充分,实践中大量裁判文书、司法数据未能完全统计,样本容量不足;二是司法数据部分失真,实务中因由多重复杂的主客观因素的影响,统计偏差、数据造假等现象难以避免,部分司法数据的可靠性存在风险;三是司法数据结构化不足,录入数据库的裁判文书由于其文义表达的多样性与复杂性,导致辅助智能系统会出现“检索遗漏”或“学习忽略”等情形,进而影响辅助智能系统生成决策的准确性。
在算法技术方面,以上海市研发的206系统为例,该系统的核心算法体现了“深度神经网络模型”下的“深度学习”,即“在某些输入信息与某些目标信息之间建立起特定种类的映射关系的过程”(4)徐英瑾:《人工智能哲学十五讲》,北京大学出版社2021年版,第52—53页。。这种技术机制并不具备寻找数据因果关系的能力,其做出的决策不具有严谨的科学性;算法系统自身也通常难以对其生成的结论给出符合逻辑的解释,存在“算法黑箱”现象。此外,算法也并非“不犯错”:一项研究揭示了美国风险评估工具COMPAS系统的使用会带来某种歧视性影响——非裔美国人在判刑后两年内的累犯高风险率是其他人群的两倍(5)李翠萍、张竹宜、李晨绫:《人工智慧在公共政策领域应用的非意图歧视:系统性文献综述》,《公共行政学报》2022年第63期。。许多算法在对嫌疑人的风险偏差的策略选择上“倾向于容忍谨慎错误,亦即严惩犯罪,宁可过高地评估风险可能性也不轻饶犯罪嫌疑人”(6)林洹民:《自动决策算法的风险识别与区分规制》,《比较法研究》2022年第2期。,而这却恰好与刑事司法程序正义理念背道而驰。不难想象,在当前刑事司法领域大量应用辅助智能算法系统的背景下,未经深入了解而天然地倾向于相信算法决策的“科学性”,甚至任由算法系统影响和“绑架”司法人员做出的裁决将会带来巨大的司法风险。
(二)传统人工干预的“形式主义”
基于对算法决策自身局限性的考虑,欧盟通过的《通用数据保护条例》(General Data Protection Regulation,GDPR)确定了人工干预(human intervention)这种救济方式,原则上许多对公民权利产生重大影响的自动化决策都必须有人工干预。人工干预也被视为继规制数据、算法问责后的第三大人工智能应对方式。但也因对司法领域人工智能居于辅助地位的共识,对司法领域人工智能系统的规制并未引起学者们的重视。当这种人工干预只是形式意义上的,依靠人工(法官)的参与行为本身而不是以参与的程度和实际效果作为人工干预的实质性标准,“仅仅以最终由人类负责判断,就认为公民能够从算法的不公正评价中逃脱”(7)山本龍彦、尾崎愛美:「アルゴリズムと公正」、『科学技術社会論研究』第16巻(2018年12月)、第96—107頁。,这种想法显然过于乐观。因为某种程度上,刑事领域的“人工参与”可能会演变为人工智能算法歧视与非公正决策的“遮羞布”。
首先,形式化的人工干预无法保障法官的自主性地位。一方面,我国智慧司法改革将智能系统的应用深入到刑事司法的诸多领域,法官需要面对来自辅助智能系统的实质性影响与权力侵蚀。如果深入考察地方法院智能系统的工作机制则不难发现,司法系统内部并未对人工智能的应用进行严格限制。在网上办案的流程要求下,智能系统能够实现自动扫描并提取电子卷宗信息、对证据进行识别审查判断、社会危险性评估、量刑预测和量刑偏离预警等多重功能。这意味着,每一起案件都需要经历法官与智能系统的双重“裁判”,智能系统在实际上“已经进入到司法决策的核心环节,且已经构成司法审判决策的实质性部分”,而法官仅“在其中起着复合确认的作用”(8)孙庆春:《人工智能司法决策研究》,重庆大学2021年博士论文,第85页。。机械性、被动型与缺乏创造性是科技的工具理性被诟病的主要原因,法律的生命恰恰在于经验而非纯粹的逻辑。许多闪烁着人性光辉的伟大判决都是法官价值理性行为的结果,远非科技化的智能系统所能涵盖与拘束。后者在损害法官权威的同时,会弱化公民的法律信念。另一方面,法官需要面临智能系统对其裁判过程进行记录和考核,还会受到智能系统的某种实质性“拘束”:如果法官做出的裁判与智能系统做出的预测结果差异过大且法官坚持自己的裁判决定,该案件将被发送至法官联席会议或者提交至审判委员会讨论(9)王静:《法官绩效考核制度实证研究——基于地方性规则样本的分析》,《中国应用法学》2018年第6期。。法官裁判受到来自智能系统的监控和影响,却缺乏对智能系统预测结果进行风险评估的能力,其后果就是司法独立性与法官的主体性“正在消失”(10)徐骏:《智慧法院的法理审思》,《法学》2017年第3期。。
其次,形式化的人工干预无法保障诉讼程序价值。辅助智能系统在司法实践中的可欲性,核心在于运用工具理性排除人为因素的干涉,让法院在立案、审判、执行、案件管理和便民服务方面更加客观化、标准化和规范化。但是,智能系统的应用也会带来一系列的负面影响:国家机关对智能系统的单方应用会加剧控辩双方的实质不平等,使当事人有效辩护难以实现;地方上下级法院有时应用同样的智能系统得出近乎一致的“裁判预测”,可能会架空传统审级制度,使诉讼参与人甚至包括法官都沦为“自动化决策的执行者”(11)胡铭、张传玺:《人工智能裁判与审判中心主义的冲突及其消解》,《东南学术》2020年第1期。。更有甚者,由于智能系统可以在算法中瞬间得出相应结果,此时已无法再分离出诉讼活动的程序、步骤和方法,正当程序及其价值也因此悬置。(12)赵宏:《公共决策适用算法技术的规范分析与实体边界》,《比较法研究》2023年第2期。诉讼参与人在智能系统应用中被边缘化和客体化,有违人工智能以人为本的伦理准则和发展理念。
(三)规制辅助智能系统的“无从适用”
许多国家和地区近年来出台了多项规制人工智能的法律法规或政策性文件,但总体而言,其在刑事诉讼领域的适用仍缺乏有效衔接。许多对人工智能系统进行规制的法律法规采用了形式化的人工干预标准,该标准不适用于司法领域的辅助智能系统。早在1995年欧盟就出台了《个人数据保护指令》(以下简称“《指令》”),并在第十五条规定“数据主体享有免受基于用户侧写的完全自动化决策的权利”。但在SCHUFA案中德国联邦法院裁定,由人工智能系统做出的信用评价不属于《指令》第十五条所界定的自动化决策范畴,因为银行对其客户的信用评价是由自然人在自动化决策的“辅助”下完成的(13)Urteil des VI. Zivilsenats vom 28. 1. 2014 - VI ZR 156/13.;法国最高法院也采取了类似的态度(14)Cour de Cassation, Chambre criminelle, Audience publique du 24 septembre 1998, No de pourvoi 97- 81.748, Publié au bulletin.。《中华人民共和国个人信息保护法》(以下简称“《个人信息保护法》”)第七十三条规定:“自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”由此可见,该情境下决策活动的做出主体为计算机程序。再结合该法第二十四条第三款“拒绝个人信息处理者仅通过自动化决策的方式作出决定”的内容可知,我国对自动化决策概念的界定也采用了形式化标准,司法辅助智能系统不在“自动化决策”概念之内。
虽然我国《个人信息保护法》将“刑事司法机关处理个人信息的行为借由国家机关这一概念与规范工具统一纳入个人信息保护法律的框架内”(15)程雷:《刑事诉讼中适用〈个人信息保护法〉相关问题研究》,《现代法学》2023年第1期。,但在实际上国家机关司法辅助智能系统并未受到《个人信息保护法》的有效规制。例如,违反该法规定的司法人员的裁决应当如何处理并未明确,能否被认定为违反正当程序撤销或宣告无效尚无定论。此外,《个人信息保护法》对司法辅助智能系统最低限度的公开要求和算法系统的风险评估标准也尚待进一步明确。
四、司法辅助智能系统及其部分决策的属性解构
(一)辅助智能系统是认识论的客体
虽然在刑事司法领域,人工智能系统居于辅助地位已成共识,但其主体性却并非没有争议。有法院系统的学者在谈及该问题时,认为“系统起到的是辅助侦查员、检察官、法官办案的作用”(16)崔亚东:《人工智能与司法现代化 以“审判为中心的诉讼制度改革:上海刑事案件智能辅助办案系统”的实践与思考》,上海人民出版社2019年版,第104页。。虽然强调了其辅助地位,却也将系统定位为司法认知的主体,“对办案人员收集的证据进行审查、校验、把关、发现瑕疵、矛盾点,及时提示办案人员查证、补正”(17)崔亚东:《人工智能与司法现代化 以“审判为中心的诉讼制度改革: 上海刑事案件智能辅助办案系统”的实践与思考》,上海人民出版社2019年版,第104页。。对此,有学者在刑法学场域内认为,“主张人工智能具有主体资格……不具有现实性意义”(18)储陈城:《人工智能时代刑法的立场和功能》,《中国刑事法杂志》2018年第6期。;“权利义务能力是定义法律主体的唯一标准,但人工智能在权利义务中根本不可能实现统一性原则”(19)刘艳红:《人工智能法学研究的反智化批判》,《东方法学》2019年第5期。。
回归刑事司法场域,基于以下因素的考虑,人工智能辅助系统应被作为司法认识论中的客体而非主体对待。首先,在利用智能算法进行裁判的过程中,法官是司法审判过程的主体,智能系统则是帮助法官进行公正裁判的辅助工具。如果一个人用枪杀了另一个人,究竟是人应当承担责任还是枪应该承担责任?对此拉图尔认为,枪和人共同导致了受害者的死亡,枪和人不是分离的,而是相互交织在一起的,二者共同组成了一个复合的行动者。(20)张卫:《技术伦理学何以可能?》,《伦理学研究》2017年第2期。技术在某种程度上只是使人延伸的媒介,不能成为另一个独立的“人”。在司法领域,法院(法官)是构建辅助智能系统的倡导者、合作开发者和实际使用者,是对智能系统进行人工干预和做出有效裁决的主体,也是司法责任及适用智能系统可能带来风险的实际承担者。司法智能系统作为一项辅助工具,不具有成为主体的伦理基础和责任能力。
其次,辅助智能系统虽然由法院(法官)等司法权主体构建,但该算法系统并不因此拥有相应的司法权能。在没有法律层面明确规定的条件下,仅凭智能系统的“辅助”功能就赋予其司法主体或准司法主体的地位是不恰当的。实际上,智能系统做出的任何决策或意见,除非拥有法定权力的公职人员予以确认,否则它不具有任何法律拘束力。比较法层面,美国法官在实践中有的将智能系统作为“言论”处理,享有绝对化的“言论自由”权;有的则将其作为“商业秘密”处理,认为该算法不应受到公开化的披露;德国学者则将其视为“一种产品”。(21)陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,《比较法研究》2020年第2期。但无论何种观点,均将智能系统视为认识的对象,并未赋予其主体地位。《人工智能创新发展道德伦理宣言》也在第六条明确,无论人工智能的自主意识能力进化到何种阶段,都不能改变其由人类创造的事实。
最后,对辅助智能系统认识论方面的客体化定位,可以避免将辅助智能决策纳入法院系统“认知共同体”的趋势。在法官司法认知的过程中,陪审员、专业法官会议、审判委员会、上级法院都可能参与司法认知过程,与法官具有一致的认知立场与目的,是法官乐于求诸的可以提供“一种范式趋同的类审判认识”的“认知共同体”。(22)张若枫:《刑事审判认识论》,中国人民公安大学2022年博士论文,第69页。它们作为法官的辅助性主体可以辅助法官做出更为专业与合理的判决,对法官的影响也是多维度多方面的。与之相较,辅助智能系统存在着自身难以克服的“先天不足”,其决策科学性、专业性、价值理性的权衡和裁判的社会、政治效果目前都难以与“认知共同体”给出的辅助意见相媲美。相反,如果将其纳入“认知共同体”,还会加重司法人员对技术手段的依赖,弱化法官和其他辅助认知主体的自主性、能动性,甚至腐蚀“认知共同体”的制度意义。
(二)部分智能系统决策的证据属性
在我国证据法领域,人工智能系统做出的决策一般被称为大数据证据。对于大数据证据的属性,有观点认为,“未来的证据法当中,大数据分析报告有必要单列出来作为独立的证据种类,而大数据中那些跟案件相关的数据信息,可以纳入电子数据这一既有的法定证据种类范畴”(23)何家弘、邓昌智、张桂勇等:《大数据侦查给证据法带来的挑战》,《人民检察》2018年第1期。。不过,一方面,大数据分析报告内容性质和应用领域复杂多变,单列为独立的证据种类不利于实践操作;另一方面,实践中还存在诸如价格认定书、未成年人犯罪社会调查报告和交通事故责任认定书等难于归类的证据,单设独立的大数据分析报告也无法解决证据分类的全部问题。事实上,自2012年我国刑诉法就对证据种类规定采取了开放式的态度(24)张吉喜、孔德伦:《论刑事诉讼中的大数据证据》,《贵州大学学报(社会科学版)》2020年第4期。,对大数据证据属性的认定不必拘泥于法定证据种类。还有观点认为,大数据证据应当被视为鉴定意见。(25)何家弘、邓昌智、张桂勇等:《大数据侦查给证据法带来的挑战》,《人民检察》2018年第1期。不过,从鉴定意见的本质而言,它是“由专业知识补充的经验论断”,其“科学性、真实性和权威性,在很大程度上不取决于鉴定意见本身,而依赖于鉴定人的主体属性、鉴定过程和判断能力”(26)陈瑞华:《鉴定意见的审查判断问题》,《中国司法鉴定》2011年第5期。。同时,鉴定人与鉴定意见之间还具有较强的人身依附关系,他们之间密不可分,在特定情形下还需要鉴定人出庭作证。与之相比,算法系统在逻辑归纳、经验判断等能力方面的不足及其无法给出决策理由的黑箱困境,致使目前的算法系统还难以赋予大数据报告同等的科学性与权威性。此外,目前算法报告的出具机构很少具有鉴定资质,没有相应资质的机构出具的大数据报告在实践中也难以被视为鉴定意见。
事实上,智能系统决策在表现方式和应用领域方面的差异性是造成其属性问题众说纷纭的主要原因。人工智能不是一个单一的、同质的对象,它是能够处理数据、设计复杂计算机处理任务的科学和技术(数学、统计学和计算机科学)的集合。受制于实践领域的不同,人工智能使用不同的预先配置的属性和不同的归纳方法以近乎自动化的方式将一组观察结果(输入)与一组可能的结果(输出)进行关联,从而形成各种差异化的决策。在司法领域,辅助智能决策主要表现为犯罪预警、刑事风险评估和量刑规范化预测三种,本质上都是基于算法形成的对海量数据的规律性认识,在不同应用领域表达为相关性(线索证据)、可能性(风险评估)与合理性(量刑规范)。
犯罪预警,作为大数据侦查的一种,通过数据挖掘技术对海量数据进行对比、分析和筛选,从而锁定犯罪嫌疑人、发现案件证据资料和侦查方向。在大数据时代,犯罪预警系统可以采用数据挖掘和算法模拟技术,基于公共机构的个人数据和犯罪记录,对包括犯罪地理区域、犯罪群体、特定人群未来的犯罪风险等方面进行评估预测,从而实现精准、科学的犯罪治理。由于司法实务中,犯罪预警的主要作用在于“发现案件线索或锁定犯罪嫌疑人,其本身是证据来源的前置性工作而非证据收集工作本身”(27)程雷:《大数据侦查的法律控制》,《中国社会科学》2018年第11期。,除了极少数信息能够直接作为犯罪证据外,犯罪预警系统做出的决策一般作为提供侦查方向的线索供内部参考,在庭审中有时表现为“破案报告”或“到案经过”等完善侦查逻辑链的线索材料。
广义上可将刑事风险评估视为一种不可补正的“瑕疵证据”。刑事风险评估决策反映的是算法系统在数学概率层面上对数据相关性的意见,应作为一种意见型参考资料。该类参考资料在实务中与社会舆论、新闻评论、测谎证据等类似,法官无法综合传统的逻辑法则、经验法则和利益衡量原则对其证明力予以裁量,加之数据质量瑕疵与算法黑箱等因素导致该评估决策在证明力上存在固有瑕疵。因此,刑事风险评估决策原则上不得单独作为量刑轻重的依据,“谨为价值评估之参考资料,不得影响其实质上之审判”(28)管欧:《法院组织法论》,三民书局1990年版,第49页。。
量刑规范化预测,属于司法事项的认知。证据法学上的认知是指显著而无需证明的事项。量刑规范化预测系统的数据基础往往是已经生效的司法判决,该信息为审判法院管辖区域内所周知并且基本无发生异议的可能的司法事项。从理论上,各项认知事项又可以分为应予认知和可予认知。应予认知是指国内法及其他法官裁判过程中必须了解的事项。法官不得以非其所知,或者不能记忆而拒绝认知,相反法官应当尽力查询可靠资料获得认知;可予认知则是法官在自由裁量的范畴内自行决定是否认知。对应予认知和可予认知的判断标准,美国联邦法院认为“对所有事项,法院均为可予认知,如当事人声请并提供必要资料时,法院应予认知”(29)李学灯:《证据法比较研究》,五南图书出版有限公司1992年版,第30页。。一般认为,法官对于本院的司法记录,尤其是对于同一案件或相关案件的司法记录,属于应予认知的范畴;而对于其他法院的已有判决、案件进行及其他事项,“只能用为参考之助,未可一概视为先例而受其拘束”(30)李学灯:《证据法比较研究》,五南图书出版有限公司1992年版,第27页。,多属于可予认知的范畴。因此,量刑规范化预测理论上属于可予认知,对法官裁判无必然拘束力。我国某些地区的试点将量刑规范化预测结果与法官绩效考评挂钩的做法,实质性地将原属于可予认知的事项强行纳入了应予认知的范畴,不仅侵犯了法官办案裁量的独立自主权,而且也不符合人工智能系统“辅助”办案的初衷。
五、规制标准:实质化人工干预的适用原则
在关于人工智能可能面临的风险防控和公民权益侵犯的问题上,学者多采取算法规制进路,或进行技术性改进,或采取程序性规制,试图通过赋予算法以科学性、正当性来解决算法对公民权利可能造成的侵害。虽然这样的改善思路适用于多数自动化决策的场域,但对于司法领域而言并不对症。
首先,司法领域具有独立的认知逻辑与价值取向。以系统论和社会实在构建的角度而言,法律体系与科学体系在概念构成和认知逻辑上互不相通、独立存在。进入法律领域的科学认知方式应当以法律的逻辑化为主导。这一点在司法鉴定和专家证人上体现得十分明显,“法官对专家证言的接纳在实践中并非以科技领域的标准为导向”,“如果不加分辨地直接使用科学结论,无论如何都会导致歪曲对法律审判行为所追求和表达的社会意义具有重大价值的东西”。(31)刘涛:《科技与刑事司法互动的系统论观察》,《政治与法律》2018年第12期。
其次,唯有人类主体才具备伦理指引的有效性。实际上,法官在传统审判过程中也存在“非理性谬误”,例如产生锚定效应、框架效应等。人工智能基于数据、算法等方面的固有缺陷也同样是不完美的。此时,面对同样存在“误差”的人类主体与机器,为何要强调人工干预的优先顺位?原因在于,至少目前为止,唯有人类主体才能接受技术伦理的指引。就技术而言,技术的发展不具有特定的规律性与合理性,本质是主体意志外化的产物。技术的可欲源自它对人类现实缺憾的弥补。换言之,技术是人类能力向外延伸开拓的载体,也是人类认知和改造世界的桥梁,其最终价值是让人类实现选择自由。但是,自由的选择并非没有边界,“对自由与选择的规制和权衡在社会领域存在多重维度,例如基于伦理学中对公共善的追求,基于道德指引或者法律规范的约束”(32)张卫:《技术伦理学何以可能?》,《伦理学研究》2017年第2期。。伦理在本质上就是为人类的自由选择提供指引,也唯有人类主体自身才是解决包括人工智能在内的技术危机的关键。因此,如何实现实质化人工干预,才是司法领域面对智能化技术挑战最应优先考虑的。
(一)主体控制原则
欧洲司法效率委员会在《关于在司法系统及其环境中使用人工智能的欧洲伦理宪章》中规定了司法领域适用智能系统的五项基本原则,其中的使用者控制原则就反映了主体控制原则的精神内核。主体控制原则是指,在司法领域使用人工智能工具系统过程中,司法人员在任何时候都能够监控、审查产生决策的数据及算法系统,并根据特定案件的具体情况自由裁量不受系统约束;人工智能系统无论何时都应当增加而非限制诉讼参与主体的自主权。
主体控制原则具体表现为两个方面,一方面是明确主体对人工智能系统决策的效力干预。一是智能系统生成地对相对人生命财产等基本权利造成影响的决策只具有参考价值,不具有当然效力。唯有经过主体自主审查、裁量和判断方能对相对人基本权利做出处分。二是明确虽然部分司法事项可以交由智能系统进行自动化处理(例如网上智能立案系统),但相关主体和相对人可以随时获得人工干预的救济权利。
另一方面,主体应当对智能系统本身进行监管和评估。就监管而言,一是对算法系统进行立法规制,即将算法尤其在公共领域中应用的算法纳入监控管理体系。目前,欧盟推出了《算法问责及透明度监管框架》,从“价值与概念、原则与基础、评估与影响、透明与合作、行业标准、人权保障”(33)任颖:《算法规制的立法论研究》,《政治与法律》2022年第9期。等方面对算法系统进行了全面规制。我国有关算法系统的立法主要是2021年颁布的《互联网信息服务算法推荐管理规定》,但该规定的适用对象仅为“算法推荐服务”,未对司法领域主流的决策性算法规制问题做出回应。二是应当制定司法领域智能系统的评价标准。2017年国务院印发了《新一代人工智能发展规划》,随后在2018年我国又先后制定并通过了《国家人工智能标准化总体组工作章程》《国家智能制造标准体系建设指南(2018年版)》和《人工智能标准化白皮书(2018版)》。总体上看,上述规范性文件对我国人工智能标准化工作起到了奠基和促进作用,但主要集中于生物识别、人机交互等领域,司法领域智能系统的评价标准着墨不多。就评估而言,算法评估制度始于美国《算法问责法》,目的在于“建立一套标准化的评估体系,对即将投入应用的算法进行事先审查,从而对其适用后果予以客观评估”(34)赵宏:《公共决策适用算法技术的规范分析与实体边界》,《比较法研究》2023年第2期。。加拿大也于2019年推出了《自动化决策指令》,以公正、正当、公开、责任等原则构建算法评估制度。在欧盟,GDPR第三十五条第一款要求对算法系统“评估其必要性和合比例性,并通过评估对数据处理行为可能产生的风险加以管理”(35)程啸:《个人信息保护法理解与适用》,中国法制出版社2021年版,第420页。。相较而言,我国《个人信息保护法》中虽然也对自动化决策规定了评估事项,但规定的内容较为粗疏,缺乏对犯罪预警、司法审判等领域算法决策评估的针对性,并且在评估环节也缺乏有效的公众参与和对评估结果的公开披露,人工干预机制尚未实质化。
由此可见,由主体控制原则中的监管和评估化解了司法领域相关辅助智能系统的决策性算法规治问题,未来还需要国家多个相关部门组织一体化的监管与评估体系,出台更为科学、合理、细化的监管办法与评估标准,从数据结构化建设、参数采集与抓取、算法评估与更新、数据库公开与维护、相对人权利保障与救济等层面出台类别化、体系化的主体控制法律框架,以此保障和实现我国刑事司法人工智能系统平稳、快速与长效发展。
(二)智能系统有限介入原则
司法领域辅助智能系统的应用不仅需要考虑其是否有利于提升诉讼效率、优化犯罪治理体系、提升司法触达效果、规范刑事司法案件管理和有助于法官做出公正判决,还要考虑智能系统介入司法带来的权力体系重组、规范性制度及其理念基础的重构等一系列变化与挑战,是否顺应我国司法改革的客观要求,是否符合司法规律。换言之,智能系统在司法领域的应用必定是有界限的。目前对智能系统在司法领域的有限性探讨尚无定论,包括但不限于以下方面。其一,主体边界。目前的智能系统并不具备成为独立的法律主体的可能,因此也就不能被认为是刑事诉讼的参与主体,更不具备相应的主体权利(力)。其二,价值边界。人工智能系统在司法领域的应用唤起了人们对实质正义的渴望。技术人员、司法人员和公众对人工智能决策准确性、合理性的期待,本质是在科学外衣下对实质正义的新一轮追求。但是,司法领域对实质正义价值的追求应当有其必要限度。实质真实仅是众多人类社会美好价值的一部分。如果放纵对实质正义的追求,夸大人工智能系统在科学性、实现实质正义方面的效用,不仅影响包括程序正义在内的其他价值的实现,而且使人类社会误入技术专制的歧途,走上与法治相反的道路。其三,司法公共利益边界。如果某项决策会对司法公共领域或公共利益产生重大影响,为审慎起见,不能将该决策全部交由人工智能处理;当一项公共决策可能存在一定的裁量空间时,为保证该决策的个别化与人性化,该决策不能全部交由人工智能处理,应保留相关决策主体的酌处权。
(三)主体问责原则
在司法领域如何使用人工智能从而在保护公民基本的权利和提高司法效率之间维护平衡是必须考虑的问题。毕竟,人工智能很有可能成为我们刑事司法生态系统的永久组成部分,刑事司法中的多数决策,都有可能对公民的生命、自由以及财产安全等诸多权益产生影响。因此,坚持构建实质性的人工干预机制,也就意味着产生法律或类似效力的决定总是需要由人类主体做出,并要求该主体可以对其所做出的决定负责。申言之,构建实质性的人工干预机制就必须为刑事司法领域的人工智能系统制定明确的法律责任分配模式,而这一领域的监管规定(人工干预)应始终保持司法人员的问责制。问责制在本质上是一种“解释和证明行为正当的义务”(36)Mark Bovines, “Analyzing and Assessing Accountability: A Conceptual Framework”, 13 Eur. L. J. 4, 450 (2007).,因此传统刑事诉讼框架中的司法责任制、法官给出判决论证等既有制度作为问责制的组成部分在内容上并无太多变化。不过,在辅助智能应用于司法领域的特定背景下,法官解释和论证裁判的内容、形式或适用程度上是否会受智能系统的影响而有所变化却是一个值得深入思考的问题。
在内容上,我国《个人信息保护法》第二十四条赋予了相对人在特定条件下要求信息处理者解释说明的权利。与下文“仅通过自动化决策”相较而言,这种“通过自动化决策方式”做出的决策并不必然排斥某种程度上的人工干预,这是否意味着,法官具有对是否采纳辅助智能系统的决策予以说明的义务。理论上,如果将法官该部分的心证公开,对是否采纳辅助智能评估意见予以解释说明,使之成为法官说理论证的内容,如此可以有效避免人工干预的形式化风险。毕竟,人工干预的关键不在于人类干预自动化决策过程的参与性,而在于在该过程中人类介入的实质性,或者说是人工干预的有效性。
在形式和程度上,随着智能系统的发展,未来法官在部分案件中的论证可能会被数据资料或算法程式取代;法官对裁判的论证在程度上也可能随着智能系统愈发科学化、合理化而有所降低。不过,无论法官说理论证的形式和程度如何变化,由法官保障裁判正当性的制度价值不会改变。司法领域科学化与正确性并非最重要的。司法追求的也从来都不是真理,毋宁是一种社会秩序和满足民众正义感的仪式。法官在事实认定、法律涵摄和价值判断等方面发挥的作用是人工智能系统所无法取代的。对裁判“出于人性于真实事件的同理,且认知法条与先例并非当然为公平正义”(37)林勤富:《智慧法院之发展与界限(下)——演算法、科技治理与司法韧性》,《月旦法学杂志》2022年第5期。的论证,确保判决逻辑性、可归责性和民众的可接受性的实现,都需要法官主体性的参与。这也是司法领域坚持人工干预,并构建有效干预机制的意义所在。
(四)信息告知与公开原则
在刑事司法领域,对算法智能系统进行适度的信息告知与算法披露,是充分尊重和保障诉讼参与人基本权利的前提,也是对算法系统和个人数据信息进行规制和救济的前置条件。一般而言,信息公开与算法披露应当包含以下内容。
其一,信息告知原则。与私法领域适用的告知原则相比较,刑事司法领域的告知原则使用无疑存在诸多限制。我国《个人信息保护法》第三十五条规定:“国家机关为履行法定职责处理个人信息,应当依照本法履行告知义务;有本法第十八条第一款规定的情形,有法律、行政法规规定应当保密或者不需要告知的情形的,可以豁免告知义务。”这一规定实质确立了公法领域以信息告知为原则,将“保密要求或不需要告知的情形”与“妨碍国家机关履行法定职责”作为信息告知豁免的例外。具体而言,一是对于告知的信息,应当至少包括应用主体名称,应用场景与目的,系统功能及安全性介绍,监督及救济方式,可能存在的风险等相关信息。二是对于告知的对象,《个人信息保护法》第十七条和第三十五条规定仅赋予了“个人”享有被信息处理者告知的权利,倘若适用于刑事司法领域显然不甚合理。囿于刑事诉讼中多数嫌疑人(被告人)权利意识的淡漠和权利行使能力的不足,应当将告知对象扩大至嫌疑人(被告人)及其法定代理人、辩护人和被害人等诉讼参与人。
其二,部分决策内容的相对公开。相对公开是指司法人员基于个案裁量权向当事人或诉讼参与人就相关的数据信息和决策结果在有限范围内进行的公开与披露。其披露目的与必要限度在于使当事人或利益相关方能够查阅、质疑、变更、删除与其利益有关的数据信息,提升智能系统决策透明度、准确性与科学性;同时,确保当事人了解智能系统的决策结果,及时调整辩护策略,保障其参与诉讼、行使辩护的有效性及其主体地位。2017年法国颁布的《法国行政法典》确认了在行政智能领域公民可以了解“算法模型所依赖的数据及其来源”和“算法模型导致的结果”(38)Lilian Edwards &Michael Veale, Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”, 16 (3) IEEE Security &Privacy 46 (2018).。从目前掌握的资料看,我国刑事智能办案系统使用的个人信息及其决策结果多被作为司法系统的内部资料,尚未全部公开,建议未来将辅助智能系统作出的有关嫌疑人社会危险性评估和量刑参考的决策结论及相关数据,在量刑程序(或批捕程序)对被告人(嫌疑人)及其法定代理人、辩护人和被害人等有限的利益相关方进行披露,并讯问(询问)相关方的意见,以确保相对人能够及时核校相关信息,并就该信息所反映的事实真伪提出异议。同时,限定公开范围有利于维护相对人的个人隐私,对有关相对人被披露的信息内容,司法工作人员及辩护律师应当予以保密。