AI辅助量刑制度建构的困局与纾解之道
2024-05-17莫皓
莫 皓
[提要] AI辅助量刑系统是当前司法人工智能的典型运用场景之一。然而,在技术跨越式发展的背景下,AI辅助量刑还存在辅助对象与辅助方式不明两大制度建构困局。要破除困局,需要先在宏观制度层面明晰建设发展模式,具体来说应明确AI辅助量刑的统一式发展规划,采取需求式研发路径,并将使用利益主体作为接受度主体;在具体建构层面,我国AI辅助量刑系统应当以技术性正当程序为依托,明确以法院为主要对象,确立智能量刑辅助系统的监督本位,明晰预警为主参考为辅的辅助方式,并在技术开发路径上明确智能辅助量刑系统算法的透明性方向。
同案同判、类案类判是公众对于司法公正最为朴素的认知,其投射到刑事司法审判中对应的重要一面便是量刑活动。量刑自由裁量幅度大、量刑程序不规范等因素使得实践中存在法官不当量刑的风险。为了纠正此种问题,最高人民法院自2008年便在部分法院开始进行量刑规范化改革试点,并于2010年在全国展开。毫无疑问,经过10多年的探索,量刑规范化改革在统一法律适用标准、规范裁量权方面取得了突出成就。
早期的量刑规范化改革,主要是通过细化刑期、将量刑程序纳入审判程序等制度化举措,以过程控制的形式倒逼审判人员在量刑时减少自由裁量空间,其内在机理仍是司法人员的自我控制。而近年来大数据、人工智能技术的飞速发展,为量刑规范化改革提供了重要的科技支撑,最为典型的运用便是AI辅助量刑技术。各地各级法院积极投身于AI辅助量刑/裁判等类似系统的研发,典型运用当属上海市高级人民法院于2017年推出的全国首个智能辅助刑事办案系统——“206系统”,其能协助办案人员对证据法定形式、证据收集程序等问题进行合法性判断,并能进行一定程度的辅助量刑。某种意义上,这些人工智能辅助量刑技术使得量刑规范化改革发生了一场“范式转变”:即由司法人员自我控制转变为“司法人员自我控制+人工智能外部监督”的内外结合模式。
新技术的运用也引发了学界的诸多探讨,主要集中于以下方面:一是人工智能运用于司法活动尤其是定罪量刑活动的定位问题,即人工智能是作为量刑辅助还是量刑主体,如果定位于量刑主体是否会侵蚀法官的量刑主体权[1];二是人工智能运用于量刑活动的风险问题,即由于数据保密、算法黑箱等因素,人工智能量刑集中体现于结果性而非过程性,这种过程的隐秘化可能会动摇民众对于量刑活动乃至司法活动权威性的信任。[2]这些问题经过实务界与学界的探讨,或多或少有了一致性的结论,至少达成了一种前提性的共识:人工智能可以用于辅助量刑。在此基础上,需要进一步关注的是辅助量刑适用策略的问题,而这方面理论界的观照似乎有所不足,特别是事关辅助量刑的方向性问题,如量刑辅助的对象与量刑辅助的方式,如果不对此进行厘清,AI辅助量刑的建设可能成为一座空中楼阁。
一、制度困局:AI辅助量刑运用的方向性问题
构建适宜的AI辅助量刑系统,辅助谁与如何辅助是首当其冲需要明确的问题,这关系着AI辅助量刑的发展方向。然而,在当前AI辅助量刑的建设中,往往过于重视技术性问题,例如如何提升自然语义识别精准化、纠正算法歧视(技术问题并非不重要,只是技术改进需要在方向明晰的前提之下进行,否则极易南辕北辙),而对辅助对象与辅助方式等方向性、前提性问题有所忽视,造成了辅助对象、辅助方式不明。
(一)AI辅助量刑对象
1.辅助法院抑或检察院?
AI辅助量刑的辅助对象为何?这似乎是一个不言自明的问题。但结合我国司法实践来看,此问题尚有深入分析的余地。在定罪、量刑环节未有明确程序性区分而是一体化进行的情况下,审判人员自然而然承担着量刑的工作。即便是在定罪与量刑程序分立的陪审团制国家,陪审团成员也不参与量刑活动,职业法官仍是当仁不让的量刑主体。换言之,无论是国内还是国外,审判人员均是传统的、唯一的量刑主体。在此背景下,AI辅助量刑的对象当然应为审判人员,但这种结论的唯一性随着近年来我国认罪认罚从宽制度的推行或许已开始消解。根据最高人民检察院工作报告,全国范围内的认罪认罚适用率已达85%,实践中检察机关提出量刑建议的采纳率更是高达95%。[3]这意味着量刑建议在实践中成为了量刑结果的主要来源,提供量刑建议的检察机关似乎成为了“幕后”量刑主体。此时,量刑智能辅助的对象是否也需要随之变动?这或许是在探讨如何从技术层面完善智能辅助量刑系统之前应当厘清的问题。
在认罪认罚从宽广泛运用于我国刑事诉讼程序的背景下,对于AI辅助量刑在认罪认罚案件中的运用前景,有的学者表现出较为乐观的态度,认为“与量刑活动的规范化属性相容,与认罪认罚案件的属性相符。”[4]但值得注意的问题是,在检察机关偏好提出精准量刑建议并且法官乐意“拿来主义”的背景下,量刑的主体或者说真正在从事量刑工作的主体仍是法官?抑或是提出量刑建议的检察人员甚至是辅助生成量刑建议的AI呢?这个问题的答案或许值得深思。
当前以及在可预见的未来或许出现审判人员与检察人员两方量刑主体,甚至二者之间可能会出现量刑主体之争。何以形成这样的双重量刑主体局面?从两方主体量刑权力的规定可以一探究竟。具体而言:其一,传统的审判主体——审判人员。这是最为重要的量刑主体。在我国,无论是独任庭量刑抑或合议庭量刑,其均属于审判机构内部行使审判权力的表现。即使在发生过“谁为适格量刑主体之争”的美国,其争论范畴也仅限于“法官或陪审团”,[5]实质上仍属于审判机构的内部之争。从立法上看,无论是《宪法》还是《刑事诉讼法》,均明文规定“人民法院依照法律规定独立行使审判权”,而量刑活动作为审判活动的必然结果当然属于题中之义。其二,“幕后”的量刑主体——检察人员。司法实践似乎在悄无声息地撬动这种量刑主体的唯一性,认罪认罚从宽制度中量刑建议的广泛适用,使得检察机关有机会“染指”量刑活动。这种机会一方面是立法所赋予,《刑事诉讼法》第201条规定“对于认罪认罚案件,人民法院依法作出判决时,一般应当采纳人民检察院指控的罪名和量刑建议”,立法“一般应当”的表述给了“建议”规范层面的强制力[6];另一方面,从实践情况看,法官对于检察院的量刑建议或许并非如想象中排斥,法官可能并不在意量刑建议影响其独立量刑权,反而认为量刑建议为其减轻了大量工作负担,尤其是检察院倾向于提出精准量刑建议,法官可以直接“拿来”。因此,在多重因素推动下,检察机关在实际上成为了隐藏的量刑主体。并且,从实际需求层面看,检察人员相较于审判人员缺乏量刑的基础,或许更需要人工智能对量刑建议进行辅助。其原因在于:一方面是客观资源的差距,法院内部各种与量刑相关的文件、指引要多于检察院,这为法官进行量刑参考提供了丰富的外部条件;[7]另一方面,量刑活动的本质就是基于事实与法律的经验判断,而非单纯的数理意义上的刑期加减,长期从事量刑活动的审判人员,在各类量刑实践中浸润出了丰富的量刑经验,这种源于长期实践的主观优势,对于刚刚接触量刑建议的检察人员而言,无疑是经验积累上的巨大鸿沟。因此检察人员相较于审判人员更需要精细化、具体化的量刑辅助。
事实上,已有检察院进行了AI辅助量刑系统的研发并运用于诉讼之中。[8]当我们谈及AI辅助量刑基本是处于将法官作为辅助对象的立场,这种话语与实践层面的差异可能会导致量刑主体不明的问题,进而影响技术开发的效果。技术发展的核心价值是为了解决混乱而非制造混乱,因此,不得不警惕这种可能出现的量刑主体泛滥导致的司法权威的不彰。
2.辅助审判人员抑或审判管理者?
在现阶段人工智能的辅助对象大多默认为在法院的基础上进行辅助,容易被忽略的一个问题是,其精准的“用户”究竟是法院中的哪部分群体?是审判人员抑或是审判管理者?或者说人工智能在法院内部是作为审判辅助还是审判监督辅助的地位呈现?法院内部的审判管理者主要为院庭长以及专门行使审判监督管理的部门。在最新一轮司法改革中,以院庭长为代表的法院内部管理者仍被明确赋予了审判监督管理责任。其职责除了行使审判权力之外,还需要对一线审判人员的判决结果进行监督管理,保障审判结果的一致性。因此,为量刑活动寻找“平均线”是审判管理者当下的实际需求。虽然关注点均在量刑活动,审判管理者与普通审判人员的着眼点却具有差异性,进而导致了对于审判辅助需求的差异性:审判人员的需求侧重于单一审判结果的准确性,而审判管理者的需求并不着眼于某一量刑结果,而是量刑在整个同案、类案中的合理度。对于审判管理者而言,其需要更为便捷、高效的监督管理方式,一方面是因为法院案件数量的激增,审判监督管理的任务量在与日俱增,传统审判管理方式难以保证数据的客观准确,无法及时反映审判动态,信息化技术在推进审判方式变革的同时,也推动着审判管理理念和方式的变革;另一方面,审判管理者拥有双重身份,其既是办案法官,要承担相应办案职责,同时兼具审判管理任务,尤其是司法改革给院庭长划定了明确的办案任务比例的背景下,寻求现代科技为审判监督管理职责释压是其必然的选择。
这种需求差异还源于两方主体对量刑活动的介入方式不同。作为审判管理者,其没有精力、也无必要对个案事无巨细监督,其介入量刑活动主要基于全局掌控的需要。因此,辅助系统对其而言主要起着警醒作用,在可接受的误差范围之内,出于尊重审判人员的独立裁判权,审判管理者一般不会进行纠正。而作为决策者的审判人员,其从事量刑活动均体现在个案中,需要系统针对每个案件提供精细化辅助。因此,二者的运用差异在于,对于量刑辅助系统产生的结果,前者是偶然性、随机性运用,而后者是一般性、普遍性运用。
(二)AI辅助量刑方式
当下,对于智能辅助量刑系统辅助性而非替代性的定位争议较小,智能辅助量刑系统应该只是为法官提供参考的工具,直接让人工智能作出裁判并不符合司法的基本伦理。在此前提下,如何进行辅助成为了更为紧要的问题。笔者认为当下已有的辅助量刑系统可大致划分为“预警型系统”与“参考型系统”两种模式,前者以我国江苏法院研发的同案不同判预警平台为代表,[9](P.351)在法官完成裁判文书后,预警平台将自动抓取法官编写的裁判文书进行分析,自动预警偏离度高的案件,并向法官解释产生高偏离度的原因。后者以美国COMPAS系统为典型,[10]COMPAS系统可以根据算法为法官提供量刑以及减刑假释的数值参考。二者主要区别在于:其一,对于量刑精准度的需求不同。一般而言,预警型系统不需要具体数值或者不需要较为精准的数值,而是更倾向于给出量刑区间范围,然后将法官作出的量刑比对系统划出的量刑区间。预警系统的基本功能是防范量刑过于偏离正常值,因此其是一定幅度的区间范围。而参考型系统则需要具体、精准的量刑数值,如若仍是提供区间范围,其参考价值便较为有限。其二,介入案件时间不同,参考型系统是用于量刑判决作出之前,为审判人员预先提供可借鉴的量刑参考;预警型系统介入则是量刑活动结束之后,对审判人员的判决加以比对,因此也可划分为针对未决案件和已决案件。这两种不同的辅助方式发展路向需要不同的基础支撑:
其一,人工智能的技术发展程度。一般而言,参考型的开发难度要大于预警型。一方面因为参考型对于量刑精准度的要求更高;另一方面,其介入案件的时间更早,可依据的数据相对较少。相较而言,我国的智能辅助系统以预警型为主,美国的智能辅助系统以参考型为主,主要源于我国的法律人工智能技术特别是审判人工智能技术的研发稍滞后于美国。这并非单纯体现于技术开发实践层面,或许更多体现在技术理念层面。中外在理解、使用AI法官的基本工作机制上迥然相异,从而也导致几乎完全不同的研制机制和实践状态。美国的司法人工智能系统广泛使用了统计学基础上的机器学习算法,我国的司法人工智能则以知识图谱式为主导,大量基本图谱供给,而缺少数据训练。
其二,数据基础丰富性、结构性程度。一方面是数据来源的丰富程度。从原理上看,无论是预警型还是参考型,均需要依靠过去的事件形成的“数据”得出结论,虽然均是“过往依赖”,但二者区别在于:预警型的数据来源是既往的同类型司法判决,而参考型的数据来源还要更多考虑被告人既往的行为。就前者而言,我国的裁判文书丰富程度相较美国不遑多让,因此为预警型系统供给了丰富的数据源。但参考型系统的构建裁判文书仅是一部分,还需要海量的数据集来生产“被告人画像”。并且,拥有了性别、年龄、就业和婚姻状况、最近的逮捕、监禁以及重罪前科等记录“被告人画像”基础数据之后,还需根据需要对其进行权重测算与赋值,不断进行调试与修缮。例如美国弗吉尼亚刑事量刑委员会早在20世纪90年代末便开始开发预测犯罪的风险评估工具,直到今天也是经历了长期的实践试错过程。另一方面是数据的结构化、规范化程度。当前我国虽然有着海量的裁判文书,但是数据要能发挥最大限度的作用还需要自身具备一定条件,即最好是结构化、规范化的数据。例如美国的联邦量刑指南便是较为典型的结构化数据,其通过将犯罪的严重性以及犯罪前科等与量刑有关的因素格式化、数据化,使量刑呈现出量化特征,这种规范化的数据是有利于形成人工智能的,相对来说我国目前还欠缺此种基础。
其三,对于人工智能介入司法活动的公众接受度。技术开发并非是最大的难题,公众对于人工智能介入司法活动的接受程度或许才是横亘在智能系统面前的一道鸿沟。详言之,裁判主体由人变为机器可能是从几千年前神明裁判到人类裁判之后的最大变化,坐堂问案不再是人类法官,这可能会颠覆公众对于司法活动的认知。例如算法黑箱可能带来的量刑生产过程的不透明,算法歧视可能导致的量刑结果的不公正。这其中以参考型系统尤甚,相比于预警型系统量刑主体仍旧是人类法官,参考型系统会提供详细具体的量刑方案,虽然在判决书上签名的仍是人类法官,但其往往会倾向于接受系统所提供的量刑方案,实际上量刑是由系统在生成而法官只是进行了一道“背书”程序。对于公众而言,是否接受由一台冰冷的机器来决定剥夺人身自由等重要命题,这归根结底是司法伦理问题。在我国,目前还不具备如此的舆论环境,因为公众对于人类法官所作量刑判决之合理性、公平性还存有疑虑,更遑论换作机器。而在美国,至少实践中已在部分地区开始运用,公众对其的疑虑主要是基于算法歧视等具体量刑准确度方面。
二、制度基础:AI辅助量刑建设发展模式之选择
近年来,我国AI辅助量刑的大踏步发展虽然取得了诸多成效,但也暴露出上述前提性、方向性问题。然而,要解决上述问题,需要先从宏观层面对AI辅助量刑建设发展的模式进行梳理与选择。发展模式的差异使得AI辅助量刑的建设方向有所不同。缺乏确定的发展模式存在具体运行紊乱的风险。例如前述AI辅助对象不明的问题,其根本上源于缺乏来自于顶层的统一发展规划,这便与AI辅助量刑采取何种发展规划模式相关。因此,寻本溯源,要破除当前AI辅助量刑面临的困境,需要在宏观制度层面明确与统一其建设发展模式。
(一)发展规划:统一式与定制式
建设发展规划是法律人工智能发展的基础性要素,其规划合理度决定着法律人工智能的建设成效。当前,以AI辅助量刑系统为代表的法律人工智能的开发大体可以划分为统一式与定制式两种类型,前者指由国家层面统一规划开发适用于全国所有司法机关的法律人工智能,而后者主要指各地司法机关根据自身需求与特色,自主寻求与技术开发公司进行合作开发。例如最高人民法院上线运行的“智慧法院导航系统”和“类案智能推送系统”便是全局式建设发展理念的集中体现。而我国目前AI辅助量刑的建设发展模式更趋向于定制式。各地司法机关各自研发司法人工智能产品呈现出百花齐放的景象,例如上海政法机关联合科大讯飞开发的“206”系统,北京市高级人民院开发的“睿法官”。为何这种“量身定做”的司法智能建设发展模式更受司法机关青睐?客观而言,定制式有利于结合自身特色,更加契合本地建设发展需求,并且研发难度相对较低,研发投入较少。但笔者认为这种定制模式虽然降低了各个司法机关建设人工智能的门槛,但总体上其与司法人工智能发展需要全局性通盘考虑的发展规律不符,各自为政的弊端也显而易见:其一,系统兼容性、普适性有限,因为研发过程便是以本院为使用对象的,所以难以推广开来。然而司法活动的特性决定了其并非只局限于某一司法机关内部,而是需要和不同层级或不同系统共联,例如法院系统研发的量刑辅助系统或许并不适配于检察系统,而检察机关和审判机关在刑事案件中却有进行量刑对话的需求;再如下级法院研发的量刑辅助系统与上级法院并不一致,这种系统的差异化可能会外化为量刑结果的差异化,并在二审、再审活动中引发争议。在均以智能辅助为名的背景下,究竟是检察机关或是法院、下级法院或是上级法院的智能系统更为“智能”呢?这些情况均可能导致智能辅助的功能发挥有限。其二,在整体层面未能做到资源利用最大化。虽然适用范围小的单次研发投入较小,但是从整体层面看,或许并未达到节约资源的目的,因为缺乏全局一盘棋的统筹规划,各个地区的司法机关与不同的科技公司合作研发,这其中有的为个性化“定制产品”,而大多数却也是功能重合的“流水线产品”,从全局算“经济账”,这种重复研发、重复投入的个体化模式或许并未做到资源投入的物尽其用。
因此,从某种意义上讲,以AI辅助量刑为代表的智能司法产品研发需要全局式、通盘式谋划,既可以统筹共享技术资源,也可以实现投入产出比最大化。在顶层设计统筹规划的框架之下,再寻求地方特色的补充,才更契合智能化司法发展规律。
(二)研发路径:供给式与需求式
在智能系统的研发中,由于技术壁垒的缘故,存在着因研发主导者不同而产生的供给式与需求式两种研发路径,供给式技术开发以开发者为主导,需求式开发以使用者为主导,简言之,前者是“开发什么便使用什么”,后者是“需要什么便开发什么”。
总体而言,在辅助量刑系统建设中,供给式研发路径具有以下优势:第一,更注重技术的供给和进步。技术开发者以技术更新迭代为导向,不断研发新的算法和模型,可以提高人工智能辅助量刑功能的准确性和效率。第二,更注重技术的通用性。技术开发者不拘泥于单一使用者的需求,研发的产品更具有通用性特征,能够满足多元化使用场景,更好地适应不同司法实践的需求。第三,降低研发成本和提高研发效率。供给式的开发模式可以通过集中力量开发出基础性的通用算法模型,因为个性化功能设置较少,所以开发成本与开发效率层面均能实现优化。而需求式研发路径的优势在于:第一,针对性强。注重针对需求进行开发,使得系统的功能更加贴合实务,能够更好地满足司法实践中的特定需求。由于量刑涉及的问题千差万别,针对具体需求进行开发,才能更好地提高量刑的准确性和公正性。第二,使用者参与度高。需求式开发模式更注重作为使用者的司法机关直接参与到系统的设计和开发过程中,更好地反映使用者的需求和意见,提高系统的实用性和可接受度。第三,具有较强的灵活性与可扩展性。系统可以根据实际需求随时进行调整和改进。由于司法实践中量刑制度也处于不断改革发展中,例如交通肇事罪、危险驾驶罪等一些常见犯罪的量刑幅度、调节比例近年来便存在因实践的需要而进行调整的情况,只有具备灵活性的系统才能更好地适应变化的需求,提高系统的使用价值和使用寿命。
需要指出的是,在供给式研发中,技术人员占据着主导地位,虽然这种技术人员主导能够破除技术壁垒,却面临司法伦理与司法效益两方面风险。对于前者,由技术人员主导的供给式开发,实际上是“算法逻辑”优先于“司法逻辑”,以量刑为代表的司法活动从人的智慧理性转向了机器算法;对于后者,技术人员在研发中仍然面临着司法专业壁垒,其难以完全理解量刑活动的运作逻辑,这使得技术研发难以真正触及司法活动的“痛点”,从而使得产品的使用效益不足。
当前的AI辅助量刑系统研发中,呈现出部分供给式的特征,究其原因在于技术人员与司法人员“各说各话”,难以实现互融互通,而因系统研发的专业性,使得司法人员往往沦为配角,这便违背了智能技术引入司法活动是为辅助、优化的制度初衷。因此,AI辅助量刑的研发应该更偏向于司法人员技术人员共同参与、以司法人员为主导的需求式路径。
(三)接受度主体:结果利益主体与使用利益主体
AI辅助量刑系统的利益主体,按照影响划分可以分成结果利益主体,主要是案件当事人,也包括使用利益主体,主要是产品的使用者审判人员。作为与AI辅助量刑密切关联的主体,二者对AI辅助量刑的认知影响着量刑结果的接受度。既往在探讨此问题时,往往习惯将目光聚焦于产出结果的利益相关主体当事人(甚至是非利益相关主体的公众),却往往忽视了最为关键的产品直接使用者。作为结果利益主体的当事人对AI辅助量刑的接受度,主要源于AI进行辅助量刑的正当性等司法伦理问题,但从智能辅助量刑的建设发展前景看,后者无疑是更为重要的原动力,如若无法获得使用主体的认可,即便能被当事人和公众所接受也无济于事。
然而,对于使用者而言,尤其是对于审判人员而言,智能辅助量刑或许并未拥有足够的接受度,主要存在以下方面因素:其一,法院的积极态度并不等同于一线审判人员的主动接纳。尽管全国各地为数不少的法院热衷于研发智能辅助量刑系统,但是这种态势是一线审判人员的真实写照吗?答案或许并非如此乐观,有研究者针对法院的实证调研显示,与智能量刑辅助系统相类似的类案推送系统在审判一线长期得到冷落。[11]究其根本,产品可操作性、科学性不强,导致审判人员使用不畅、效果不佳。其二,智能辅助量刑系统存在一种使用的悖反逻辑。对于简单案件而言,审判人员凭借司法经验可以快速量刑,智能辅助的效率提升可能极为有限,其适用的必要性较弱;对于重大、复杂、疑难案件,虽然量刑辅助系统可以提升效率,但是因为案情重大的因素,审判人员往往又不敢适用。这便造成了“小案用不上,大案不敢用”的尴尬局面。其三,对于量刑权力的独占意识。量刑权是审判人员的专属权力,也是最能体现审判独立性、终局性的权力表征,因此,审判人员对于意欲染指量刑权的任何主体天然存有敌意。例如,在认罪认罚从宽程序中便存在围绕量刑权展开的程序主导权之争,检察人员凭借量刑建议意图成为程序主导,而审判人员则凭借对于量刑建议的否决权能牢牢把持着程序主导。由此观之,诉讼程序中的“人”尚且如此,何况是作为机器的智能量刑辅助系统。即便是定位于“审判辅助”之用,但其功能也超过实践中“审判辅助人员”的法定职责,可以说,智能辅助系统对于审判人员量刑权的“僭越”是一种必然。因此,期待审判人员主动接纳智能量刑辅助系统可能是一种“奢望”。
这种关注对象的偏差,使得技术发展方向较为重视如何实现过程的公正等当事人关注的宏观性问题,而对如何提升智能化产品的精准度、可操作性这样使用者在意的研发具体事项关注不够。宏观性问题当然不能忽视,但无法短时间内一蹴而就;细节性技术问题却可以在较短的时间内反复调试优化。因此,在利益主体接受度层面,需要更加重视使用利益主体,从产品的使用者(例如审判人员)的角度去提升实用性、操作性,形成其相较于人类法官的独特优势领域,使审判人员愿意使用、能够有效使用AI进行辅助。
三、纾解之道:AI辅助量刑的具体制度建构
(一)构建数字正义时代刑事技术性正当程序
博登海默早已有言:“正义有一张普罗透斯似的脸”,在当下的数字时代,正义的面孔似乎变得更加难以捉摸。数字时代催生了数字正义理念,其是社会正义原则和正义实现机制在数字领域的体现。与飞速发展的实践应用相较,关于数字正义的理论发展较为迟缓且供给不足,使得建立在其之上的实践应用呈现出一定程度的盲目与无序。前文所述诸种问题,大多与数字正义理论有关:一方面,数字正义原则包含了平等、公开等基本属性,而AI辅助量刑的过度发展实际在某种程度上打破了这种对等性和透明性,原初的正义标准是以人的主导决策为核心的,AI恰好是排斥这种人的主导性,如何在汲取AI提供的技术支撑力与防止夺取控制力之间寻求平衡需要对数字正义内涵进行新解构;另一方面,数字正义还面临如何与传统正义理论内涵融合自洽的根本性问题。具体而言,除了“算法黑箱”这样已被诸多提及的透明性难题,数字正义更深层的问题在于正义是否可以被计算?看起来似乎唾手可得的可视正义,其实可能难以进行建模运算,这意味着,正义可能没有价值位阶,需要权宜平衡。在此观念之下,正义无法被量化,则技术创新是有其限度的,在实现正义方面,技术能力实则力不能及。
有鉴于此,需要对数字正义在司法程序中的运用加以理论支撑,这种正当化需要以程序机制建构数字正义。申言之,正义的实现需要程序机制保障,相应地,数字正义也需要匹配数字程序机制。席特伦教授提出了“技术性正当程序”(Technological Due Process)的概念,其试图通过向相对人、利害关系人和公众赋能,使他们有机会和能力知悉、理解乃至挑战自动化系统的决定。其明确了技术性正当程序所追求透明、准确、负责、参与、公平等价值目标,并将技术性正当程序的适用范围扩展至基于预测性算法的规则设置和个案决定。[12]技术性程序正义理论原本生发于行政法领域,但刑事程序对于正当程序的追求有过之无不及,无疑也需要技术性正当程序的理论供给。
席特伦教授总结出了自动化系统设计的三方面要求:其一是系统适用规则的决定可以由自动化系统作出,适用标准的决定不宜由自动化系统作出;其二是系统设计必须以透明性和可问责性为主要导向;其三是系统应能生成和保存“审计轨迹”,用于辅助向相对人告知决定并说明理由。[13]从这三方面要求可以发现,技术性正当程序强调在自动化决策当中人的尊严与作用,并突出自动化系统计算结果的可验证性与可推翻性。正如有学者指出的,数字正义的本质是社会公正,而非“机器正义”。[14]作为数字正义的典型场景之一,AI辅助量刑的运用也应在技术性正当程序的根本要求规制之下,即参与到量刑活动当中的人工智能技术不能动摇由审判人员通过审理程序实现正义的原有路径。因此,刑事诉讼中的技术性正当程序虽然冠之以技术路径,但其主要定位还是锚定程序机制的正当与合理,在AI辅助量刑等司法人工智能技术飞速发展、使用的当下,其具体使用和发展规划,不应被技术“绑架”,而应当围绕着正当程序机制建构。
(二)我国AI辅助量刑的建构方向
席特伦教授提出的自动化系统建设三方面要求可以归结为明确决策与辅助对象要求、明确决策过程透明要求与明确决策可监督验证要求。将前述AI辅助量刑的对象与方式等问题融入技术性正当程序理论。笔者认为,未来我国AI辅助量刑需要明确以下发展方向:
第一,明确以法院为主的辅助对象。上文提到了检察院与法院的辅助对象冲突问题,但笔者认为,智能辅助量刑系统的辅助对象应当明确为法院而非他者,原因在于检察机关提出量刑建议并非严格意义上的量刑活动。从时间上看,定罪与量刑环节缺一不可,共同构成完整的审判活动,这其中定罪与量刑实际上具有逻辑上的递进与时间上的承接关系,即量刑是在定罪基础上展开的,如若颠倒,那便是带有“有罪推定”的思维。因此,严格意义上的量刑程序必须在定罪之后开展,检察机关提出量刑建议是先于定罪活动。从过程看,量刑环节必须经过多方主体探讨。虽然我国未专设量刑辩论环节,但是法庭辩论环节控辩双方均会对量刑发表相应意见,尤其是辩方的量刑辩护意见对于维护被告人权益至关重要,而检察机关的量刑建议提出往往是单方行为,缺乏足够的意见表达。从结果上看,检察机关的量刑建议不具有直接强制力,虽然法律规定“一般应当接受”,但是即使是接受,其从“建议”变为“生效的量刑”还需要审判人员的“采纳”程序,即使“采纳率”达到100%,也无法跳过这道程序直接让检察建议成为能够生效的量刑。并且当下的量刑建议是因认罪认罚从宽程序而生的新事物,其在认罪认罚案件中的外在表现为控辩双方合意的结果,而非控方单方意思表示,从此意义上讲,控辩协商合意的过程是无法也无需由AI进行替代/协助的。
第二,确立AI辅助量刑系统的监督本位。监督本位与辅助本位是智能量刑辅助系统研发的两种路径,监督本位立足于量刑活动结束之后的审判管理,主要是从事后监督的角度对法官的量刑进行审查,而辅助本位则立足于量刑活动之前的帮助提升,注重从事前供给的角度对法官的量刑提出参考。当前的系统研发由于缺乏权威、统一的指导规划,各地各自为政研发出了各种系统,有的以监督所长,有的偏重于辅助,而这种系统研发前提本位的不统一,实际上并未达到用智能量刑辅助系统进行量刑规范化改革的目的,同案不同判的现象依旧存在。就我国的现状而言,监督本位是更为适宜的路径选择,原因在于:其一,由于科层制传统影响,长期以来我国实行的是院庭长等经验丰富的精英/领导型法官来进行审判活动(包括量刑)的监督管理。虽然近年来为破除司法行政化,司法责任制改革要求“审理者裁判、裁判者负责”,避免院庭长对法官办案形成不当干扰,但是改革并未完全免去院庭长的审判监督管理权,例如“五五纲要”便提出要“完善审判监督管理机制,明确院长、庭长的权力清单和监督管理职责,健全履职指引和案件监管的全程留痕制度。”因此,对于审判监督管理权,改革并未抹去,而是通过清单化的方式予以明确。不仅如此,改革还列举了审判管理的新方式,其中“通过信息化办案平台自动识别”的方式,其实质与智能辅助量刑系统的监督本位具有目标一致性,从这点上看,我国已将AI辅助量刑系统与审判监督管理挂钩。其二,从必要性层面看,随着员额制改革、人员分类改革等推进,我国审判人员的法治素养较之过往有了大幅提升,当前量刑中出现的同案不同判等问题,可能并非由于审判人员自身素质所致,因此,单纯从辅助层面进行完善给审判人员量刑提供参考可能属于“头痛医脚”,通过智能化方式对其不规范量刑进行监督管理或许才是对症下药。当然,随着我国司法责任制改革的继续深入,我国法院的改革方向应是从以院庭长为主导的法院整体本位转向以法官为主导的法院整体本位。由此,未来这种监督本位可能从院庭长的监督迈向法官的自我监督。
第三,明确以预警型为主参考型为辅的辅助方式。笔者以为,在智能辅助量刑的方式选择上,应当确立预警型为主,适当结合参考型。其决定因素在于以下几点:其一,量刑主体。就检察人员和审判人员而言,显然,检察人员的量刑技术能力和量刑辅助资源是弱于审判人员的,两相比较,更需要具体的量刑参考的是检察人员。而前文已论述,审判人员应当成为确立的、唯一的量刑主体,因而,辅助对象是检察机关,那么参考型可能作用发挥更大,如果辅助对象的审判人员,那么预警型更为合适。其二,技术能力基础。对产品的需求需要建立在相应的技术能力基础上,毋庸置疑,我国司法人工智能产品的开发大多兴起于近五年之内,所需要的算法、自然语义识别、量刑关键词提取等技术还处在发展阶段。对于需要更高精准度的参考型系统而言,现有技术能力可能难以充分满足要求,若强行推行,可能会导致产品完成度不高,量刑参考价值有限。倒不如秉持实用主义的立场,依靠现有的技术水平打造能够在实践中运用的预警型系统,等技术迭代完成之后,再谋求预警型基础上的升级。
第四,在技术开发路径上明确智能辅助量刑系统算法的透明性方向。“黑箱效应”是算法与生俱来的特性,然而,此种特性与司法活动尤其是审判活动公开、透明的要求背道而驰,尤其是在愈发要求正义要以看得见的方式实现的当下,如果无法解决“算法黑箱”与司法透明之间的矛盾,或者至少在二者之间寻找到相对平衡点,那么大量运用算法的司法人工智能系统将会逐步消解近年来司法改革所累积的成效,甚至进一步威胁到司法活动的权威性。因此,如何实现算法向司法活动的公开透明靠拢是当下迫切需要解决的问题。笔者认为,此问题的解决可以分为短期临时性方案与长期终局性方案。短期临时性方案主要是推动技术开发公司公布或者部分公布算法模型(尤其是公布涉及到量刑计算方式模型的算法逻辑),当然此举的最大阻碍并非在于技术因素抑或是公开的难易程度,而是基于商业机密的利益考量。但司法活动的本质并非商业行为,不能以逐利为首要目的,只要技术公司介入了司法活动中,就应当受到司法活动特性的约束。当然,有研究者提出,公开算法可能是伪命题,因为由于技术壁垒、专业知识欠缺等因素,即使公开算法,司法人员也无法对算法的科学性、合理性进行验证。[15]但此问题可能不会成为真正的障碍,司法活动中也不乏此种超出审判人员知识限度的规定,例如对于鉴定人出庭的规定,鉴定人所鉴定的事项可能也远超司法人员的认知范畴,但并不因难以理解就将其排除于庭审活动之外。只要能够公开算法,那么可以寻求能够理解算法的独立第三方的协助。当然,此种方案严重依赖于技术公司的配合度,因此并非解决问题的根本途径。长期性的终局方案在于确立智能辅助量刑系统算法的透明化开发路径,即在智能辅助量刑系统的开发中便嵌入算法透明的因子,使算法结果的生成具有可解释性、可回溯性。这需要在开发过程中集合各家之力,尤其是审判机关和技术公司要进行深度融合交流,让技术开发人员理解量刑结果的生成逻辑与审判人员量刑过程的思维方式,并将其模型化记录于系统之中,使量刑算法真正成为有来源之算法。
余论
近年来,随着司法人工智能开发与运用的突风猛进,实务界已经开始惊呼“未来已来”。那么未来究竟是否已来?笔者难以精准判断,但是一些前提性认知尚未厘清之际,有必要唱一唱“反调”。但是,“唱反调”的目的并非是阻碍司法人工智能发展的进程抑或是浇灭司法人工智能开发的热情,而是为了实现基础性概念的一致性、稳定性,从而避免技术开发后期发现因为地基不牢而造成的资源浪费甚至是前功尽弃。在诉讼爆炸愈发突出的当下,智能辅助量刑系统无疑是减轻法官肩上重担的一剂良方,在厘清了辅助对象、辅助方式等根本性问题的基础上,期待其能真正成为减轻司法人员负担的对症良药。