APP下载

算法驱动的再犯风险评估的运用前景与规制进路

2024-10-12肖潇雨

理论月刊 2024年9期

[摘 要] 再犯风险评估工具的应用与迭代,在有效避免司法裁决的主观性风险的同时也对程序正义原则、法官独立审判原则和有效辩护原则造成一定冲击。一方面,使用算法驱动技术进行再犯风险评估可以根据预期危险对不同风险等级的对象实施差异化的管理,以实现刑罚个别化和犯罪治理精准化的治理目标,进而完善刑事司法资源优化配置。另一方面,算法模型存在的隐形歧视、不可解释性、隐私侵犯等潜在漏洞引发侵犯个人权益的担忧。为在刑事司法中推广应用再犯风险评估工具,须从优化程序透明度的角度提升,通过建立独立的监督机制以完善外部审查,减少算法偏见风险,为未来应用做好法律风险预防。

[关键词] 再犯风险;人工智能;精算正义

[DOI编号] 10.14180/j.cnki.1004-0544.2024.09.014

[中图分类号] D922.17;D922.16 [文献标识码] A [文章编号] 1004-0544(2024)09-0142-11

基金项目:最高人民检察院检察理论研究课题“相对不起诉的社会治理质效提升机制研究” (GJ2023C08)。

作者简介:肖潇雨(1996—),女,中南财经政法大学法学院博士研究生。

一、问题的提出

刑法的谦抑性是刑法学者所奉行的根本原则,因此刑罚一般被视为社会治理的最终手段。随着风险社会的来临,危险犯的大量出现使刑法的预防性功能进一步受到关注,刑法从惩戒性向预防性转型逐步成为社会治理体系中的重要组成部分1。从我国刑法的修订来看,刑法的预防机能逐渐凸显。《刑法修正案(八)》和《刑法修正案(九)》都规定了对预备犯和未遂犯等未完成形态犯罪的处罚。随着预防刑法的扩张和“宽严相济”刑事政策的推行,刑罚本身有了愈发丰富的内涵和价值选择,刑罚的适用愈发凸显科学与效率相结合的要求。刑罚的目的究竟应当侧重于报应还是功利,已不是仅靠形而上学的思辨所能解答,讨论所依凭的标准也不再仅是“正义”“安全”“全体的福祉”等抽象价值。刑罚的追求在多大程度上得到了实现,刑罚所涉及的种种关系和利益是否达到平衡,正义或功利的目的是否实现,在很大程度上取决于这样一个基本事实: 刑释者回归社会后是否再犯罪。因此,评估再犯风险至关重要,但评估和控制本身又是最不确定、最困难的,因为再犯风险是一种未然的可能状态,其评估不仅依赖于客观外显的犯罪事实,也取决于主观内在的人身危险性。所以,判定再犯风险就成为控制再犯的首要和核心问题。

人身危险程度被界定为犯罪行为人在未来再次犯罪的潜在危险性,即再犯可能性1。人身危险性的概念诞生于犯罪学,后来才成为刑法学共用的一个概念。从理论研究来看,我国对再犯可能性体系化的研究还要追溯到1992年司法部预防犯罪研究所李均仁主编的《中国重新犯罪研究》,该书着重于对影响再犯的因素进行提炼总结,而非研究如何对再犯可能性进行评估2。从实证研究来看,目前的研究重心是在对监狱释放人群进行长期的跟踪调查的基础上进行人身危险性量表的研发3。整体而言,我国对再犯可能性的研究还停留在初级阶段。相较于我国,西方国家再犯风险评估工具历经了百年发展,目前已经形成了四代再犯风险评估工具:一是以临床风险为核心的第一代评估工具。它主要由专家运用理论知识与临床经验来评估再犯风险,其局限性在于缺乏精确的基础或标准,依赖于专家的主观直觉与经验,其可靠性和有效性无法得到验证。二是以静态风险因素为指标的第二代精算方式。它根据罪犯的性别、犯罪的性质、以前被定罪的次数和受害者等因素来评估累犯,通过标准化测算表帮助刑事司法专业人员相对评估个人在特定时期内与参照群体相比所表现出的风险指数。三是以静态风险因素与动态风险因素相结合的综合考察模式为主,以专家判断为辅的第三代精算方式。它主要包括动态风险因素,如药物使用、精神问题和反社会心理病态人格特征。四是以智能化分析为指标的第四代精算方式。它主要依赖于机器学习和大数据分析技术,能够自动分析并学习大量的数据,并从中识别出影响个体再犯行为的关键因素4。这些因素包括犯罪者的年龄、性别、教育程度、家庭背景、犯罪记录等,还涵涉更为复杂、微妙的因素,如犯罪者的心理状态、生活压力、社区环境等动态评估因素。算法驱动的再犯风险评估作为一种主动的风险评估形式,是通过人工智能和机器学习技术对大量的数据进行分析以评估个体的再犯风险,再根据预期的危险性,使用各种技术来识别、分类控制不同的群体和对象,从而达到评估和管理罪犯的效果5。在我国,人工智能技术在司法领域的应用已经取得了显著的进展,以“206系统”为代表的多个智能辅助办案系统广泛应用于全国各地的法院,以实现对案件的高效、精准处理。虽然这些系统也初步涉及对人身危险性的评估,但并非专门的再犯风险评估工具。相较于西方国家的广泛应用,在再犯评估中运用算法驱动技术在我国还处于起步阶段,难以为我国再犯预防(特别是刑罚个别化)提供强有力的技术支撑。

随着信息技术的迅速发展,特别是在国家以重点专项(司法专题任务) 资助智能化司法技术研发的大背景下,我国的再犯风险评估发展正迎来新的机遇。在研发我国再犯评估工具时需要充分认识到在再犯风险评估中运用算法驱动技术的运用前景与潜在风险,仍需要审慎地考虑几个问题:一是,以对未来再犯风险的评估对人身自由进行限制是否具有正当性;二是,再犯风险预测工具的使用对程序正义、法官独立审判等刑事诉讼基础理论的冲击;三是,算法工具本身存在的隐形歧视、算法“黑箱”问题会不会进一步引起刑事司法不公;四是,算法驱动的再犯风险评估在我国推广可能面临的技术困境以及如何以此为基础推动智慧司法。

二、算法驱动的再犯风险评估的运用前景

算法驱动的再犯风险评估是指通过人工智能和机器学习技术构建准确高效的评估工具,对大量个人和社会数据进行分析以评估再次犯罪的风险1。其主要包含五个要素:第一,运用机器学习、数据挖掘与人工智能技术。构建算法模型以实现对大数据的智能化分析与挖掘,产生更加精细化的再犯评估结果。第二,评估过程的自动化与智能化。通过算法工具实现对数据的自动采集、清洗、分析与挖掘,降低人工操作的难度与工作量。第三,科学、精准与高效的评估工具。以算法为基础,以数据为资源,构建能够产生精准评估结果与科学判断的评估工具,实现对评估对象风险因素的全面考量2。第四,跨部门协同。在数据采集、信息共享与结果应用等方面实现高效协同,这需要相关部门通力合作,共同推进评估工具的构建与应用。第五,兼顾人工审核。在司法实践中运用再犯评估结果时必须提供必要的人工判断、审核与监管,以防范算法误判与偏差,为最终决策提供全面的判断依据。

(一)算法驱动的再犯风险评估的应用场景

传统临床评估模式下,再犯风险的评估依赖于专家个人的临床经验,由于评估准确性较低和专业人员的缺乏,再犯风险评估主要应用于有限的缓刑、假释等个案。随着精算评估表的出现,再犯风险评估的准确性得到进一步提升,再犯风险评估开始扩大至预防刑的适用,但仍依赖于专家的评估,因此实际应用再犯风险评估的案件仍旧较为有限。而算法驱动的再犯风险评估的主要优点在于其评估的准确性和高效性,机器学习算法在同等时间内可以处理更多数据,并从中找出复杂的关联因素和关联模式,所以再犯风险评估结果通常比传统的人工评估方法更准确。同时,自动化特性也大大提高了评估的效率,能够在短时间内评估大量的个体。因此,在再犯风险评估中运用算法驱动技术可以突破传统再犯风险评估的模式,进一步提高评估的效率和准确度,拓宽并丰富了再犯风险评估在刑事司法中的应用场景。

再犯风险评估在刑事司法中的应用场景较为多样,根据刑事诉讼的进展阶段可划分为以下四大应用场景:(1)强制措施的适用。在审前羁押阶段,检察官和法官可以使用再犯评估工具来评估被告人的再犯风险,更全面地考虑其再犯可能性,根据必要性原则综合考虑是否需要对被告人采取强制措施,确保合理地对待犯罪嫌疑人。(2)量刑决策。在判决过程中,再犯风险评估结果可以作为一个辅助证据,让法官对被告的人身危险性有更准确的认识。检察官在出具量刑建议书时,可以借助评估结果来提供更科学、客观的建议,有助于法官做出更符合实际情况和社会安全考量的量刑决定。(3)社区安全管理。司法行政部门可以对刑满释放的人员进行再犯风险评估,进而采取必要的监管措施以确保社会的稳定。(4)社区矫正措施。在社区矫正机构中,再犯风险评估工具可以用于监测和评估矫正对象的再犯可能性,为制定矫正计划和分配资源提供科学依据,从而提高矫正效果。由此可见,算法驱动的再犯风险评估工具在刑事司法应用中有广泛的潜力,但其应该被视为辅助决策的工具,而非单一的决定性因素,刑事司法决策仍须由法官和检察官等专业人员根据法律和证据作出。

(二)算法驱动的再犯风险评估的应用价值

提升评估效率,推动司法资源的经济性利用。“迟到的正义非正义”这句话揭示了效率在法律领域的重要性。算法驱动的再犯风险评估不仅是技术进步的体现,而且更深层次地凸显了效率在犯罪治理中的价值。算法驱动的再犯风险评估主要是对复杂化的犯罪模式、高再犯率、公平正义的需求以及社会资源有效配置等问题所作出的反应。随着科技的发展,犯罪方式和手段日益复杂化,例如网络犯罪、金融犯罪等新型犯罪,使得犯罪预防和控制工作的难度增加。算法驱动的再犯评估通过自动化处理大量的犯罪数据,利用机器学习和其他数据分析方法,提升再犯风险评估的效率。与传统的再犯风险评估相比,算法驱动的再犯风险评估工具能够自动阅览大量的法律文件,缩短人工审阅的时间,大幅提高工作效率1。

强化公正性原则,降低司法人员在裁决过程中的主观偏倚。传统的再犯风险评估主要依赖于法官、法医、临床心理工作人员的经验和判断2。他们通常会参考嫌疑人的历史纪录、家庭背景、职业等因素进行评估。然而,这种方法存在一定的主观性,可能会受个体偏见的影响。例如,法官可能会因为过于保守而高估了嫌疑人的再犯风险,而其他法官可能会因为个人价值观的影响而低估了嫌疑人的风险,这种主观性可能会导致“同案不同判”的现象发生。与人工判断相比,算法驱动的再犯风险评估可以有效减少主观误差与判断偏差,提高判断的准确性。有研究表明,算法驱动的再犯风险评估的准确性要高于临床心理工作人员和司法人员的判断3。这主要由于算法只根据事实和数据决策,不会受到个人价值观、情绪或其他主观因素的影响,同时算法可以综合考虑更多变量,识别再犯因素之间复杂的交互作用4。因此,从理论层面看,其可提供更客观公正和前后一致的风险评估。此外,算法驱动的再犯风险评估还可以进行持续学习和改进,以便更准确地评估再犯风险。但算法过度依赖历史数据也存在局限,在提高准确性的同时如何避免算法偏差与不公平仍需探讨。为实现再犯风险评估的广泛适用,需要开发具有公平性与透明度的算法模型,并结合专家判断不断优化与完善5。

优化刑事司法资源配置,提升犯罪治理精准度。算法驱动的再犯风险评估可以产生更精准的再犯风险评估结果,为合理配置有限司法资源提供科学判断的基础,提高资源配置的准确性与效能。首先,传统的资源分配方式往往受制于人为的判断和经验,导致资源使用效率不高。而算法驱动的再犯风险评估能根据个体的犯罪历史、社会经济背景等多元数据评估其人身危险性,有针对性地进行资源配置。因而,无论是治安执勤的警力投入,还是社区矫正机构的矫正资源,都能更精确地投向需求更迫切、风险更高的个体或群体,大幅提高资源利用效率。其次,基于精细化的评估结果,可以对不同再犯风险程度的对象制定差异化的监管与干预措施。将更多资源投入给风险较高的对象以采取更严密的监管,而对风险较低的对象则采取相对宽松的管理,以精准化运用资源。通过自动识别与分级管控高风险对象,实施个性化精准干预,以有效防范再犯风险,最大限度减少犯罪活动和危害。同时,基于精准的评估,可以设计更加个性化与针对性的矫治方案。这需要对不同对象采取差异化的教育、治疗与社会引导措施,进而能更好地改善其心理与行为问题,降低再犯动机与可能性,提高矫治资源的使用效益1。最后,传统的犯罪治理模式下,由于缺乏对个体差异性的深入理解,导致监狱行刑个别化的效果不甚理想。从预防性治理角度看,算法驱动的再犯风险评估能提前识别和管理可能的风险,使得犯罪治理能够从事后处置转向事前预防。这种模式的转变不仅可以减少犯罪的发生,减轻社会负担,也可以在一定程度上避免目标人群走上重新犯罪的道路。

及时反馈以修正刑事政策,降低再犯率。在再犯风险评估中运用算法驱动技术,能够为刑事政策的评估与修正提供科学的判断依据与参考框架。精细化的评估结果能用以检验现行刑事政策的有效性、针对性与公平性,为刑事政策调整与完善提供信息支撑,以满足刑事政策科学化的要求。同时,高频次的评估能促使主管部门及时发现刑事政策在实施过程中存在的问题并进行修正,其实时性与敏捷性也更能满足现代治理的要求,有利于刑事政策的长期稳定实施与持续完善。再犯风险评估工具为刑事政策的修正提供科学判断的基础,是实现“一体刑”理念的重要手段。通过跨部门合作与管理创新实现再犯评估工具的系统化构建与规范运转,这也是深化司法改革的重要内容与路径选择。

三、算法驱动的再犯风险评估的应用风险

算法驱动的再犯风险评估作为技术工具,在提升效率和中立性等方面具有显著意义。通过利用历史数据和算法模型,再犯评估工具可以区分风险等级,协助公安机关和司法机关制定应对措施,对社会整体安全和公共秩序的维护具有促进意义。尽管如此,再犯风险评估工具的应用也不可避免地引起了法律与伦理的争议,如:通过评估的统计学结果来限制个人自由是否正当,使用历史数据是否会加强已经存在的偏见,收集海量数据是否侵犯个人隐私等问题。算法驱动的再犯风险评估对刑事诉讼原理、刑事司法公正性以及评估对象权益保护的问题都存在一定程度的冲突,因此须审慎地检视可能带来的法律风险。

(一)冲击刑事诉讼原理

算法驱动的再犯风险评估打破了传统的惩罚模式,进而转向对犯罪的预防性治理,但这也为法律制度带来了重大挑战。具体而言,应用评估技术需对现有刑事政策进行调整,这关涉对法律理论的重新理解和应用。

再犯评估算法被用于决定是否限制人身自由是对正当程序原则的突破。例如,评估结果被用来回答这样的问题:“如果个体在审判前被释放,会不会再次犯罪?个体是否应该在审判前就被采取强制措施?”和“个体在假释期间应该受到多严格的监督?在假释期间再犯的风险有多大?”

再犯评估算法预测结果会影响缓刑和假释的监管级别,而且对审前羁押决定和量刑建议的影响也愈发凸显。即使能够建立一个完美而公平的再犯风险评估工具,仍需考虑个体因为尚未犯下的罪行而受到惩罚(要么被拘留,要么被监视)是否符合道德和公正。莫里斯和米勒认为,由于对未来行为的评估而增加的惩罚,只有在增加的惩罚是在不考虑评估的情况下自然合理的范围内,才是可以接受的2。

就预防刑法的立场而言,刑罚不仅仅是一种报应刑,更是用来确保未来安全的预防刑罚。从报应刑到预防刑的发展,意味着刑事司法行动从被动向主动转变。惩罚不仅基于个体罪行,还基于个体在未来社会的危害风险。因此个体不仅要为其所做的事情承担惩罚,还要为将来可能做的事情承担惩罚。事实上,个体不是因为自身可能会做什么而受到惩罚,而是根据统计学上的预期,具有类似特征的“平均”罪犯会做什么。当对自由的限制是基于再犯风险评估的结果,程序法定原则在一定程度上就被突破,监禁不再被看作是最后的手段而是使社会更加安全的工具。

应用算法驱动的再犯风险评估工具会削弱法官独立审判原则,涉及算法科学性、证据可信性、决策“黑箱”、量刑权转移以及潜在的偏见等认知难题。首先,再犯评估工具通常基于复杂的机器学习算法,其决策过程具有高度的技术性和复杂性。法官在有限的时间内很难深入理解和评估细节,难以对其进行全面的审核1。一方面,高效标签产生信任依赖,这是因为对技术细节的盲从可能导致法官过度依赖再犯风险评估结果2。另一方面,即便法官采取客观中立的立场全面审查评估结果,其技术封闭性仍有可能导致法官无法发现其中的隐性歧视。其次,再犯风险评估工具所使用的历史数据非常庞大,涉及大量的个人信息和案件数据,难以逐一审核,尤其是开发者可能不愿透露全部数据,导致难以核实数据的完整性和准确性。此外,再犯评估工具的算法和数据处理过程通常被视为商业机密,开发者可能不愿公开技术细节。以上要素导致难以全面审查再犯风险评估工具的决策过程,从而限制了对证据的深入了解和有效评估。再犯风险评估工具在量刑决策中的使用,也引发了学术界对量刑权的转移问题的探讨,法官的决定权被算法开发者以工具的形式“窃取”转移3。如果再犯评估技术在量刑决策中发挥重要作用,且由私人公司提供,则可能通过技术手段“垄断”量刑权,从而影响到法官自主评估案件的能力,进而侵犯了法官的独立裁量权4。因此,在应用再犯风险评估工具时,须进一步探讨如何平衡科学技术与司法决策的关系,以保障法官的独立审判权,并避免评估算法对司法决策的不当干预。同时,还需加强对再犯评估技术的研究,提供更为可信和可解释的评估证据,以提高其透明性和公正性。

应用算法驱动的再犯风险评估工具会消解有效辩护原则。有效辩护的核心要义在于双方对证据进行有效质证5。在美国人工智能化刑事司法应用第一案——卢米斯案中,再犯风险评估工具的应用导致对有效辩护的限制。卢米斯案中被告人Eric Loomis因抢劫和被吊销驾照等罪名而被判刑。在此案中,法庭使用了COMPAS系统来评估被告人的再犯风险,但被告人Eric LoomisBjw3FBpCsdb4wtNJD1bmbQ==未能获得COMPAS系统对其个人风险评估的详细说明6,导致其在受审时对评估结果的知情权受到限制,无法全面了解该工具如何对其风险进行评估,进而影响到对该项证据的有效质证。由于COMPAS系统的算法和数据处理过程被视为商业机密,辩护律师无法对其细节进行深入了解,导致辩护律师难以掌握评估结果的科学性和可信性。因此,辩护律师无法对这些证据进行有效质证,从而影响辩护的效果。由于评估结果直接影响被告人的刑期,上述限制可能导致被告人无法有效地行使知情权,进而影响辩护策略的制定和执行7。

卢米斯案凸显了再犯风险评估工具对知情权和辩护权的潜在限制。由于被告人和辩护律师无法充分了解评估工具的算法模型和数据处理过程,从而难以对评估结果进行有效质证,进而影响辩护效果8。在算法“黑箱”效应下,受评估人对评估结果难以提出有效质疑或申辩,如果无法理解形成评估结果的机制与理由,则难以指出评估过程中存在的问题或提供相反证据,被告则位于信息劣势地位,无法获得公平的辩护机会。因此,当应用再犯风险评估工具时,需要平衡科技进步和司法公正之间的关系,确保被告人和辩护律师能够获得对评估工具的充分了解,充分保障被告人的知情权和辩护权。

(二)算法评估技术引发的刑事司法不公

算法驱动的再犯风险评估工具中的隐形歧视会损害司法公正。数据是人工智能技术的基石,是人工智能技术运行的原料性基础1。再犯风险评估模型通常是基于大规模历史数据训练,包括个体的犯罪记录、社会经济背景等多类信息。历史数据中蕴含的社会结构性的歧视可能会被模型吸纳,并在评估结果中表现出来。比如,某特定族群由于已经存在的歧视而受到不公正的对待,且数据被记录并使用,可导致该族群在评估模型中被不公平地判定为高风险。这些工具的评估结果可能被作为假释决定等刑事司法决策的参考,产生对特定族群的歧视性影响,放大社会不平等现象。这不仅是理论的担忧,已有证据证明该歧视是客观存在于算法逻辑内的,例如COMPAS系统更有利于白人被告,类似条件下白人被告的再犯风险评估结果总是优于黑人被告2。美国前司法部部长埃里克·霍尔德认为,风险评估可能会加剧在我们的刑事司法系统和社会中已经非常普遍的无端和不公正的差异3。隐含在数据中的歧视所导致的不公平的司法决定会进一步挑战公平原则。如果再犯风险评估模型的结果存在偏见,影响法官的自由心证,将加剧社会不平等,对司法公正性产生损害,从而破坏公众对司法系统的信任度。

算法驱动的再犯风险评估工具的算法“黑箱”会降低评估结果的证据效力。算法“黑箱”效应对评估结果的准确性与可靠性产生直接影响。如前文中提到COMPAS系统可能对特定族群存在隐形歧视,但是公司以算法基础运行逻辑是商业机密为由拒绝公开算法原型,这使得“算法评估规制”成为“未公开的秘法”。一方面,算法“黑箱”效应导致使用者无法基于对算法基础运行逻辑的理解来预测再犯风险,也无法检验评估结论产生过程是否客观,所以难以检测评估结论的准确性,因此再犯评估结果的证据资格将在法庭上受到质疑。另一方面,如果无法公开算法的判断机制,则难以对漏报或误报情况及时进行检测和纠正,评估结果的准确性和公正性无法得到保障,进而影响其证据效力。准确性难以判断、无法进行有效辩护以及说服力不足等问题,可能导致评估结果丧失证据资格。解决算法“黑箱”效应需要发展可解释的人工智能技术,通过揭开算法“黑箱”以增强结果的透明度,有助于判断准确性和公正性,提高其作为证据的接受度和社会认可度。

算法驱动的再犯风险评估可能存在结果误差,误差率的高低直接影响到评估结果的准确性和公正性,进而关联个体权利和社会公正。误差主要来自两个方面:假阳性误差和假阴性误差。假阳性误差指的是将实际不会再犯罪的个体评估为高风险;假阴性误差则是将实际会再犯罪的个体评估为低风险4。两种误差都会对个体和社会造成负面影响。对个体来说,假阳性误差可能导致个体受到不必要的刑罚或限制,损害其人权;假阴性误差则可能使潜在的再犯者漏网,对他人和社会造成威胁。当假阳性误差较高时,可能会导致过度投资在对高风险个体的管理和防控上,而忽视了对真正需要帮助的低风险人群的投入。这不仅是资源分配的问题,更可能引发公众对刑事司法系统公正性的质疑和不信任,进而影响到社会的稳定和谐。

(三)敏感信息收集侵犯个人权益

从个人信息保护的角度来看,再犯风险评估工具的数据采集和使用涉及个人信息的收集、传输、储存和处理等环节,这些环节都需要符合隐私保护的相关法律规定。再犯风险评估工具的数据采集和处理往往涉及大量敏感个人信息,更重要的是这些信息并非由个人自愿提供,而是经由社会组织、行政执法机关和司法机关多方收集而来,因此可能存在个人信息在未经许可的情况下被使用的问题,进而侵犯个人的知情权和同意权1。此外,再犯风险评估工具中的算法和模型设计也可能导致个人隐私权受到侵害。由于再犯评估的算法复杂性和封闭性,个体难以了解个人信息在算法评估过程中是如何被使用的。此外,由于再犯风险评估工具通常由公权力机构掌控,从而加剧了个人隐私权受到侵害的可能性。从更长远的角度来看,再犯风险评估工具的应用可能导致个人在社会中受到过度监视,进而对个人的社会形象和机会产生长期负面影响。当被归类为高风险群体时,该个体可能会受到更频繁、严格的监视,甚至在没有实际犯罪行为的情况下受到不公正对待。这种过度监视和不公正对待可能导致个体陷入被歧视和排斥的境地,限制其在教育、就业和居住等方面的机会。因为被再犯风险评估归类为高风险群体,即使尚未再次犯罪,也可能受到机会的剥夺和社会的歧视,形成“评估决定命运”的局面2,突破比例原则的限制,引发社会对再犯风险评估工具合法性和公正性的质疑。

四、算法驱动的再犯风险评估的规制进路

我国作为一个幅员辽阔的国家,面临着复杂多样的社会问题,因此需要更加高效和精确的手段来进行犯罪预防和治理。算法驱动再犯风险评估工具作为一种技术工具,可以利用大数据和算法分析有效识别高再犯风险的人员,在推进慎捕慎诉慎押的刑事政策中发挥积极作用,以符合我国的发展目标和治理需要。同时,在刑事司法中引入算法驱动的再犯风险评估工具也伴随着一系列技术、伦理和法律上的挑战。因此,须客观看待再犯风险评估工具的价值及技术局限,保障法官的独立审判权,严格保障被告人的正当程序权利,适当兼顾当事人隐私权和个人信息权。在引入新技术的同时,必须构建配套的法律监管体系,以实现技术应用的规范化,确保司法制度的公正性不受侵蚀。

(一)构建多源数据共享平台

算法驱动的再犯预测工具的推行在数据方面存在三重困境:从数据获取与共享维度看,数据获取是推行再犯评估算法的基础,但由于涉及个人隐私和敏感信息,数据获取和共享面临多重困境。从数据质量维度看,犯罪数据的质量和准确性对评估结果至关重要。数据来源的不一致性、录入错误和信息遗漏可能导致数据质量差异。不同的地区或部门可能使用不同的标准对犯罪类型进行分类,导致犯罪数据不具备可比性,从而影响算法模型的训练和评估的准确。从跨部门的数据收集壁垒维度看,算法驱动的再犯评估需要整合来自公安、法院、监狱等不同部门的数据。部门之间在数据存储和格式方面存在不同的标准,因此难以直接共享从而造成信息孤岛。解决这一系列问题须制定统一的数据标准和共享机制,以促进跨部门数据协同和整合,确保评估模型的全面与准确。因此,建立跨部门信息共享平台是开发算法驱动的再犯风险评估工具的基础任务,平台的构建必须充分考虑数据的多样性、可靠性和合法性,以确保评估模型的准确与公正。

为建立跨部门数据共享平台,首先,须明确共享的目标和范围,确定所需的数据类型和来源,收集涵盖广泛要素的数据以建立全面的评估模型,包括个人档案、犯罪记录、社会再适应情况等,同时融合来自不同部门的数据,形成全面多角度的数据视角以便综合评估个体犯罪风险。面对数据标准化不足、一致性和质量较差等挑战,在整合不同数据源时须进一步运用数据科学、信息技术和数据治理等学科的理论和方法进行深入研究与应用。其次,确立安全可靠的数据共享平台至关重要。平台应遵循数据加密、身份验证和权限管理等原则,保障数据传输和存储的安全性,防止未经授权的访问和数据泄露风险。在数据共享过程中,制定明确的规则和标准是不可或缺的,即确保数据共享合法、合规且透明,并设立数据审查和审核机制。为保护个人隐私权,对敏感信息进行脱敏和匿名化处理,以对共享数据风险进行审查和评估,排除可能存在的偏见数据。再次,有效的人员培训和公众宣传也是建立跨部门信息共享平台的重要一环,员工培训将提高工作人员对数据共享规则和标准的认识与理解。持续改进和优化是确保平台稳健运行的关键,通过监测和评估及时发现问题并进行改进,保障跨部门信息共享平台的高效可行。通过不断完善平台构建机制,再犯风险评估工具在为司法决策提供更可靠支持的同时也推动了智能化技术在司法领域的进一步发展和应用。

(二)建立可解释的再犯风险评估算法模型

构建全要素且可解释的再犯风险评估模型是一项综合性的任务,其考量的因素至少包括评估算法的透明性、评估结果的可解释性、评估模型合法性审核这三个基本点。

首先,评估算法的透明性是可解释性的基础。从各国实践来看,由于算法工具往往由公权力机构委托私人公司开发,在庭审中,开发者往往以知识产权保护为由拒绝算法的内部结构和运作方式,因而导致算法的不透明1。如果预测算法的评估过程不被公开,那么无法对其进行有效理解和质证。英国模式的再犯风险评估工具实践开发为国际借鉴提供了思路,其Hart系统选择了公安与高校联合开发的模式,将再犯风险评估工具的核心代码和结构完全公开,打破了私人算法代码对可解释性的垄断2。

其次,再犯风险评估结果作为一项参考性的证据,其生成过程能否被解释将直接影响对此项证据的理解和有效质证,因此算法的可解释性至关重要。故在模型选择方面应优先考虑逻辑回归、决策树、随机森林等可解释性更强的模型3。这些模型能够提供对评估结果的清晰解释,使法官能够理解评估结果背后的推理过程,透过这些解释性较强的模型,能够深入了解评估中所参考的各因素的权重,从而更好地理解再犯风险评估结果。同时,可运用解释性技术如局部可解释性方法(LIME)4、SHAP值5等解释模型的评估结果,帮助理解评估的依据和影响因素。为决策者提供交互式界面,使其可以调整特征权重或查看不同评估结果,增加模型可接受度。最后,在评估工具中加入可解释模块是另一关键步骤。该模块可以输出各个再犯风险因素对评估结果的贡献度,通过这些解释信息,法官和专家辅助人可以更深入地审查模型的评估依据,从而提高评估结果的信任度和可靠性。

最后,定期对再犯风险评估工具进行合法性审核。对再犯评估模型的算法、数据采集和处理过程进行审查,以确保其准确性和可靠性。审查规则还应确保评估模型的建立和使用符合相关法律法规和伦理标准,防止模型受到歧视或偏见的影响1。例如,欧洲议会和理事会 (EU) 2016/679号条例第五条确立了收集数据时须遵循的原则2,第十条确定了为刑事审判收集数据时的主体限制。在欧洲刑事法院使用再犯风险评估工具之前,必须评估是否可以通过对数据主体的权利侵害较小的方式实现处理目的,以及处理特殊类别数据是否会对数据主体构成歧视风险。在评估过程中,须严格遵守相关的法律和伦理标准,保护个人隐私和权益。通过对构建的再犯风险评估工具进行评估和验证,确保其在实际应用中具有良好的性能,从而为社会安全和犯罪预防提供有益的帮助。

(三)完善被告人知情权和辩护权保障制度

保障被告人的知情权,须从数据访问权和算法公开两个关键方面着手。一方面,以权利限制权力,确保被告人对用于再犯评估的个人数据拥有访问权,充分告知其数据使用情况,并允许查看和验证数据的准确性。数据隐私保护也是必要的,要确保再犯评估只使用合法获取的数据,并遵循相关的隐私保护法律和政策,以保护被告人的个人隐私权。另一方面,以公开保障公平,通过算法公开,使被告人、律师、专家和公众有机会审查和理解评估过程,保障模型的透明性和可解释性。可解释的算法能够使被告人和相关人员理解评估的依据和影响因素。同时,算法和模型需经过独立审查,由独立的专家或组织评估其准确性和可靠性,公开审查结果有助于保障被告人知情权,透明性和数据隐私保护保障了使用数据合法和尊重隐私权,算法公开和独立审查则增加了评估模型的可信度和可靠性,增强了被告人对评估过程与结果的信任。

保障被告人的辩护权应当充分发挥专家辅助人的作用。面对算法驱动的再犯风险预测评估结果,由于专业知识的缺乏,被告人及其辩护律师难以从数据角度进行有效辩护。被告人可以聘请具有专门知识的人,特别是聘请在数据科学、评估模型等方面有专业知识的人提供针对再犯评估工具的专业辩护支持。这些专家可以从技术角度评估模型的准确性和可靠性,为被告人提供有效辩护3。首先,专家辅助人可以帮助被告人理解再犯评估模型的运作原理和评估结果的解释。这些模型通常涉及复杂的算法和数据处理,专家解释有助于被告人理解模型运作原理与机制,增强被告人对评估过程的理解和信任。其次,专家辅助人可以核实用于再犯评估的个人数据的准确性。数据的准确性对评估模型的有效性至关重要。专家可以对数据进行审查,确保被告人的数据没有错误或不实之处,避免因数据错误而影响评估结果。再次,专家辅助人的参与有助于解决评估过程中的争议。专家辅助人可以提供专业意见和证据以帮助解决相关争议,确保再犯评估过程的公正性和合法性。最后,专家辅助人还可以审查再犯评估模型的算法是否存在歧视,这种审查有助于确保评估模型不偏向特定人群,避免因民族、性别或其他因素而对被告人的评估结果产生负面影响。

(四)强化对法官独立审判原则的保障

明确再犯风险预测结果作为辅助性证据的定位。在再犯风险评估工具的使用中,需要明确再犯评估结果只是辅助证据而非决定性的证据①。再犯风险评估结果作为辅助证据,供法官在司法决策中参考,而不应成为单一或决定性的因素。明确再犯评估结果作为辅助证据,可以确保再犯风险评估工具在司法决策中的适当应用,避免过分依赖评估结果影响量刑决策的公正性。

建立对再犯风险预测结果的独立证据审查标准。再犯评估结果作为证据,其证据资格和证明能力都要接受法官的司法审查。在外国刑事审判实践中,再犯风险评估结果被视为新型科学证据并由法官在法庭上进行审核②。强调法官在审判中依法采纳量刑证据也是关键所在。法官应当在决策过程中全面考虑各类证据,包括再犯评估结果,才能确保决策的公正性和合法性,避免过度依赖评估结果而导致不当的量刑结果。通过明确再犯评估结果的参考性作用,建立严格的审查规则,强调法官依法审核再犯风险评估结果,可以确保再犯风险评估工具在司法决策中的正确应用,保障被告人的权益与决策的公正性,为司法系统提供更科学和公正的支持。

五、结语

人工智能在刑事司法中的应用具有广泛的潜力,数字技术在司法领域深耕融合趋势的广度和深度不断扩展。从各国司法实践来看,人工智能在刑事司法领域的应用已经呈现出不可逆转的大趋势,但必须谨慎处理与其应用相关的法律和伦理问题,以避免在司法领域产生负面影响并最大程度地提高正义和公平。算法驱动的再犯风险预测工具的应用,秉持中立性和准确性的基本内核,为评估犯罪分子的再犯风险提供了有效手段,并可以根据不同风险等级进行差异化管理,从而进一步优化刑事司法资源的利用。然而,在广泛应用算法驱动的再犯风险预测工具之前,必须认识和界定可能存在的法律风险,厘清其对刑事司法制度带来的冲击和挑战,界定其对司法正当性、公正性、准确性、可解释性的侵犯可能性,防范化解风险。在推动数字技术在司法领域运用的同时消解其对现行司法运作机制的冲击,提高对被告人人权保障,维护法官独立审判原则,确保数据采集的全面性、合法性与共享性,在数据获取方面建立原则性的法律框架,为司法系统公正高效运行提供科学和公正的支持。

责任编辑 杨 幸