论司法场景下构建算法可解释机制的思路与原则
2022-03-18徐寅晨陶怀川
徐寅晨,陶怀川
(西南政法大学 人工智能法学院,重庆 401120)
一、问题的提出
在技术的推动下,算法作为人工智能时代的基石,正深刻地影响着社会治理的方方面面。新时代社会治理的现代化离不开司法治理的现代化,我国司法系统选择以开放包容的心态主动将算法纳入司法运行体系,以期引导算法良性参与司法活动,助益纠纷解决。自2015 年最高人民法院提出“智慧法院”建设伊始,以算法为底层技术的智慧法院建设正式试点布局,其旨在凭借算法技术的强劲发展,提升司法参与社会治理的效能,达到“破解改革难题,提升改革效能”之目的。最高人民法院更是在2019 年发布的《人民法院第五个五年改革纲要(2019—2023)》中提出:“建设现代化智慧法院应用体系”。目前典型的已有最高人民法院“类案智审推送系统”、贵州法院“政法大数据系统”、上海法院“刑事案件智能辅助办案系统”等成果。以算法为基础的智慧法院建设将逐步迈向纵深。
然而,以审慎著称的司法领域自然将不可避免地受到来自于算法技术的冲击。算法是指,在数学和计算机科学之中,一个被定义好的、计算机可施行之指示的有限步骤或次序,常用于计算、数据处理和自动推理。广义的算法作为一种决策运行方式与程序,其概念早已渗透人类社会治理数千年,而狭义的算法与人工智能技术相结合便显现出一定的技术壁垒,尤其是在算法技术于司法领域中应用热潮方兴未艾之时,需要关注到算法自身特性对司法领域带来的冲击。由于技术的高度专业性和算法构成的复杂性,司法领域的算法呈现出算法设计者与算法使用者相分离的特点,法院所应用的底层算法系统大多采用外包方式,通过“技术专家+法律专家”的方式进行设计和构建。技术的高度专业性以及构成的复杂性使得算法一经成型便具有了黑箱特性,在事件输入和决策结果的输出之间存在着人们无法洞悉的隐层,也因此无法向当事人完整解释决策过程。由此带来算法辅助决策过程与法官心证过程混同,算法黑箱特性与司法公开冲突,算法决策结果问责机制不明确等问题。是以,因此需要探究一套行之有效的方式,以平衡算法运行的“难以捉摸”与决策出现的“不可接受”之间的矛盾。针对司法领域算法运行的法律规制,包括从算法技术层面的算法公开、从当事人角度的个人数据赋权以及法律规则抑制算法歧视等维度进行,但上述进路的问题也尤为突出,算法公开对司法裁判领域个人当事人心理特质考虑甚少,而个人数据赋权进路,通常当事人在数据收集之时就含混不清,在数据处理之时更加难以行使其反对权,审视抑制算法歧视进路,发现其在数据层面存在着有效数据匮乏和算法使用与设计分离的问题。
从司法场景的应用需求出发,算法可解释性机制可以发挥维护法官主体性、保障当事人公正需求、提升司法权威的功效,在此前提下,算法可解释性机制作为司法场景中算法法律规制的一种方法被学界所注意。作为一种有效手段,人工智能研发者对算法作出必要解释被特别强调[1],在司法裁决中,凡涉及自主研制系统,都应提供一个有说服力的解释[2],由此观之,这一原则已经为越来越多的人认可和接受。在司法领域纠纷解决语境中,“可解释”意在向受自动化算法决策影响的相关人释明为该算法决策的合理性和正当性,使决策结果被相对人信服和接受。2018年,欧盟《通用数据保护条例》(GDPR)以1995 年欧盟数据指令为蓝本,在“鉴于”部分第71 条和正文第22 条针对基于算法的“自动化决策”赋予个人干预的权利,允许其表达的观点,在评估后获得该决策的解释,以及对决策提出质疑[3]。欧盟会议智库2019 年发布《算法决策:机遇与挑战》报告,将“可解释性”视为决策系统中的关键议题。在全球范围内影响深远的《伯克利对人工智能面临挑战的系统性观点》,亦将“可解释性”视为人工智能算法“适时、稳健、安全”的核心要素。在司法领域纠纷解决语境中,“可解释”意在向受自动化算法决策影响的相对人或相关人释明为该算法决策的合理性和正当性,使决策结果被相对人信服,达致可接受的目的。
司法领域中算法可解释性机制的构建是一项系统工程,需要结合算法技术未来发展趋势和司法领域自身特质两方面的情况进行构建,对可解释性机制构建的总体思路与原则依循进行清晰界定,是司法场景下算法可解释性机制具体路径形成的基础。 本文立足于算法技术与司法决策的融合,明确算法在司法决策中的辅助性定位,探讨算法司法辅助决策的解释理念及方法原则,以期为算法技术助益司法治理科学路径的形成提供参考。
二、算法可解释性机制构建的总体思路
(一)以场景化规制为核心理念
场景理论从社会学中发展而来,原是为研究和解释后工业经济社会的诸多现象而设立。场景理论不断发展、完善和更新,具有更强大的理论包容性,成为了一套新的学术范式,用于社会问题分析的诸多领域。例如针对个人信息保护发展出了场景公正理论,在算法法律规制问题上,提出根据不同场景建构不同的规制方法。以场景化规制为核心理念,符合当前算法法律规制的发展趋势。算法规制应立足于场景化规制理念基础之上,因为算法之法律属性会因具体应用场景的不同而有所变化[4]。在民事案件场景中,诸如机动车交通肇事案件、房屋租赁案件、劳动争议案件等案情简单、争议不大的案件解决过程中,算法能够进行深度地介入,甚至自动生成预测裁判结果;然而,刑事案件中的定罪量刑场景,比如刑法种类的确定、有罪或者无罪判决的作出,需要由法官独立进行判断。原因在于,从技术层面考量,算法技术并不能准确实现此种需求,从当事人以及社会层面考量,定罪量刑由机器作出难以被接受,此外,此种决策将对传统司法体系带来的巨大冲击。司法场景下应用的算法有可能生成算法司法决策,有可能对当事人权利造成重大甚至决定性的影响,此时,算法的法律属性更接近于正当程序。然而,当算法不介入公权力机构,仅在一般私人领域应用时,其法律属性又接近于商业秘密。由此可见,不宜武断的直接确立算法的法律属性为何,而要根据应用的具体场景,综合算法发挥的具体作用、对社会的影响等因素进行综合考虑。
(二)以可信任为首要目标
实现算法的可信控制是算法治理的核心任务[5],算法司法决策要真正获得司法工作人员、当事人、社会大众的理解和接受,必须是可信任的。算法可解释性机制构建的目标即是:当算法司法行为或者决策被质疑之时,经由可解释性机制阐明算法决策的合理性和正当性,同时在解释的交互过程中,向用户展现算法是可理解、可靠和可控的。当用户感觉到该算法更公平、更负责任、更透明、更易于解释时,他们便会认为它更值得信赖和有用[6]。常见的三种信任机制分别是,基于行动者自身特征的信任、基于交往经验的信任和基于制度的信任[7]。事实上,法律作为一种以国家强制力为后盾的社会治理机制,本身也是一种制度信任机制[8]。社会民众在基于制度权威的认同和信任理解的认同的基础上[9],不断增强对司法的制度信任。但此种信任也具有脆弱性,从当事人角度观之,算法司法行为或者决策也是司法权运行的一部分。决策结果的正当、正确与否关系着法院司法公信力和司法权威,而司法公信力很大程度上源自司法的确定力和说服力,然而即使是实现案卷电子化、提取卷宗文字等事务性工作也可能在功能实现中出现错误,导致司法形象和司法公信力在当事人信念中的削弱。更遑论算法深入介入司法应用场景,进入到事实认定环节。如果没有充分的信任,算法司法决策在应用过程中会争议不断,故而,算法可解释性机制构建应当以可信任为首要目标。个案当事人追求纷争高效、公平的解决,对公平正义的追求是当事人提起诉讼的重要动因。通过算法解释与当事人对话沟通能够有效提高当事人对算法司法决策的信任度。
三、算法可解释性机制构建的原则依循
算法司法决策可解释性机制的构建,需要将技术与司法制度资源充分融合,结合司法领域的场景化需求进行设计。从算法可解释性机制的目的和司法现实出发,我们认为,支撑算法可解释性机制运行的原则包括以下方面:
(一)解释的公开性原则
“司法公开、透明是现代司法的基本原则,并对现代司法公信力、司法权威有着决定性影响”[10],一般来说,司法公开是国家机关主导的自上而下的向公众公开的司法活动,推进司法公开是人民法院的重要工作,是保障人民群众知情权、参与权、监督权和表达权的重要途径和方式。司法公开的核心要义是揭开人民法院司法活动的“神秘面纱”,把司法的过程和环节同其结果一起“晒”出来,让民众看得清楚和明白[11]。算法可解释性机制与司法公开具有天然联系,算法司法决策可解释性机制构建是司法公开原则的必然要求,也可以说是以用户需求或者当事人需求为核心的互联网思维推进来司法公开工作。目前,各级人民法院以建设“智慧法院”“电子法院”为契机,大力推动司法公开与“互联网+”的跨界融合,算法可解释性机制与司法公开具有价值目标一致性的特点,二者致力于用最低的成本,展现复杂决策的过程,使司法审判的结果更具合理性,保障民众的信息知情权,进而对决策的质效进行控制[12],以回答算法决策相对人对算法生成决策结果的正当性拷问,并增强当事人对司法审判的结果更具可接受性。以此方式,公众方可了解司法运行的过程,知晓审判结果的由来,不仅有益于维护司法权威,亦对公众起到了教育、警示的作用。从技术融合应用发展的角度看,司法决策中的算法是司法决策数据化的需求与计算机程序相结合的产物[13]。公众对司法的信任建立在司法公开的基础上,随着智慧法院体系建设的纵深发展,算法司法决策应用场景的不断扩展,受到当事人质疑与挑战的可能性也将不断增加,故此,稳定的算法可解释性机制将成为算法司法决策不可或缺配套措施。
(二)解释的辅助性原则
辅助性原则是充分权衡算法技术应用特质和算法可解释性机制构建目的得出的结论。首先,算法依据特定计算模型将数据转化为可预期结果,以精确的编码程序和高效的识别、运算能力体现出极大的工具价值[14],且算法作为基础设施逐步嵌入各平台和社会治理之中,将不同要素相链接,扮演运用于不同场景下供人类进行决策依据选择的中介性角色[15]。故而,出于算法本身所具有工具价值、算法运用于现代社会各领域所发展出的中介性角色,以及算法无法理解决策者精神性、价值性内涵的考虑,算法的解释自然也居于结果作出解释的一部分而非全部,且是辅助性的一部分,目的在于衔接机器提供决策依据与最终结果之间所不被常人理解之处。故在智慧司法场景下,算法可解释性机制应定位于发挥“辅助性”之功效,其是基于与如今、乃至较长一段时间内人工智能技术介入司法的有限性相适配所做的考虑。如此,辅助性原则下的算法可解释性机制可起到助益现今智慧法院体系建设,提高司法效能,提升审判质效之用。其次,算法黑箱是算法技术的最大特点,构建算法可解释性机制事实上是为了打开算法黑箱而做努力,但在技术上必须考虑的现实问题是,对于算法决策的解释不能一味追求技术上的庖丁解牛,因为司法领域中的算法可解释性机制必须虑及纠纷解决成本,节约司法资源。算法自身的黑箱特性及其在现今和较长一段时间内运用于智慧法院场景下的辅助性定位,对于算法参与的结果解释场景中,不宜过度消耗社会资源和司法资源。算法解释的目的是让当事人在其权利义务受影响时,知晓提供决策的算法是如何运作和对结果如何产生的影响即可,并非“事无巨细”地告知当事人在理解上存在天然鸿沟的技术细节。事实上,法律只关心有关权利、义务、责任的问题,故而法律上所需要的解释只是对人工智能的部分重要内容进行解释[16],故算法可解释性机制服务于司法场景的智能提升要以法院需求和当事人接受度为界。在当前以及未来一段时间内,当事人和社会对人工智能技术和机器审判的接受还需要长期的过程,故而将算法技术运用定位于司法辅助工具是准确和适宜的[17]。
(三)解释的相对性原则
相对性是指,可解释性机制框架下的算法解释保持“相对透明”即可,这是技术发展现状与司法现实需要决定的。算法的不透明性是与生俱来的,任何人工智能都不是完全不具有可解释性的,它们都是在一定范围内具有相当程度的可解释性[18]。囿于技术壁垒,法官及当事人均不一定能理解算法原理和计算细节,一味地公开算法,使之达到绝对透明的程度,不仅无益于算法对象(当事人)的权利保护,亦增加讼累。试图解释算法内部运行的每一处细节机制和作用成因的做法在司法领域并不适用。原因在于,其一,随着算法领域的核心技术日益更新、不断加深,即使是算法的设计者也很难说清数据输入与结果输出这一中间过程具体是如何作用以及发生的。其二,即使从技术层面作出了解释,但程序意义大于实质意义,算法细节对法官与当事人来说仍然是难以理解的。算法解释的侧重点在于相对人或社会公众对算法决策的可理解性,解释的难点更多在于以通俗易懂的方式解释算法决策的原理、决策树和逻辑关系等[19]。其三,技术解释时间上迁延日久,技术上成本较高,与使用算法追求效率的初衷不符。鉴于算法的特性,即便强制要求算法公开,也只能做到有限度的算法透明[20]。在“司法公开”视野下,尚有因涉及商业秘密、个人隐私、未成年保护等内容而不予公开,作为公开程度弱于司法公开、且天生打着商业秘密保护伞的算法[21],更毋庸做到详尽的解释、苛求彻底的公开。
(四)解释的层次性原则
“层次性”是指,算法的解释之于不同场景、不同对象以及具体解释时,所需面向的具体范围。算法解释的内容涉及数据的抓取、数据的运算、各数据对结果的输出影响所占的比重等,有学者指出,依照全样本数据原理,数据体量越大,越容易对不确定的事项作出判断,也就越能总结出结构化的规律[22],故而数据选取的体量也用在层次性的考虑范围之内。算法解释不同于因果关系解释,其更多的是一种“相关性”解释[23],是对多因素作用下各环节、各要素所起不同比重的解释,且不同场景,解释范围亦多有不同,因此算法的解释应当有一定的“层次性”。算法的解释对象也分为向当事人解释(主要)、向法官解释、向社会公众解释等;而“层次性”即要求算法在进行解释时,应当根据不同主体、不同时机,层次分明地进行解释,而不是以“什么都说,大锅炖”的方式进行解释,正如有观点指出,算法解释应当区分解释权的权利主体——自动化决策使用者与相对人,且当自动化决策使用者无法提出具体解释时,算法开发者具有解释义务等,并将算法的解释分为事后的具体解释和事后的更新解释等[24];具言之,层次性原则下的算法解释应注意如下方面:一是数据抓取层次,要求真实、全面地阐明被质疑案件的初始数据,包括事实要素和法律要素、对应之法律规范、相应的法律特征等;以及对数据提取的体量进行说明,以免不同地区不同数据而适用了同一套解释方法,进而导致算法解释的实质不公。二是作用比重层次,要求准确解释主要数据要素对算法结果所产生的影响何在,各要素所占权重比例以及关联度和相互关系。三是具体解释层次,根据解释场合和解释对象的不同,落实解释的专业性。各级人民法院进行细化解释时,在专业性方面,可以定期组织专家进行专业解答,或在系统设计之初,留有备案进行说明,仍解决不了的疑难问题,由定期举行的专家论坛处理解决。
四、结语
可以预见到,在未来的数十年中,科技与司法将进行更深程度的融合,算法也必将从工具型定位向分析型定位迈进。我们认为,人工智能有可能出现“五过之疵”,与人类串通、勾结,进行权力寻租,司法场景下的算法辅助决策必须在监管之下运行,算法可解释性机制即是监管运行的重要组成之一,以场景化规制为核心理念,以可信任为首要目标作为可解释性机制构建的总体思路,以公开性、辅助性、相对性、层次性为可解释性机制的原则依循,将有助于消除智慧法院建设路途上关于智能系统介入裁判领域的疑虑,同时为具体的算法可解释性机制的构建打下基础,形成程序保障与实体规范并重,解释主体、解释标准、解释内容明确的可解释性机制。算法可解释机制原则的确立,不仅保证了算法司法决策场景下相对人的正当程序性权利,亦将大大提升相对人对裁判结果的可接受度,这无疑将从较长一段时间的视野里助力于智慧法院的发展,使算法辅助决策真正成为助益于司法阔步于新时代社会治理领域的车之轮、鸟之翼。