APP下载

人工智能背景下刑事错案悖论及消解

2019-06-11马啸狄小华

湖湘论坛 2019年2期

马啸 狄小华

摘要:我国刑事司法人工智能建设已初具规模,能够确保刑事诉讼定性更为准确、查证更具针对性、程序更为高效、办案质量标准化,但随着技术的发展,也会产生削弱司法自主权、将被控告人降为诉讼客体、使证据审查出现不当倾向以及导致隐性歧视等负面风险,累积着发生刑事错案的潜在风险,与避免刑事错案的设计初衷形成“刑事错案悖论”。从悖论成因看,人工智能建设存在对人工智能地位定位不准、源头数据存在瑕疵、算法模型封闭难懂、保障机制建设缓慢、交叉领域人才紧缺等问题。要消解该悖论,应尝试从人工智能定位、数据、算法、学习技术、保障机制等角度建构刑事错案风险防范机制。

关键词:案管机器人;被控告人客体化;算法释明制度;智能化系统故障

中图分类号:D9 文献标志码:A   文章编号:1004-3160(2019)02-0037-12

引言

近些年,人工智能与刑事诉讼日益融合,相关技术被广泛运用于刑事司法领域。以美国为例,“在刑事法律领域,人工智能主要运用于一般的警务活动、羁押必要性审查以及量刑后假释等活动中”;[1]110在我国,刑事司法人工智能虽然起步较晚,但“几乎涉及刑事诉讼的所有阶段”“可以介入任何层次、任何环节的刑事司法判断”。[2]刑事司法人工智能在国内的蓬勃发展,与国家的高度重视是分不开的。2017年7月,国务院发布《新一代人工智能发展规划》(以下简称《国务院规划》),提出要“围绕社会综合治理、新型犯罪侦查、反恐等迫切需求,研发集成多种探测传感技术、视频图像信息分析识别技术、生物特征识别技术的智能安防与警用产品,建立智能化监测平台”和“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”;最高人民法院、最高人民检察院、公安部也分别制定了深化智慧法院建设(《关于加快建设智慧法院的意见》和《人民法院信息化建设五年发展规划(2016-2020)》)、智慧检务建设(《关于深化智慧检务建设的意见》和《全国检察机关智慧检务行动指南(2018-2020年)》)、公安信息化建设(《关于大力推进基础信息化建设的意见》和《关于推进公安信息化发展若干问题的意见》)的指导意见及发展规划。在上述国家规划的基础上,中央及各地积极探索,较好地发挥了刑事司法人工智能在规范办案行为、维护合法权益、提高诉讼效率、实现公平正义方面的作用。但也应看到,我国刑事司法人工智能建设并非尽善尽美,还存在着许多问题与不足,制约了其积极作用的进一步发挥。因此,有必要对我国刑事司法人工智能运作情况进行一番探究,以发现一条问题与风险的应对之路。

一、建设现状:百花齐放下的共同路径

近年来,我国刑事司法人工智能建设涌现出了一批创新成果,如北京市高级人民法院“睿法官”系统、北京市人民检察院“检立方”系统、上海刑事案件智能辅助办案系统(以下简称“上海206系统”)、苏州智慧审判系统、江苏省人民检察院刑事办案智能辅助系统(以下简称“江苏案管机器人核心系统”)以及贵州贵阳政法大数据办案系统。其中,上海、江苏、苏州研发的系统或系中央直接部署,或受到上级肯定推广,典型性较强,故能够反映目前我国刑事司法人工智能建设的共性特征,或者说是共同路径:

(一)建设思路由简到繁

面对各类案件体量不一、繁简不一的实际情况,各地多采取较为稳妥的方式,即从事实查证难度小、因果关系明确、数量大的案由入手,以降低初始建设难度,并为后续罪名拓展积累经验。如上海206系统初期只涉及故意杀人罪、盗窃罪、非法吸收公众存款罪、诈骗罪(电信网络诈骗)4个罪名,[3]江苏案管机器人核心系统虽然计划继续研发盗窃、抢劫、诈骗、容留吸毒、强奸、故意伤害等6个罪名的辅助系统,最终实现占当前全省侦查监督、公诉约70%的日常办案量的智能化,但目前也仅涉及交通肇事罪、危险驾驶罪2个罪名。[4]

(二)以重复机械性工作为突破口

各地系统将减轻基层办案人员重复机械性工作负担作为推动刑事办案智能化的突破口。办案流程方面,上海206系统为法官提供远程审判、手机办案事务安排、当事人材料与诉求回复等29项移动办公服务,[3]苏州智慧审判系统则为当事人提供网上立案、远程阅卷等诉讼服务;案件记录方面,苏州智慧审判系统能够在庭审中自动识别发言者并对录入结果自动纠错、排版,确保庭审发言情况如实反映,大大减轻了记录人员工作负担;案件审查方面,上海206系统依据统一证据标准和证据规则指引,“对每一个证据收集程序以及形式、内容进行自动校验,生成审查结论,提示办案人员进行补正或说明”,[3]江苏案管机器人核心系统则依據人工提炼总结并事先录入后台的交通肇事、危险驾驶案件的程序、证据和事实层面的审查规则及比对点,对案件信息、电子卷宗等要素进行一键抓取、智能审查,筛选出疑似存在问题的案件,自动推送给检察官进行重点监督,实现了期限预警、风险预警、办案活动出错提醒;法律文书制作方面,江苏案管机器人核心系统能够自动生成检察官办案所需要、仅需其简要填写和修改的讯问提纲、补充侦查提纲以及案件审查报告、起诉书、量刑建议书、检察建议书、纠正违法通知书、出庭预案、庭审笔录等法律文书;诉讼材料流转保管方面,苏州中院建设纸质诉讼材料智能管理云平台“云柜系统”,通过将线下实体柜和线上虚拟柜连接起来,自动对所有纸质材料编码,并对材料流转情况进行全程跟踪留痕,形成包括存取件人员、时间及地点等信息在内的流转档案备查。

(三)采取自上而下的学习方式

现阶段,囿于案件数据分散杂乱、质量参差不齐,各地研发的系统多数采取自上而下的半监督学习方式。以上海206系统为例,该系统从公检法案例库中所有同类型案件审理报告和卷宗中提取证据信息,按照法定证据种类和法律、司法解释及各地审判经验中的证据规范分类整理,提炼各类证据的收集程序、形式要件、内容要素和不可采情形,最后形成统一的证据标准、证据规则,进而构建证据训练模型、预定机器学习规则,同时还组织业务骨干对扫入系统的卷宗内容进行精细化标注,通过专家知识的介入,为机器学习提供优质样本。

二、悖论的提出:刑事司法人工智能的硬币两面

(一)刑事司法人工智能的正面效应

刑事司法人工智能建设借助自然语言处理、大数据分析等人工智能技术,通过类案推荐、量刑辅助、偏离预警等功能模块,给刑事诉讼带来以下四方面的积极影响,推动刑事办案工作由零散转向整体综合、由闭塞转向资源共享、由粗放转向系统集约:

1.定性更加准确。刑事司法人工智能通过提取新办案件情节,与数据库登记的案件情节进行比对,选择其中最为类似的案件推送给办案人员,并同时附带推荐类似案件的适用法条、争议焦点、主要证据等,以帮助办案人员对案件进行准确定性。借助对既有经验的参考借鉴,办案人员出现定性不准情况的概率将大大下降。

2.查证更具针对性。刑事司法人工智能使得查证手段大数据化和智能化,尤其是在查证作案手段隐蔽、无他人见证的犯罪时,通过对嫌疑人资金流水、行踪轨迹、体貌特征、日常习惯等信息的多维度排查比对,由案到人、再由人到案,如此循环反复,能够更容易发现犯罪线索、固定犯罪证据,确保公安司法人员主要注意力集中在案件定性、查证方向判断以及查证手段选择上。

3.程序运作更为高效。刑事司法人工智能将人工智能技术运用于网上立案、网上查询案件进展、远程讯问、网上阅卷、网上批捕、网上接访、庭审公开、质量监督、智能穿戴等多个方面,将之前需要花费在路途、纸质材料流转、手续呈递报送等环节的时间大大压缩,为当事人提供方便、维护其合法权益的同时,有效节约了司法资源,提升了办案效率。

4.办案质量标准化。刑事司法人工智能在办案伊始,就以公检法三部门统一的证据标准、证据规则为基准,督促公安司法人员按照法律规定、法定程序、统一标准办理刑事案件;在办案过程中,其通过预置风险比对点,对疑似问题案件进行自动筛选、预判,并实时提醒公安司法人员哪些案件、哪些环节存在实体、程序、证据上的问题;临近案件办结时,其凭借强大的记忆、检索、识别能力,通过类案推送、量刑预测、偏离度预警等模块,为刑事案件处理提供相对统一的评价标准,最大限度避免处理畸轻畸重和“同事不同处、同案不同判”等情况的出现。

(二)刑事司法人工智能的负面风险

刑事司法人工智能目前产生的主要是积极影响,负面效应尚不明显,这与当前“法律人工智能仍属一种统计型、经验型、材料准备型、文字模板型的弱人工智能,低效且适用范围窄”、[1]121易为人类掌控有直接关联。但在不久的将来,随着人工智能技术的发展,种种负面风险会逐漸显现。彼时表面上,人工智能的建设者、使用者、适用者还是人类,其设计、使用、改进过程仍离不开人类的意志、经验、技术,但实际上只是“以为算法只是顾问,最终的权威还是掌握在人类手中”[5]的错觉罢了。因为人工智能技术越发达,人类独立判断意愿就越弱,对其依赖度就越高,对其判断、决策就越可能习惯性服从,此即所谓 “算法霸权”。具体来说,其将从以下方面引发刑事司法人工智能的负面风险,甚至酝酿着发生刑事错案的可能:

1.削弱司法自主权。刑事司法人工智能的技术服务提供者一般是公安司法机关外的公司企业,带有较为鲜明的服务外包色彩,必然渗入独立于公安司法理念之外的技术设计理念。随着技术的进步,技术服务提供者设计的系统,会对公安司法人员产生越来越大的影响,如果不加干预,甚至会成为左右公安司法人员作出判断、决策的决定性因素,这在一定程度上影响了公安司法人员专业角色的发挥。而且,对案件事实进行查证,在非人工智能时代,是以人类制定的法律为依据,通过人类组成的控辩审三方组织,围绕争议焦点开展辩论,针对证据进行质证的一系列步骤的总和,是人类经验智慧和逻辑理性的结晶;而人工智能时代来临后,由于技术因素的掺入,案件事实的查证过程并非完全由人类掌控。目前,在业已开展司法人工智能实践探索的地区、部门,被控告人的命运可以说已或多或少受到了技术、机器的影响,只是程度上有所差异而已。该种变化,实际上是工具理性对人类理性的一种侵入,将对司法意义有较大的消解作用,在合理性上存在着难以解释的伦理障碍,即人可以决定人的命运,但技术、机器能否决定人的命运,换言之,也就是决定人的命运的是否只能是人,是否可以是人之外的其他物体。该伦理障碍的存在,直接动摇到司法自主权的哲学基础。

2.将被控告人降为诉讼客体。人工智能深度介入刑事司法领域后,公安司法人员如果不正确看待其角色,过度迷信其作用,或出于习惯性服从,或出于稳妥考虑,直接将人工智能作出的判断、决策作为最终的判断、决策,就可能将被控告人降为诉讼客体,进而导致工具理性的独大。该客体化倾向具体表现为被控告人无从参与人工智能结论得出过程,无从知晓结论得出机理,无力对结论进行辩驳、无力更改错误结论,进而丧失对自身命运的发言权,只能任由他人掌控。该倾向危害甚大,不仅严重侵害被控告人诉讼参与权、知情权、救济权等正当诉讼权益,还会从根本上动摇控辩双方平等对抗格局,消解等腰三角的稳定诉讼构造,进而导致案件处理的准确性和公安司法机关的公信力下降,故应当引起有关部门的警惕。

3.使证据审查出现不当倾向。人工智能过度介入刑事司法,可能导致证据制度两大问题:首先,证明标准出现客观化倾向。2017年年初,中央政法工作会议明确提出“运用大数据技术,形成操作性强、可数据化的统一法定证明标准”。换言之,“操作性强、可数据化”将是未来刑事证明标准的重要特征。由此带来的问题是,“如若将‘操作性强、可数据化视作未来刑事证明标准改革的目标,那么,无论是操作性强还是可数据化都意味着未来努力的方向是增强刑事证明标准的客观性”。[6]究其原因,皆因主观证据难以判断和把握,而客观证据天生具备“操作性强、可数据化”特征,未来在人工智能证据审查过程中所占权重必然上升,因此刑事证明标准客观化倾向也将愈发明显;其次,法定证据主义复归。制定公检法三部门统一的证据标准、规则、程序有其积极意义,但同时也会带来法定证据主义复归的风险。这是因为,司法人工智能按照既有经验来收集、审查证据,假如其使用者只知机械搬用,而不加以具体判断,就可能忽视某些特殊证据或者证据中的某些特殊因素,而这些证据或因素往往又与定罪量刑有着密切联系,一旦没有纳入考虑范围,就可能导致“具体问题不具体分析”,造成机械司法的后果。

4.导致隐性歧视。应当明确的是,大数据本身存在代表性不足的问题,即“大数据往往是由网络活跃群体产生的数据,而活跃群体只是一部分,非活跃群体的信息、想法、行为模式等难以通过大数据反映出来,因而大数据不能代表不依赖、少依赖网络或其他可记录电子设备的人群”。[7]对于刑事司法人工智能来说,亦存在着大数据代表性不足的问题。具体来说,人工智能系统中的外部生活生产数据主要涉及网络活跃群体的有关情况,系统自有数据及其衍生数据主要反映犯罪分子的基本情况以及前科劣迹、作案细节等情况,而对网络非活跃群体、无犯罪记录人员的有关情况,无法予以全面反映。以羁押必要性审查以及量刑评估为例,人工智能是在对案件库中已有被控告人的性别、年龄、民族、籍贯、学历、职业、家庭背景、体貌特征等诸多特征归纳提炼的基础上,建立算法模型,借助大数据分析技术对现被控告人再犯可能性进行评估。导致的直接后果就是,之前具有类似特征的人再犯情形越多,具有该特征的人就越有可能被羁押或者处以更重的刑罚,即所谓的“数据画像”。可见,“算法模型的建立是依据经验法则的,法律AI本身其实是另一种形式的经验证据;长期使用会有过度重视‘专家的经验证据的风险”。[8]56亦即,该种数据画像使被控告人陷入经验主义和犯罪标签的窠臼,长远来看,会对个人复归社会和社会综合治理造成不良影响。

综上,刑事司法人工智能存在硬币两面,兼具正反两方面功效。一方面,其建设思路、过程控制以及结果实现均将避免刑事错案作为追求目标之一,实践中也确实起到了一定错案避免效果,但另一方面,人工智能建设还存在着诸多问题,且随着技术的发展,“算法霸权”现象会越来越明显,这累积着刑事错案风险。此即刑事司法人工智能面临的两难情形,可称为“刑事错案悖论”。

三、悖论的成因:人工智能建设存在的问题

(一)对人工智能地位定位不准

实践中存在着一种倾向,那就是过分夸大人工智能作用,将其视为解决刑事司法存在问题的灵丹妙药。实际上,解决刑事司法问题的关键在于人,重点在于机制,人工智能在其间只适宜承担辅助决策的角色,这是因为:

1.从司法伦理来看,人的命运交由机器或者技术主导并不合适。如前所述,随着技术的发展,人类会不自觉地陷入数据算法的无形掌控中。在这种掌控中,人类自以为对算法结果进行着自由选择,其实却承受着“算法霸权”风险,即人类的选择是以算法事先提出的选项为前提,在算法限定的路径内进行的。而遍观历史,人类社会作为地球上唯一智慧生物组成的综合体,创造了无数璀璨的文明成果,其中最重要的就是发现了人之所以为人的真谛——唯有人才具备超越动物本能的“人性”。康德认为,人之所以有尊严,乃是因为人不同于动物,这种不同就在于如亚里士多德所说,人是有理性的动物,人也是有道德意识的动物。[9]上述尊严、理性、道德就构成了“人性”的重要内容。而将人的命运交由机器或者技术主导,某种程度上无视“人性”的存在,将人降格为“物”,既是不尊重人的尊严和自由、理性和道德的表现,又是对人主观能动性的忽视和对人妥善处理综合体内部事务能力的怀疑。也许,大数据预测可以为我们打造一个更安全、更高效的社会,但是却否定了我们之所以为人的重要组成部分——自由选择的能力和行为责任自负。[10]207实际上,要真正尊重“人性”,就应将人的命运交由人去决定,而非是人之外的其他物体,其他物体至多只能成为提供参考意见的辅助工具。也只有充分发挥人的主观能动性,才能抵御工具理性对人类理性的入侵,才能建立起公安司法机关与公民间的信任。

2.从发展水平来看,现阶段刑事司法人工智能尚不能满足多情形下的任务要求。首先,人工智能能否在信息非充分場合表现良好仍存疑义。众所周知,刑事诉讼过程是一个去伪存真的开放过程,所涉信息繁多杂乱、真假难辨、流动不息,故对案件事实的事后回溯实际上是控辩双方在信息非充分条件下的一种博弈。遍数目前人工智能表现明显胜过人类的场合,还是以棋类运动等信息充分场合居多,其能够在信息非充分场合如扑克、麻将、电子游戏[11]、股市等有出色表现尚需时间的见证。而且,目前人工智能建立在既有数据环境基础之上,面对已知情境往往运行良好,但遇到新情况、新问题则有可能不知该如何处理,即发生“过拟合”现象,所以即便是信息充分场合,当面临新情境时,人工智能也可能表现失常,如韩国棋手李昌镐在与Alpha Go第四局对垒过程中下出被称为“神之一手”的白78手,直接导致Alpha Go面对没有计算到的变化时出现混乱并犯下低级错误而输掉比赛;其次,人工智能缺乏人类作出判断、决策的综合能力。本杰明·卡多佐指出:“如果我们乐意,我们也许可以将法官的任务想象为一个翻译者的工作,他阅读着外部给予他的符号和记号。”[12]换言之,公安司法人员对案件事实的查证是一个多方接受案件信息,并按照人类认知模式而非机器语言重构事实的过程。与人类相比,人工智能暂时欠缺演绎、关联、联想等事实重构能力,更遑论按照人类认知模式对证据关联性、证明力等问题进行有效审查。例如,证人证言提及抢劫者系黄发男子,嫌疑人被抓获时又恰好染有黄发,人工智能会判定该人犯罪可能性较高,但假如该人在背景调查库中被登记为理发业从业人员,公安司法人员会依此调低其犯罪可能性,而人工智能缺乏这种即时应变能力,无法主动关联“黄发”与“理发业从业人员”之间的逻辑关系,更不会因此调低被抓获者的犯罪可能性。同时,影响司法判断、决策的因素有很多,除犯罪构成要件等常规因素外,还包括社会、情感、道德、价值等特殊因素。考虑到现阶段司法人工智能的智能化程度,要求其对上述因素进行考量,将刑法谦抑性、宽严相济刑事政策、刑罚个别化处理等理念体现在判断、决策过程中,并对判断、决策可能产生的社会影响进行预估,显然不切实际;最后,人工智能决策、判断仍然存在出错可能。刑事诉讼因其特殊性质和可能造成的影响,对错误的容忍度极低,而当前尚无一种人工智能技术和算法能够保证判断、决策的准确率达到100%,如“一项研究显示,在被算法预测的未来两年内实施暴力犯罪的人中,仅有20%实施了暴力犯罪。就算范围扩大到所有犯罪,算法预测的正确率亦仅有61%”[8]55。再考虑到人工智能审查证据时可能出现的客观化倾向,故“我们冒险把罪犯的定罪权放在了数据手中,借以表达我们对数据和我们的分析结果的崇尚,但实际上这是一种滥用”[10]195。为最大限度降低人工智能可能引发的刑事错案风险,明确人工智能之于人脑判断的辅助地位,显得既必要又紧迫。

(二)源头数据存在瑕疵

一方面,由于认识不到位、责任心不足、任务繁重、收集手段滞后等主客观原因,收集人员收集的“数据的质量可能会很差;可能是不客观的;可能存在分析错误或者具有误导性;更糟糕的是数据可能根本达不到量化它的目的”,[10]210根据人工智能“垃圾数据产生糟糕结论”的定律,据此作出的判断、决策的可信度存在较大疑问;而且,收集人员对有些本可结构化收集的数据没有采用结构化收集方式,所收集到的数据杂乱而无序,又为后期的数据整合汇总、分析处理带来了难题。另一方面,深度学习的案件样本质量和代表性存疑。具体来说,人工智能将既有案件数据作为其深度学习的训练集,尽管案件样本数量不少,但未做到全量学习,现有学习对象仅限于本地区、本部门所掌握数据,且因区分案件办理质量优劣,既缺乏统一标准,又需耗费大量人力、物力、时间,亦无法保证优量学习;同时,目前人工智能涉及罪名还较为有限,后期要拓展至更多罪名的话,不可避免会遇到部分类别犯罪案件的样本较少即数据颗粒度过小的问题,而该问题之所以成为问题,主要是因为小样本学习得出的规律性特别是相关性难以令人信服,难以在实践中使用。

(三)算法模型封闭难懂

刑事司法人工智能作出的判断、决策是否具有价值,取决于算法模型是否科学、准确。但目前人工智能算法还存在以下三方面缺憾,影响到人们对算法科学性和準确性的信任:首先,科学性缺乏评估机制。当前的探索实践多以地方为主,自上而下的全国统一部署较为罕见,导致各地、各部门就同一事项设计的算法缺乏统一标准,变量的选择带有地区、部门、团队色彩,得出的结论出现偏差,进而导致同一情况因所在地区、所属部门、所用系统的不同而获得不同的处理。且算法设计完毕后、投入使用前,缺乏对其科学性进行评估的相关机制,算法投入使用后,亦无相关机构对公安司法人员如何使用算法模型给予必要的指导;其次,“黑箱”效应明显。人工智能技术服务公司为保守商业机密与保护知识产权,怠于公开算法内容,造成算法“黑箱”效应明显,与刑事司法公开透明的要求相抵触。对于算法内容,不仅被控告人不知晓,甚至连主办案件的公安司法人员也不甚清晰,且有关结论得出过程并未纳入被控告人,某种程度上侵害了其正当诉讼权益,不可避免引发公众对案件办理过程透明性的质疑。并且,算法作为影响被控告人刑事责任举足轻重的因素,不向当事人以及公众公开,值得商榷,这也是导致被控告人在诉讼过程中客体化的重要因素。可以预见,被控告人未来必然会以此对这种不确定风险进行抗辩。美国威斯康星州已经发生过一起典型案例——威斯康星州诉卢米斯案,该州法院使用COMPAS系统(中文全称为“罪犯矫正替代性制裁分析管理系统”)作为量刑的部分依据,但“由于COMPAS的研发公司要保守其商业秘密,所以只有对再犯风险的评估结果报告给法庭,而缺乏具体的评估过程记录”,[13]被告以法官侵犯了其量刑个别化对待和依据准确信息获得判决等两项权利上诉至威斯康星州最高法院。最后,验证标准及手段欠缺。刑事司法人工智能目前所使用的主流算法是深度学习算法,即使将该算法的代码、公式全部公开,也无法展示其具体计算过程,更无法让当事人、公安司法人员预知或者理解算法结果。换言之,当人工智能的判断、决策作出后,由于算法的专业性,当事人和公安司法人员缺乏对该判断、决策的合理性、科学性乃至唯一性进行验证的标准和手段。

(四)保障机制建设缓慢

当前,我国刑事司法人工智能建设总体上还处在起步阶段。这一阶段的发展应以为刑事执法办案提供基础服务为目的,以数据的深度运用、算法的不断改进和功能的优化调整为重点。上述发展目的及重点的实现,离不开相关保障机制的建设。对于当事人合法权益、数据安全等保障机制,目前已有所涉及,但大多是规定在仅具有内部约束力的内部工作规则中,并未为相关法律法规所涉及,且内容比较粗疏、不成体系,由此导致当事人缺乏与人工智能结论平等对抗的诉讼武器,控辩平等对抗的等腰三角结构在一定程度上遭受破坏;更有甚者,如智能系统故障情形下的责任追究机制,理论界虽已注意到,但实务界还未纳入考虑视野。

(五)交叉领域人才紧缺

刑事司法人工智能建设还存在一个突出问题,就是“懂法律的不懂技术,懂技术的不懂法律”。具体来说,一方面,公安司法人员对法律知识、办案技巧、案件流程较为熟悉,但对人工智能技术了解不深,存在专业隔膜,对采取怎样的技术方式来表达、释明、总结法律问题“未窥门径”,而且由于缺乏统计学、经济学等相关领域的知识,对已有数据资源亦未充分加以整合利用。针对这一点,已有学者指出目前法学教育存在的一大问题,就是“法律已变得非常深地混合了其他领域的方法和洞见,并且法学院还要走很长的路才能克服大多数法学院学生令人羞耻地回避数学、统计、科学和技术的现象”;[14]另一方面,人工智能技术提供者囿于法律专业背景的缺失,对公安司法人员提出的目标以及要求,难以从法律层面上进行理解和把握,难以将法律运作规律通过技术方式表达出来,进而导致建设的刑事司法人工智能功能与基层一线实践需求产生偏离。

四、悖论的消解:建构刑事错案风险防范机制

人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。[15]

(一)明确刑事司法人工智能的辅助地位

该辅助地位不是暂时性的,而是永久性的,即无论刑事司法人工智能未来发展到何种程度,即使其已完全超越人类智能,仍然应当作为辅助办案系统而存在。这不是技术方面的要求,而是伦理和刑事司法准确性方面的要求。因此,应根据刑事诉讼工作性质和内容,将其划分为重复性、机械性、事务性工作和价值判断性、结论性、裁判性工作。其中,第一类工作,如案件受理登记、电子卷宗制作、提审讯问记录、阅卷摘录、法庭记录、电子送达、数据排查、统计分析等,可以尽量交给人工智能完成,以减轻公安司法人员机械工作负担,使其能够将更多精力投入到智力、脑力判断上来;第二类工作,如侦查方向判断、证据收集审查、出庭公诉、庭上智辩、自由心证、裁定判决、法律服务等,应当以人类为主体完成。同时,人工智能的介入程度应当与案件的轻微程度、简单程度成正比,如果被控告人同时还认罪认罚,那人工智能的介入深度就应更深,这是因为此时不公正风险发生概率较小,完全可以优先考虑效率问题。此外,使用人工智能对某事项作出判断、决策,并不代表公安司法人员对该事项就不用作出判断、决策,因为人工智能的辅助地位还表现在其作出的判断、决策可以与公安司法人员形成一种比照监督,以最大限度避免刑事错案风险的出现。

(二)注重源头数据的收集工作

大数据是刑事司法人工智能的基础,是充分发挥人工智能作用的前提。首先,尽可能多地收集数据。事实上,数据的异质性使多样化之于大数据的意义远远大于大容量的贡献:大容量数据的特点是比抽样统计更为精确,但异质数据还能挖掘、分析出更有价值的结论。[16]而目前刑事司法人工智能使用的数据多为政法机关自有数据和衍生数据,多样性还较为有限。因此,有必要从国家层面或者在国家支持下,采取购买或者交换的方式,获取工商、银行、医疗、教育、社保、交通、民航、住建、房管、有价证券、网购、外卖、票务、寄递业、社交媒体、在线地图、共享单车、网约车、出租车等信息,与已有的公安、检察、法院、司法行政信息进行整合,并按照各部门工作需要进行审批与授权,为违法犯罪预测、犯罪侦查、公诉、审判、刑罚执行、社区矫正提供全面的数据服务。其次,尽可能地确保收集数据的准确性。尽管牺牲数据的准确性有助于获得技术处理效率上的快捷性,但数据准确与否,直接关系到人工智能作出的判断、决策是否准确,且刑事司法对当事人及其家庭影响重大,故应确保收集的数据尽可能准确。这就要求:对已经能够采取结构化方式收集的数据,要进一步细化该类数据的收集项目和项目要素,确保收集的数据尽可能详尽。对尚未实现结构化收集的数据,要改进语音识别、图文识别、語义识别和实体识别等技术手段,确保数据识别更加精确和便捷,如无法适用上述技术的,应至少保证将数据留存在云存储空间;对其中的非结构化数据,如图片、视频、音频、办公文档等,现阶段由于技术所限,只能依托人工进行审查;而对半结构化数据,则在将其划分为结构化部分以及非结构化部分后,应采取结构化和数据留存相结合的方式收集,以及结构化和人工相结合的方式审查。最后,注重收集数据的全面性。近年来,社会上发生一系列案件,如陆勇代购印度抗癌药案、天津老太摆地摊打气球案等,展现了公众与公安司法机关在认知上的截然对立,受到了公众的普遍质疑。究其原因,与公安司法人员机械执法、未全面考量案情有很大关系。在人工智能时代,要避免上述情形的发生,源头阶段就应注意数据收集的全面性、客观性。因此,应对个案进行特殊把控,在填清一般要素的同时,将特殊要素一并录入。对于要素选项中暂未收录的特殊要素,应准许公安司法人员自我创设。待后台相似要素积累到一定量级,有关部门应及时整理固化,并作为要素复选项供公安司法人员选填。后期在人工智能开展证据校验、类案推送、量刑预测、偏离预警时,公安司法人员应特别关注特殊要素是否已经纳入考量。

(三)完善算法的设计与应用

大数据的拥有者只有基于大数据建立有效的模型和工具,才能充分发挥大数据的价值。首先,控制设计主体资质。应对设计算法的公司企业实施门槛准入制、进行资质分级认证管理,即从事人工智能研发的公司企业必须取得人工智能研发牌照,且牌照上应当注明该公司企业所获批的研发资质和范围。具体资质的设计,可以按照公司企业的研发能力,将人工智能公司企业分为一级、二级、三级研发单位。其中,一级研发单位可以单独研发某人工智能项目,二级研发单位可以在其他研发单位配合下为主研发某人工智能项目,三级研发单位则只能作为协作研发单位。其次,对算法进行科学性评估。算法设计完毕、投入使用前,应当经具备合法资质的独立第三方机构进行科学性评估,谨防出现主观片面、系统性歧视等现象,投入后遇有重大情况(如刑事政策变更、法条修改等),或者虽无重大情况但达到再次评估时间,应当立即进行评估,并及时做出调整。需要说明的是,通用算法的设计最好由中央政法机关组织进行,唯此才能减少同一算法因各地、各部门数据内容、考虑因素不同而存在差异,才能确保“同案同处、同案同判”。再次,建立算法释明制度。考虑到算法模型具有独创性、独占性、财产性特征,确实属于有关政法机关及研发公司企业的智力成果,理应作为知识产权进行保护。但是鉴于社会公众均是潜在的刑事追诉对象,刑事诉讼与公众利益紧密相关,因此不适宜将算法模型单纯地作为知识产权进行排他性保护。比较合适的做法是采取区别保护的方式:一方面,当与特定刑事司法人工智能无关、与特定刑事案件无关的机关和公司企业对有关算法模型进行窃取、抄袭和未经许可使用、传播时,应当将该算法模型作为知识产权进行排他性保护;另一方面,刑事案件办理过程中,人工智能使用机关应当主动制作人工智能决定说明报告,详细列明人工智能工作原理和算法总体设计思路、考虑因素、代码及程式等内容并附卷备查,此外,当控辩双方有一方申请人工智能使用机关释明使用算法模型,人工智能使用机关应当依申请,根据所处阶段的不同,在申请人签订保密承诺书的前提下,视情采取书面答复或者出庭的方式予以释明,除依申请释明外,人工智能使用机关还可以依检法部门通知视情采取上述方式进行释明。最后,确保算法可验证。即控辩双方通过提出疑问或者异议,验证算法模型科学与否。由于被控告人的异议权在下文将详细论述,故在此仅探讨公安司法机关、被害人提出异议的情形。具体来说,检察机关在审查批准逮捕、审查起诉期间对公安机关,法院在审判期间对公检机关人工智能决定存在疑问时,可以要求人工智能使用机关向检察人员或者审判人员演示验证,演示结果如果与先前决定内容存在实质性差别,那么检法部门应当以决定内容不具有唯一性不予采信;被害人对公安司法机关人工智能决定存在异议的,可以向检察机关提出。

(四)优化现有深度学习技术

我国刑事司法人工智能借助深度学习技术,较好地完成了现阶段刑事办案智能化任务。但也应当看到,司法人工智能采用深度学习技术并不彻底,大多为自上而下的半监督学习,与自下而上的无监督学习相差甚远,一定程度上带有专家系统的痕迹,自动化、智能化程度稍显不足,且采用的深度学习技术也比较单一,以深度神经网络为主,这制约了司法人工智能实践效能的进一步发挥。因此,应当对现有深度学习技术进行优化,尝试引入更多深度学习技术,如生成式对抗性网络、强化学习、迁移学习等;同时,在大数据和云计算能力的支撑下,实现对既有刑事司法数据的全量学习,以数据相关性研究为切入点,深入探究隐藏在海量数据背后的刑事司法规律,逐步推进自下而上的无监督学习,继而提升司法人工智能的智能化水平。至于使人工智能具备逻辑推理甚至自我意识等目前人类所独有的高级认知功能,应是未来人工智能发展过程中需要着重考虑的问题,而非当下最紧迫的任务。[17]

(五)加强保障机制建设

首先,通过法律赋予被控告人选择适用权、请求专家帮助权、知情权、异议权、诉讼抗辩权等,其中部分权利也应当赋予被害人。应先明确仅有嫌疑人、被告人认罪认罚的轻微刑事案件需要强制使用人工智能。当被控告人、被害人有一方反对人工智能作出的决定时,公安司法机关经审查不属于上述强制使用案件范围的,就应当将决定所涉事项改由人工判断的方式作出。之所以如此确定强制使用案件范围,是因为这类案件性质不太严重、事实相对稳定,当事人事先对其罪名和刑罚予以认可,故人工智能的判断、决策不易出错,且被接受的可能性较高。考虑到被控告人对人工智能可能了解甚少,所以应当允许其聘请专家作为《刑事诉讼法》第192条规定的“有专门知识的人”为自己提供咨询和到庭协助解决专门性问题;当被控告人申请公开或者释明人工智能作出决定的依据、过程时,公安司法机关应当在被控告人签订保密承诺书的前提下,将人工智能工作原理、算法总体设计思路、算法考虑因素、算法代码及程式告知被控告人;当被控告人在检察院审查起诉、法院庭审阶段对人工智能决定内容提出异议时,检法部门应当要求人工智能使用机关对被控告人内容予以书面答复,必要时要求人工智能使用机关向检察人员演示或者当庭演示操作(当庭演示的,由控辩双方围绕争议焦点当庭进行质证),演示结果如果与先前决定内容存在实质性差别,那么检法部门应当以决定内容不具有唯一性不予采信;被控告人可以将算法不公开透明或者算法某类考虑因素涉嫌歧视作为抗辩理由。其次,保证数据安全。要保障数据的安全,关键就是做好权限管理、留痕回溯、责任追究三项工作。详言之,就是对刑事司法人工智能数据进行分级定密,严控数据网上流转范围,研究制定有关数据使用管理条例及实施细则,严格审批、管理人工智能及其关联系统使用权限,对公安司法人员的每一次登陆、操作都要留痕备查,并研发异常情况实时预警模块进行监督管理;当发现危害数据安全情况时,应根据严重程度及时进行责任追究。最后,建立智能化系统故障情形下的责任追究机制。现阶段刑事司法人工智能尚处低人工智能阶段,因此过错责任主体只能是人工智能使用机关。至于是否要追究相关办案人员的责任,建议按照办案人员与智能化系统故障间因果关系的有无、强弱来进行判定,只要不是故意、重大过失造成的,即使属于普通过失,也不应当追究个人责任。同时鉴于办案人员对系统性歧视的发生主观上不存在过错,故不建议以该理由对公安司法人员进行追责。

参考文献:

[1]左卫民.关于法律人工智能在中国运用前景的若干思考[J].清华法学,2018(2).

[2]黄京平.刑事司法人工智能的负面清单[J].探索与争鸣,2017(10):85.

[3]陈健.上海“智慧法院”建设再升级:非法吸收存款等罪名案件已进入新系统试运行[N].上海金融报,2017-10-31(A13).

[4]卢志坚,等.江苏人工智能与检察办案深度“碰撞”[N].江苏法制报,2018-03-02(1).

[5][以]尤瓦尔·赫拉利.今日简史:人类命运大议题[M].林俊宏,译.北京:中信出版集团,2018:46.

[6]李训虎.刑事证明标准“中体西用”立法模式审思[J].政法论坛,2018(3):128.

[7]左卫民.一场新的范式革命?——解读中国法律实证研究[J].清华法学,2017(3):59-60.

[8]李本.美国司法实践中的人工智能:问题与挑战[J].中国法律评论,2018(2).

[9]王福玲.康德尊严思想研究[M].北京:中国社会科学出版社,2014:65-66.

[10][英]维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代:生活、工作与思维的大变革[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013.

[11]机器之心.面对最菜TI战队,OpenAI在Dota2上输得毫无还手之力[DB/OL].(2018-08-23)[2018-12-01]https://www.jiqizhixin.com/articles/.

[12][美]本杰明·卡多佐.司法过程的性质[M].苏力,译.北京:商务印书馆,1998:109.

[13]朱體正.人工智能辅助刑事裁判的不确定性风险及其防范——美国威斯康星州诉卢米斯案的启示[J].浙江社会科学,2018(6):77.

[14][美]理查德·波斯纳.法官如何思考[M].苏力,译.北京:北京大学出版社,2009:192.

[15]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学:西北政法大学学报,2017(5):134.

[16]徐骏.智慧法院的法理审思[J].法学,2017(3):56.

[17]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(1):134-142.

责任编辑:杨 炼