技术赋能:人工智能的司法适用及路径优化
2024-04-27龚逸
龚逸
摘 要:随着人工智能技术的不断成熟,人工智能与司法领域的结合度日渐紧密。在人工智能司法化的过程中,人工智能发挥着协助证据开示、促进规范量刑与释放司法活力等作用。然而人工智能在司法适用时也面临着一些问题,如引发民众对司法公正的质疑、冲击法律人的主体地位、司法数据的泄露隐患等。欲消除人工智能所附带的不利影响,可从算法公开与算法监管、人工智能司法适用的二元分割,以及强化数据管理等层面进行技术优化,进而提高人工智能的司法适用效能。
关键词:人工智能;司法适用;算法监管;算法公开
中图分类号:D926;TP18 文献标识码:A 文章编号:1671-9255(2024)01-0043-06
一、问题的提出
智慧法院的建设离不开人工智能与司法审判的融合,二者的结合得益于两股力量的内外驱动,分别是法院内部的建设需求与人工智能在司法领域的渗透。[1]前者体现在,随着公民权利意识的增强与民商事交易的频繁,人民法院的受案压力随之激增,“案多人少”逐渐成为困扰法院建设的现实问题。根据国家统计局公布的数据可知,人民法院一审收案数量从2011年的759.61万件激增至2021年的1822.69万件,收案数量呈现稳步增长趋势。[2]此外,根据全国法院司法统计公报显示,我国法院尚未审结案件的数量从2020年的210.02万件上升到了2022年的289.36万件,涨幅近40%。[3]审案压力激增的背后,还伴随着立案登记制对受案条件的放宽、员额制对法官人数的限制等影响因素,传统的法院审案结构已然无法跟进群众的诉讼需求。后者则体现在,人工智能的司法化趋势已然成为不可阻挡的洪流,从最初的消极适用转变为如今的积极面向。人工智能的司法价值最初是在个案适用中被发现,它能够在数据分析、类案检索等层面极大提高司法人员的审案效率,因而在审案人员中广受欢迎。
信息技术与司法实务的深度融合不仅打破了诉讼必须在“法庭”这一场域内进行的固有模式,还在审判环节与司法管理环节进行了技术改造。[4]人工智能在司法领域的适用前景极为可观,理论界多数学者对其持有赞同态度[5],甚至有学者认为它能够帮助人类文明实现当代跃迁[6],但也有学者认为这打破了常规的审判方式与司法程序,易产生智能司法与现存司法制度不相协调的状况。[7]诚然,在深化司法体制改革、推行高效司法的背景下,人工智能司法化能够迎合现阶段的司法诉求,但如何规避因此可能导致的司法工具主义倾向值得深思。本文旨在对人工智能的司法适用前景进行分析,并对其可能引发的司法风险进行解构,以期在“抓住机遇”与“防范风险”间寻找到一个微妙的平衡点,提高人工智能司法化的运行效益。
二、人工智能的司法适用前景
(一)协助证据开示:“示意证据”的生成
“示意证据”是指为解说原证据或案件情况而出示的证据材料[8],通过图片、模型、动画等可视性材料对案发现场的环境或事实加以模拟,对言辞证据或实物证据的证明目的加以补强[9]。“示意证据”并不是来源于案件的“原始材料”,本质上属于对其他证据内容的补充或阐释,因而并不属于法定的证据种类。“示意证据”是英美法系上的概念,在英美法系中适用比较广泛。例如,在英国审理的一起刑事案件中,控诉方通过对受害人的头部进行X光扫描,并利用3D打印技術将其头颅的受损状况用模型展现出来,以此使法官能直观注意到受害人被损害的事实。[10]我国司法领域也有类似的应用,如北京一中院于2018年3月1日审理的一起故意杀人案中,北京市检一分院使用“出庭示证可视化系统”进行了证据展示,要求目击证人戴上VR眼镜,通过操纵手柄还原凶案现场情况。[11]毋庸置疑,这种方式能够加强法官对证人证言的直观感受,使案件证据从零散化、碎片化的散乱状态呈现为整体化、链条式的有机整体。
人工智能司法化的过程能进一步促进“示意证据”的生成,拓宽“示意证据”的生成方式与适用类型,从而释放司法活力与提升证据审查的科学性。“示意证据”在司法领域的运用包括但不限于以下几点:其一,以文本的形式对待证事实进行说明。例如通过对证明材料加以收集与整合,生成特定的格式文本,辅助司法人员了解案件事实。其二,以雕塑、模型等形式还原特定有机物的受损状态。如前文所述“示意证据”可通过X光扫描、3D打印等方式对受害人的受损状况进行立体展示,从而达到说服法官的目的。“示意证据”同样也可以运用到人身损害、医疗损害纠纷等民事案件上来。毕竟,对于审理案件的法官而言,相对于向其提供一堆病历资料,其说服力可能也远不如直观呈现在他面前的“事实”有效。
(二)辅助规范量刑:“量刑幅度”的参照
司法公正离不开裁判尺度的统一,裁判尺度的统一有赖于量刑规范化的实现。人工智能对量刑的辅助作用并非理论设想,而是早有实践支撑。例如湖北省检察机关自2018年以来持续研发智慧刑检办案系统的子系统——智能量刑辅助系统,致力于实现“规范计算+态势分析”的整体功能设计,以期解决检察官所面临的提出精准化量刑建议的难点问题。[12]人工智能辅助量刑的基本逻辑体现在:司法人员输入案件基本信息→人工智能对案件事实进行甄别、索引、分析→生成量刑建议的参考范围→承办人员进行选择。
此外,诸如海南省的“量刑规范化智能辅助系统”、贵州省的“法镜系统”和上海市的“智能辅助办案系统”等都包含了人工智能辅助量刑的核心功能。[13]智能量刑辅助系统的优势体现在:其一,可操作性与实用性较强。司法人员在个案适用中输入案件指令时,辅助系统可在后台运行的过程中针对案件事实进行详尽梳理,针对案件存在的法定或酌定量刑情节,如自首、立功、累犯等进行调配与分析,依据对应的法律规范来智能导出量刑建议书或裁判文书。司法人员可依据生成的量刑建议样本进行相应裁量与更正,最终确定量刑建议书的内容。其二,量刑过程趋于精细与科学,且具有可视化特征。量刑辅助系统对量刑建议的生成需要经过以下几个步骤,从确定罪名的基准刑到根据量刑情节调节基准刑,再到得出案件的量刑幅度。在此期间,量刑过程可通过计算方式与影响因子以可视化的形式显示于界面,司法人员可通过肉眼直观感受到量刑建议得出的全过程,便于司法人员进行及时纠错与精准校正。其三,司法裁判尺度得以有效调节。量刑辅助系统以案件事实为基本依托,通过对互联网公布案例的数据进行分析与类案参照,减少因地域化所产生的量刑差异的影响。该系统根据个案的事实与量刑情节自动匹配最高司法机关、各省市审理的相似判决和法律文书,为司法人员提供办案指引与量刑参照,有效维护法秩序的统一性。
(三)释放司法活力:“诉讼方式”的变革
随着人工智能司法化步骤的不断加快,由人工智能为技术支撑的“智能导诊”“快捷立案小程序”为各级人民法院所普及,当事人可以直接通过微信小程序而“足不出户”地完成立案工作。对于立案材料有所欠缺的,人工智能会通过系统界面告知其补足。对于立案材料较为复杂且人工智能无法进行识别的,系统在及时反馈至后台后由人工方式予以解决。其次,以人工智能为支撑的立案辅助系统可以及时收集当事人留言,便于发起满意度调查,了解各类案件的特殊情况与即时反馈,提升对个案处理的准确度。在诉讼文书制作层面,人工智能可生成的文书类型十分全面,从起诉书到量刑建议书,再到裁判文书等等。例如上海市徐汇区法院引进的“诉状一体机”,当事人可利用这台机器实现常规诉状的自动生成。[14]苏州法院推行的“智慧审判苏州模式”,智能系统针对案件类别自动区分,提取与制作电子卷宗,一键式生成简易裁判文书类型,提高部分文书的制作效率。[15]
人工智能生成法律文书的逻辑在于,率先对案件事实与证据进行提炼,再到数据库中检索相近似、相匹配的法律法规,参照以往的判例与文书的格式类型,从而生成相应的法律文书。这种模式不仅能够大幅减轻律师、基层法律服务工作者的工作压力,也能缓解人民法院因“案多人少”所引发的文书写作负担。
三、人工智能的司法适用困境
(一)技术维度:算法难题引发对司法公开与
司法公正的质疑
1.算法黑箱:与司法公开理念背道而驰
算法黑箱,是指存在于人工智能深度学习的输入与输出之间,难以为外界所观察、理解的隐层。算法黑箱主要存在于以下几类情形:其一,因公司商业秘密或者国家秘密而产生的不透明性。其二,因技术文盲而产生的不透明性。其三,从机器学习算法的特征以及在算法测量中产生的不透明性。我国目前的司法人工智能系统一般是由司法机关委托给人工智能公司得以实现的,而人工智能公司研发的算法本身便具有知识产权的属性,无论是出于技术保护或商业秘密的目的,它们往往会将这类算法进行保密。当人工智能运用至司法裁判活动中时,考虑到其算法使用的是一种黑箱式的方式,它的工作机理无法被解释或者验证,很难说明该判决的依据和判断过程,存在“机器所归纳的裁判模式、裁判标准可能连操作主体都难以理解”的窘境。[16]司法裁判并不是一个唯结果论的过程,真正让判决产生信服力的往往是法官的释法说理工作。可以试想,当社会公众得知法院的裁判过程不再是基于司法人员严格进行的“三段式”演绎推理,而是基于对所谓算法“隐性决策”的盲目信任,而这种“隐性决策”的过程既不会公开,更无法接受当事人的质询与申辩,那么司法的公正性与权威性难免会受到侵蚀。
2.算法歧视:与司法公正理念南辕北辙
算法歧视指的是人工智能算法在收集、分类、生成和解释数据时产生的与人类相同的偏见与歧视,包括且不限于种族、性别、年龄、就业和弱势群体歧视等现象,更在消费和行为分类上表现出区别对待。人工智能算法在司法领域的运作机制是基于对在先判例的学习,通过经验总结来进行预测性判断[17],而算法在汲取裁判经验的过程中难免会受到法官的价值偏见影响,进而在裁判时面对不同群体、不同种族、不同职业等表现出来。
虽然人工智能努力在司法裁判领域扮演着客观中立的角色,但算法歧视来源的多样性使得其在算法设计之初难以被全部清除。基于算法黑箱的存在,司法人员在后续算法运作的过程中难以有效检验算法歧视是否存在,而算法结果便是在这样的质疑过程中得出。在人工智能司法化的趋势下,算法歧视的隐蔽性使得其在司法裁判领域中难以为人所察觉,而它所暴露的风险却会加剧社会群体间的对立,进而诱发对司法公正的质疑。
? 1.思维庸化:自我意识的封闭
我们最初是将人工智能作为辅助手段加以适用的,根本无法联想到它能代替我们作出决策。而当我们逐渐接纳并习惯了这种方式后,人类的“惰性”促使着我们放弃自我思考的能力。长此以往,人类的主观创造力与语言组织能力都会发生退化,自身的思维空间将会趋于封闭。
对于司法人员而言,这种惰性将会扼杀法官的主观能动与个案纠错能力。人工智能可以在司法判例中不断学习和提炼同类案件的处理规则,促进所谓裁判统一或类案同判的实现。但如果把这种遵循先例的做法等同于强制义务未免会有些可怕,因为它始终有被其他理由推翻的可能,例如法律条文的变更、同基本原则相抵触、各地区的风俗习惯等。特别是自司法责任制改革以来,错案追究制好似悬在司法人员头上的“达摩克利斯之剑”,时刻让他们提心吊胆。而“从众心理”却暗示他们遵循先例无疑会成为规避风险的“最优解”,内外因素的驱动下将进一步致使他们丧失自我思考的能力与个案纠错的勇气。
2.道德钝化:自由意志的放弃
法律人的思维中永远充斥着感性色彩和理性色彩的交织,司法实践也时刻掺杂着道德价值与法律价值的判断。司法者的重要職责在于通过观点论证使民众接受某个合乎情理的观点并对其他主体提出的基于同一案情的主张进行回应。
人工智能对自由意志的侵损主要表现在两方面:第一是“信息茧房”效应。人工智能的入端信息库和语料库中设计的价值判断是单一的,那么将导致其提供的答案也会具有价值单一性。如此一来,法律人会习惯于遵从在先的常规见解,失去道德判断的能力,进而使得司法适用沦为“僵化”的过程。第二是“信息随机”效应。当入端信息库与语料库存在价值分歧时,系统输出的文本内容将会面临随机性,而使用者又缺乏发现问题的能力,这便会导致司法者陷于将偶然等同于必然,将随机等同于客观的偏见之中。[18]
更为可怕的是,当司法人员习惯于接受人工智能所生成的“标准答案”时,他们的道德思辨能力逐步降低,最终生成所谓“道德无感”的现象。相较于直接采纳社会的主流观点,他们不再关注对植根于法规范背后的法理探寻。相较于个案纠正可能会引发的问题,他们更乐意于盲从对机器判决的模仿。最终可能会出现的现象是没有人愿意去关注原因,重要的只是结果,司法适用衍变成“唯结果论”。
(三)信息维度:数据泄露导致的信任危机
1.司法数据的泄露隐患
前文提到,目前法院使用的人工智能系统大多是由外包企业所研发,而以营利为目标的企业又必然具有自利倾向。在系统的开发阶段,研发企业必然会向法院索取大量司法数据作为开发的前期性准备,而在收集、处理信息的过程中,这些数据很有可能因研发企业或研发人员的疏忽或逐利倾向而发生泄漏事件。在系统的运行阶段,研发企业或研发人员也有可能通过预先植入“木马”“病毒”等方式截取涉案信息,进而以商业贩卖的形式牟取私利。对于人工智能的使用者而言,他们在使用系统时需要向其上传数据或是展开对话,系统在这过程中便会将这些内容作为其语料来源,并自动进行数据收集、模拟训练等工作。在司法领域同样如此,司法人员需要将涉案的个人信息、商业信息等输入系统后,系统才会发出下一操作的指令,至于信息收集后的处理方式、数据流向却无人知晓。而一旦数据安全的保护力度不够或被他人恶意利用进而发生数据泄露事件,公民的隐私安全与国家安全将会面临严峻的挑战。
2.数据出境的安全风险
出于对数据安全的保护,我国对数据处理采取了存储本地化的措施。《中华人民共和国网络安全法》第三十七条规定:关键信息基础措施的运营者在中国境内收集的数据信息应在境内存储,因业务需要确要提供的,应按照网信部门及国务院相关部门的规定进行安全评估。《数据出境安全评估办法》规定:数据的境外流通需要经由网信部门的专门审查,适用事前评估和持续监督、风险自评估与安全评估相结合的审查模式。对于未通过数据安全评估的,申請人应当终止数据出境活动。由此看来,我国对数据出境管理采取的是“原则+例外”的模式,即原则上收集的数据应存储在境内,例外情形下才可向境外提供,但需经过网信部门的安全评估。对于人工智能软件特别是生成式人工智能而言,基于数据处理的服务器具有跨国性特征,这意味着境内外系统的数据信息库也是共享交互的,数据在生成阶段便有流通境外的风险。如此看来,人工智能的司法适用难免会使得数据存储、数据分级保护、数据安全评估等保护措施丧失效能,进而加大数据非法出境的风险。
四、人工智能的司法适用优化
(一)技术规制:算法公开与算法监管
人工智能的司法适用前景颇为可观,但算法黑箱与算法歧视却成为其融入司法运转的最大阻碍。如若不建立一套适用于司法领域的算法规制体系,人工智能司法化始终只能是一个“美好的愿景”。本文认为,人工智能的算法规制体系可从以下几个层面构建:
1.事前监督。事前监督是指保障司法人员在算法研发阶段的参与权与知情权。算法开发流程分为下述阶段:确定研发目标与验收标准→算法预研→算法开发→算法测试与优化→交付对接。在司法人员与研发企业对系统运转标准达成初步意向后,研发企业着手制作算法预研报告,在制作完成后需向委托法院递送算法的开发预期与可行性分析。在算法开发阶段,研发企业需就算法运作的工作机理向委托法院予以释明,并接受专门技术人员的质询与监督。在算法测试与优化阶段,研发企业需就算法运行存在的风险向委托法院予以说明,并接受法院提出的优化意见与完善建议。
2.事中审查。事中审查是指在算法交付审查后的试运行阶段,研发企业还需接受算法的安全审查。根据《互联网信息服务算法推荐管理规定》可知,算法推荐服务提供者需要接受定期审查与安全评估,未通过算法安全审查的,需要及时进行整改。虽然算法生成历经事前监督环节,但该环节主要是以司法人员监督和技术人员的局部监督为主,在专业性与全面性上存在不足。因此,算法规则有必要在系统正式运行前接受法院所聘请的第三方审查组织或算法审查小组进行全面审查与安全评估。根据算法从研发到最终应用的流程,算法安全评估可依照如下顺序进行判断:算法运行机理、算法设计结构、运行缺陷与漏洞、安全风险预测等。
3.事后公开。事后公开是指在算法正式运行后需向社会公开算法的运行规则。算法公开虽涉及研发企业的知识产权与商业秘密,但算法在司法领域扮演的角色具有其特殊之处,不仅涉及司法公开性与判决权威性的考量,而且包含司法领域中公民知情权的维护。基于比例原则与社会公益的考量,有必要迫使个人利益向公共利益让步。我国《互联网信息服务算法推荐管理规定》规定了算法的适度公开规则,但就算法在何种平台上公示并未明示。本文认为,算法的司法适用可依托于法院的政务系统或信息公示平台进行公开。一方面,人民法院是算法规则的委托方,对算法的工作机理与运转方式具备初步的了解,便于对公示内容进行说明与阐释。另一方面,人民法院是算法规则的使用方,与受该算法调整的诉讼参与人关系更为紧密,便于当事人进行查阅与反馈。
(二)主体定位:人工智能司法化的二元分割
1.基本立场:司法人员的主体地位
法律推理是基于演绎推理的论证过程,司法人员需要利用感性认识与理性思维对待证事实与证据材料进行规范分析与价值判断。感性因素虽然在推理过程中不占主导地位,但绝对不能缺失,否则法律适用就成了一个机械适用法条的过程。人工智能确实能在部分情况下代替司法人员进行司法文书制作,但这种“代替”一定是有边界的,且不能以损害司法人员主体地位为前提。司法权来源于社会契约与人民主权,而司法人员对人工智能的权利让渡是违背法契约精神,为法律所不容许的。因此,即使以人工智能系统生成了司法文书后,仍需要由司法人员最后把关,这也是司法责任制的应有之义。
2.角色定位:人工智能的从属地位
前文提到了人工智能存在的致命缺陷,但不能因此否定其存在的司法价值。在明确人工智能的从属地位后,我们可就案件类型进行分割,明晰人工智能的适用边界:
第一是程序性事项。实体性事项主要涉及事实判断,感性认识不可或缺,因而不宜由人工智能代替。而程序性事项主要是法律规范的寻找与适用过程,主要涉及的是理性判断,如上诉期限、立案管辖和非法证据排除等。而人工智能在此层面具有人类所无法比拟的优势,法院可以放手由人工智能承担,让司法者将更多的精力投入复杂案件与涉及价值判断的案件中去。
第二是速裁程序与简易程序。人工智能面临着“技术—法律锁定效应”的障碍,因此复杂、疑难、新型案件仍需由司法人员办理更为适宜,简单案件则可以交由人工智能进行裁判。根据2022年最高人民法院工作报告显示,地方各级法院与专门法院于2018年至2022年间审理案件共1.47亿件。其中,速裁程序与简易程序审理的案件占据较大比例。这两类程序的共性在于都適用于案件事实较为清晰、争议不大的案件,并且这些案件的法律适用高度相似、类型化明显,通过人工智能所得出的裁判结论发生的误差较小。最后再由法官对生成文书进行实质审查,对于文书存在遗漏或误差的,及时进行纠正。
第三是法律规范的适用。演绎推理是一个“三段论”式的论证过程,推理前提由案件事实与法律规范组成。案件事实的查明是庭审对抗与证据采信的过程,双方主体通过法律论证与举证质证使案件事实逐步明确,最终再经由司法人员的自由心证进行取舍。这一环节必须由裁判者亲力亲为地进行,否则便会陷于“庭审虚无主义”的陷阱,更是对公开审理原则的直接违背。而法律适用则是在案件事实固定后进行法律检索的过程,既未涉及价值判断也不涉及感性认识,因此可交由人工智能进行。况且人工智能具有庞大的法律数据库与极强的文书检索能力,在法律适用层面具备法官所无法比拟的优势,寻找到的法律规范往往更为精准和更为全面。
(三)数据保护:强化数据管理,深化数据合规
1.建设高质高量的司法数据系统
人工智能系统以数据为基础,以算法为依托。倘若缺乏足够且高质的数据作为支撑,人工智能决策的准确性将大打折扣。因此,为促进人工智能在司法领域的高效运行,司法数据系统可围绕以下方面进行:
第一,建立司法大数据库。我国目前司法数据除了已经公开的以外,还广泛存在于司法部门、律师事务所、法学科研部门以及司法行政部门内部。[19]而这些机构或部门存储的数据种类与数量是较为可观且准确的,如若可以通过建立统一的大数据库将这些数据予以串联,进行有效整合与分类,便可为人工智能的司法适用提供夯实的数据基础,促进人工智能司法化的高效运行。
第二,丰富司法数据的形式。司法数据除裁判文书外,还应当包含其他过程性司法行为,以及人民法院的内部资料。例如法院的庭审笔录、合议庭意见和审委会记录等。
第三,扩充司法数据数量。裁判文书公开制度自确立以来取得了不错的社会反响,为司法人员及法律服务人员提供了可供借鉴的办案思路,同时也为人工智能系统提供了数据支撑。最高院办公厅在近期出台的《关于建设全国法院裁判文书库的通知》中规定,为了进一步规范和深化司法公开,提升全国法院裁判文书的应用检索能力,强化司法大数据应用,拟建设全国法院裁判文书库。毋庸置疑,该《通知》的精神正与人工智能司法化的趋势相契合,都是通过整合裁判数据的方式,实现裁判尺度的规范化。本文认为,伴随着全国法院裁判文书库在我国的逐步确立,可探索建立其与人工智能数据库的信息互通、互享机制。因为二者的司法目标与价值意蕴具备实质的等价性,前者能为后者带来优质的信息来源,后者能助推前者目标的实现,二者系相辅相成、互相促进的辩证关系。
2.深化数据合规
数据合规对企业发展起到保驾护航的作用,它既是法律规定的合规义务,也利于降低企业的运营风险,帮助企业有效监管和应诉,提高企业的合规治理水平和强化企业人员的合规意识。对于人工智能的研发企业而言,在收集到法院提供的司法数据后,如何对该数据进行合理保护,降低泄漏风险是维系企业生存的重中之重。因此,研发企业必须重视数据合规建设,建立完备的合规治理体系。
从宏观角度而言,企业应建立数据的分级分类保护机制,针对数据的重要程度采取不同力度的保护措施。其次,企业还应建立相应的风险识别机制与风险预警机制,针对可能存在的数据滥用、数据泄露、未经允许的访问等风险做好提前预防与准确识别。最后,企业还需建立数据安全应警预案与风险处置机制,对识别到的风险类型采取恰当的应对措施降低损害程度。
从微观角度而言,企业应定期开展数据安全教育工作,加强企业人员的合规意识。其次,企业还需强调企业人员特别是研发人员的保密义务,针对工作过程中接触到的司法数据、个人隐私、商业秘密等签署相应的保密协议。最后,企业还应开展数据合规培训与考核机制,并设置相应的奖励与惩戒细则,进一步夯实企业人员的数据合规能力。
参考文献:
[1]李鑫,王世坤.要素式审判的理论分析与智能化系统研发[J].武汉科技大学学报,2020(3):323-334.
[2]中华人民共和国统计局.中国统计年鉴[M],北京:中国统计出版社,2022:168.
[3]邓修明.2020年全国法院司法统计公报[EB/OL]. [2024-03-21].http://gongbao.court.gov.cn/Details/0bce90201fd48b967ac863bd29059b.html.
[4]左卫民.迈向数字诉讼法:一种新趋势?[J].法律科学,2023(3):52-61.
[5]宋岱霖,张志莹.量刑规范化改革的完善进路[J].山西省政法管理干部学院学报,2022(3):76-80.
[6]刘品新.智慧司法的中国创新[J].国家检察官学院学报,2021(3):81-101.
[7]魏斌.智慧司法的法理反思与应对[J].政治与法律,2021(8):111-125.
[8]罗维鹏.示意证据规则建构[J].清华法学,2019(6):104-121.
[9]易延友.证据法学:原则规则案例[M].北京:法律出版社,2017:440.
[10]郑曦.生成式人工智能在司法中的运用:前景、风险与规制[J].中国应用法学,2023(4):81-93.
[11]王娜. 北京一中院首用“出庭示證可视化系统”审案[EB/OL].[2024-03-21].https://www.chinacourt.org/article/detail/2018/3/id/3222539.shtml.
[12]赵慧.智能量刑辅助系统——让认罪认罚从宽“看得见”“落得实”[EB/OL].[2024-03-21]. https://www.spp.gov.cn/spp/llyj/202008/t20200822_477552.shtml.
[13]程龙.人工智能辅助量刑的问题与出路[J].西北大学学报,2021(6):163-174.
[14]谢钱钱,何忠婷.AI帮你写起诉书?上海这家法院“高科技”让社会公众直呼惊喜[EB/OL].[2024-03-21]. https://new.qq.com/rain/a/20220910A06ELA00.
[15]徐清宇.智慧审判苏州模式的实践探索[N].人民法院报,2017-09-13(8).
[16]左卫民.AI法官的时代会到来吗——基于中外司法人工智能的对比与展望[J].政法论坛,2021(5):3-13.
[17]Beyond Intent:Establishing Discriminatory Purpose in Algorithmic Risk Assessment[J].Harvard Law Review,2021(5):1760-1781.
[18]雷磊.ChatGPT对法律人主体性的挑战[J].法学,2023(9):3-15.
[19]郭雪慧.人工智能在司法审判领域的困境、定位与展望[J].社会科学家,2021(11):129-134.
Technology empowerment: judicial application and path optimization of artificial intelligence
Gong Yi
(School of Law, Xiangtan University, Xiangtan Hunan 411105)
Abstract:With the continuous maturity of artificial intelligence technology, the integration of artificial intelligence and the judicial field is becoming increasingly close. In the process of judicialization of artificial intelligence, artificial intelligence plays a role in assisting evidence discovery, promoting standardized sentencing, and releasing judicial vitality. However, artificial intelligence also faces some problems in judicial application, such as triggering people's doubts about judicial fairness, impacting the dominant position of legal persons, and the hidden danger of judicial data leakage. In order to eliminate the adverse effects attached to AI, technical optimization can be carried out from the aspects of algorithm disclosure and algorithm supervision, binary segmentation of AI judicial application, and strengthening data management, so as to improve the judicial application efficiency of AI.
Key Words: Artificial intelligence; Application of justice; Algorithmic regulation; Algorithm exposure