司法智能裁量系统:问题、措施及趋势
2023-04-29张妮蒲亦非
张妮 蒲亦非
法学与智能技术的深度结合应用于司法审判领域,可辅助司法纠错、优化决策、预警法律风险等,能够让司法实践提质增效,但在技术中立伪装下也可能带来司法偏见、失控与误导.本文首先论述了司法信息提取中的问题,提出通过增加法律文书说理部分和规范法律文本结构等提高司法信息有效性的具体措施.其次,提出司法裁量模型中应加入价值观念,并讨论了建立价值审核和监督机制与促进算法可解释性的具体路径,通过建立内外部监督机制,让司法智能裁量模型使用的背景、整体的价值观以及采用的规则可被法律人理解,才能让其真正服务于司法实践.最后,针对当前司法智能裁量系统建立的难点即类案推荐,分析了类案判定的困境,并在比较法律专家系统与基于当前智能技术的计算模型利弊的基础上,指出人机协作建立具有综合分析能力的认知系统是司法智能裁量系统的发展方向.
人工智能; 认知计算; 法律专家系统; 计算法学; 司法歧视
D90A2023.027002
收稿日期: 2022-11-21
基金项目: 国家社会科学基金(21BFX031)
作者简介: 张妮(1977- ), 女, 博士, 副研究馆员, 研究方向为人工智能与法律的交叉.E-mail: zhang_ni@scu.edu.cn
通讯作者: 蒲亦非.E-mail: puyifei@scu.edu.cn
Judicial intelligent system: problems, measures and tendency
ZHANG Ni1, PU Yi-Fei 2
(1.Library of Sichuan University, Chengdu 610065, China; 2.Colledge of Computer Science(College of Software), Sichuan University, Chengdu 610065, China)
Legal system is a complex adaptive system, the deeply combination of law and intelligent technology can be applied in judicial justice, which can assist judicial error correction, make optimal decision, trigger erarly legal risks warning, etc., and can improve the quality and efficiency of judicial practice. But we also should pay more attention on the bias, loss of control and misdirection brought by technology to the legal field under the guise of technology neutrality. This paper firstly discusses the problems in the extraction of judicial information and puts forward some concrete measures to improve the effectiveness of semantic processing by adding the legal document reasoning part and standardizing the structure of legal text. Secondly, it proposes to add values into the judicial discretion model, and discusses the specific paths to establish a value review and supervision mechanism by expert group and promotes the interpretability of the algorithm. By establishing an internal and external supervision mechanism, only when the background, overall values and adopted rules of judicial intelligent system are understood by legal people, it can be truly served the legal system. Finally, as for the similarity case recommendation, the most tackling challenge in establishing judicial intelligent system, it analyzes the difficulties in the judgment of similarity cases. By comparing the advantages and disadvantages of legal experts and the data-centric computing systems based on present artificial intelligent technology, it then points out that the man-machine cooperative cognitive system with comprehensive analysis ability will be the development tendency of the judicial intelligent system.
Artificial intelligence; Cognitive computing; Legal expert systems; Computational law; Judicial discrimination
1 引 言
人工智能模拟、延伸和扩展了人类的智力,通过专业领域大数据学习,建立司法裁判智能系统可为司法决策和行动提供支撑.实时、在线、网络化的计算社会科学研究发展的同时,以数据为中心的新技术高速发展为分析与解决法律问题打开了大门,法学与信息科学的深入融合,促使了新兴交叉学科——计算法学[1,2]的产生.法学是一门社会科学[3],具有高度反馈性,法律制度的产生、变迁看似是包含很多偶然因素的主观选择,但法律制度背后的东西却很难改变.从系统论的观点[4],法律系统可被看成是一个复杂体系,该系统由法官、检察官、律师和立法人员等组成,在法律法规和规章制度的指导下通过立法、裁判以及调解等方式运行该系统.在此过程中通过诸如上诉、再审、立法评估等一系列司法反馈活动,使得系统不断调试并趋于稳定.人工智能应用于法学领域加速了法律信息的公开与反馈[5],有助于发现好的司法策略、预测司法判决和预警法律风险,帮助法官纠正司法实践中的错误.通过探究智能系统运行过程和揭示异象原因,反过来将促进立法的科学性,完善法学理论,发现法律成长的规律.
智能技术应用司法审判领域,正深刻地影响和改变着司法审判[6].法律翻译软件、法律文书自动生成系统、在线纠纷处理系统等提高了司法效率,以庭审为中心的智慧法院建设在法庭语音转录、光学字符识别、文书纠错、文书生成等方面取得了长足进步.最高人民法院2018年推出了“类案智能推送系统”, 2019年上海推出了公检法司四机构统一办案平台——“206智能刑事办案”系统,北京推出了“睿法官”,法信、北大法宝、无讼、聚法案例等法律科技公司也在推出了一系列类案推送系统[7],然而,关键字和贴标签的方法在实际运行中成效并不显著.当前我国尚未形成统一的司法数据标准,各检索平台使用的数据库、算法和分析技术存在差异,案例相似性判定标准也不确定 [8],案例推送精准度有待提高[9].同时存在过度依赖人工干预、识别准确率低、算法非可视化、颗粒度悖论等客观技术瓶颈[10],法官不得不花费大量的时间和精力进行相似案例的阅读和甄别.简言之,目前仍处于“人工有余而智能不足”阶段.建立具有综合分析和预测能力的复杂系统司法智能系统是未来的发展方向.
人们探讨法律与科学、技术的深度融合,也要意识到计算模型的脆弱性和难以检测性,更要关注技术对法律领域带来的偏见、失控与误导,应当从司法信息的获取到司法智能裁量模型运行使用的全过程,构建风险防范措施和运行保障制度.首先,法律信息如何转换为可计算的法律信息,怎样提高司法信息的有效性;其次,智能技术在法律信息处理中扮演怎样的角色,如何在司法裁量模型中融入价值判断;如何对司法智能裁量系统进行合理的监督与审核;最后,类案的判定是司法智能裁量模型建立的难点,如何确定案例的相似性.
2 让数据说话:可计算的法律信息
大数据分析将数学算法应用在海量数据上,从而洞察并预测事件的发生.司法智能模型通过编码、解码的过程,考察法律人对法律法规和司法案例的解释过程,让审判规则有迹可循,从庞大的司法语料库中发现其主张的社会价值,找到更好的司法智慧.
2.1 计算思维在法学的应用
计算思维是进行问题求解、系统设计等一系列思维活动,利用启发式的推理来寻求解答,采用各种搜索策略来解决实际问题[11].计算思维与人们的工作和生活息息相关,已经成为人们必备的一种生存能力,计算思维奠定了法律知识计算的思想基础.
计算思维采用抽象和分解来设计庞大复杂的系统,通过分解、模式识别、抽象化和算法等4个步骤进行知识计算,解决各种背景和学科中真实和重要问题.受技术因素影响,律师的工作由量身定制、标准化服务转到知识模块化外包服务,各项法律任务被拆解,譬如诉讼律师的工作分解为文件审阅、法律研究、项目管理、诉讼支持、电子披露、策略、战术、谈判和法庭辩论等.这类以抽象、算法和规模为特征解决问题的思维方式使得法律事务代码化成为可能[12],智能合约以计算的方式呈现法律关系,司法智能裁量模型通过对某类案例特征的提取,基于法律规则和过往案例的逻辑推理,继而计算获取相似案例及其排序,实现司法预测.
2.2 司法信息提取中的问题
司法信息是与法有关的信息和知识的总和,不仅包括法律法规、司法案例、司法程序、规范性文件、法律学者研究著作等静态规范性文件,也包括了法庭辩论、庭审记录、案件评论等动态信息.司法数据可对案件的数量、分布、审理情况、息诉服判情况、当事人特征等基本情况进行实时分析,还可为类案多元纠纷化解机制的构建提供决策依据.当前司法信息提取存在的主要问题集中在以下几方面.
(1) 司法信息包含大量多源异构的半结构化、非结构化数据.司法信息包含来自司法机关网站、人民法院和人民检察院公报、司法工作年度报告、新闻发布会、报刊、广播 、电视等新闻媒体资源,涵盖法律法规等规范性法律文件和过往案例相关的信息.这类信息来源广泛、效力不一、结构不规范,不易提取.加之,信息以图片、文字、视频等多种表现形式,文字、图片、音视频转换也可能造成数据丢失.
(2) 人工智能辅助裁量系统的司法案例信息来源不充分,多集中于案卷信息,无法全面真实地再现案例的全貌.不少司法审判书即便让具有丰富经验的法官也很难从中直接获取其他法官的审理思路,更别说让机器通过学习而获得.法官裁量过程围绕客观事实与法律事实、规范语义内涵、法规背后利益等争议和冲突展开.裁判是包含了价值选择的博弈过程,而司法裁判文书仅仅是文字表现的最终审理结果.裁判文书数据特征隐藏较深,对司法裁判论证过程描述不清,直接影响法律模型结果的实用性[13].
(3) 司法案例结构不清、分级不明确、缺乏必要的清理,法官需要花大量的时间来甄别案件是否具有可参照性.以中国裁判文书网为基础数据库,而裁判文书网上的案例看似庞大,但案件信息质量堪忧.因隐私、保密等原因,公布的案例有限,且地域化信息较强,东部地区公布的案例明显多于西部地区的相关案例,甚至公布案例中还包含部分信息错误或不规范.人工智能推荐案例软件大多并未区分案例的等级.仅北大法宝规定了案例的“参照级别”,分成指导性案例、经典案例、一般案例等.一般来说裁判者多倾向于检索本院及所属上级法院的生效判决[14].有些案件信息随时间推移、国家政策、价值观等变化而失去参考意义,也有案例包含种族和性别歧视信息、政策信息等.这些信息无法与时俱进,适应新形式的需求.以此为基础将造成新的判决的不公,需要法官对信息进行甄别和排除.
2.3 对提高司法信息有效性的思考
司法信息是建立司法裁量系统的基础.司法信息来源的全面性、真实性和客观性决定司法裁量系统的优劣.为了提高系统的可靠性和精确度,需要提高司法信息的有效性.
首先,司法数据的结构化.机器学习对于输入的数据有着较高格式化的要求,统一判决书的输入结构对于智能系统的处理结果具有至关重要的作用.案件信息结构化应秉持准确描述案件事实和过程、涵盖案件事实的复杂性与完整性的原则.从裁判文书来看,虽然文书包括案由、原告诉称、被告辩称、本院查明、本院认为等格式化的词语,但很难从司法文书中发现法官的判案思路.建议根据类案的特点,对司法裁判文书的争议焦点、事实认定以及法律适用等进行结构化的处理.目前法院以及各法律信息检索公司的结构化法院判决书的做法可以分为几类:(1) 增加案件概述:专业人员用简短的话概括案件的基本情况,对案件内容和内在的主题的精简;(2) 增加案件争议焦点:专业人员对控辩双方的主要分歧进行人工梳理;(3) 案件进行要素化处理:将某类案件的信息转化为要素填充;(4) 类案特征的总结:分为支持控方的因素和支持辩方的因素.与指导案例类似,增加案例概述有利于提炼出案例的启示,便于其他案例的引用.司法判决书的“法院认定”事实部分是法官认定后的结论,但法庭辩论更能寻求事实的真相.案例争议焦点可对案件的庭审过程进行还原.司法判决书的结构化处理有利于案件信息的提取,建议增加案例概述、案例争议焦点、要素提取(法律关系与处理结果较明确的案件)、根据类案特征进行案例重述.只有增加裁判文书的说理部分,完善案件事实认定、争议焦点提取和法律推理论证[15],裁判文书案件事实描述应当详实,法条适用应当明确,要将判决的理由说清说透,实现“说得出的正义”[16].
其次,建立完善的司法程序,严格管理司法信息的存储、传递、清洗等全过程,采用数字加密、区块链技术等保障司法信息流转中的可靠性与全面性,避免信息被篡改.根据2018年司法部的《“数字法治、智慧司法”信息化体系建设指导意见》[17],分别建网承载涉密和非涉密业务信息,按照安全自主可控要求,构建高标准的安全防护体系, 筑牢平台建设和网络安全防线,确保网络和数据安全.值得注意,司法信息公开应注意保护诉讼参与人的隐私权和个人信息,平衡公众知情权和隐私权、个人信息权益[18].如果即将公开的司法信息将促进公共利益,则需要在隐私权与公益促进法益之间进行利益衡量,从而决定司法信息公开的时间、方式、程度和内容[19].
最后,拓宽司法信息来源.我国司法判决形成过程中的部分关键信息并未在裁判文书中完全获取,如事实确定过程、法官判决后所撰写的审判报告、以及一些酌定情节及其理由.建议将更多的案件信息如起诉书、庭审过程、法律论辩、证据确定等案件材料作为类案检索的基础数据来源,便于更好地寻找法官司法裁判的逻辑思路与判案技巧.
通过类案裁判文书的规范化,增加说理部分,并将历史案件的裁判逻辑进行图谱化归纳,法官根据裁判要点,才能真正快速发现所需解决疑难案件的解题思路,提高智能裁判系统的精准检索率,找到其期望的“类案”.
3 核心:司法裁量模型中的价值判断
法律具有特定的价值:正义、强力、安全、均衡,主体的平等权利尤为重要[20],司法本质是通过价值判断的裁判权,法律推理过程通过法律论证实现依法裁判追求个案正义[21].当前许多智能系统往往无法应对法律推理中的价值评判与利益衡量问题,忽视了法律推理的多元化、立体化形态.
3.1 司法裁量模型应加入价值观念
庞德认为法律秩序的实际过程,是用经验(反复试验和司法上的取舍)和理性(法学家指定的各种假设)去发现有助于调整各种冲突或重叠利益的东西[22].法官并不是在形式数学意义上适用法律的“自动售货机”,其适用和解释法律规范的过程需要价值判断[23].法律事实的认定过程、法规的选择、裁量的轻重等都与法官密切相关,法官的价值、观念和态度对于他们在法庭上的推理和判决有着重要的决定性作用[22].法官根据社会经验以及道德、正义等观念的理解,有比较明确的价值观念.譬如,明代官员海瑞在出现疑难诉讼时确定了“与其屈兄,宁屈其弟;与其屈叔伯,宁屈其侄……”的办案原则[24].
司法裁量系统是数据驱动的系统,通过输入→特定任务的学习→自动决策的方式,进行司法预测.建立司法裁量模型,系统开发人员对数据的选择、数据分析和数据呈现等决定了系统如何运行.以技术外壳,看起来价值无涉,但价值优先权的内置,作为技术应用的副产品,能够强化社会某些价值观念.如果“喂入”系统的数据本身就带有歧视信息,这类信息的输入反过来又会进一步加剧歧视与不公平.目前美国的一些人工智能辅助司法的系统诸如Hunch Lab、COMPAS等饱受质疑,黑人成为警察监控的重点,被错误判断为“有罪”的概率明显高于白人[25].
司法案例或法律文本中隐含了立法者或法官的价值,反映了相互冲突的价值和因素之间的偏好规则.司法裁量模型有利于发现法官群体价值走向,更好地保障公民的人权,彰显公平正义.人工智能与法律研究者早就意识到这个问题.Ashley等[24]具体分析了考虑价值的司法裁判模型中价值如何影响司法事实的认定.HYPO知识产权预测模型中,隐藏的价值是应制定和实施明确的保密协议以及允许某人使用合法手段开发产品,其价值排序:保密协议优于合法手段,合法手段优于合法努力[26].价值选择贯穿了整个司法裁量模型的始终,事实上价值对事实认定和裁量结果起到了决定性的作用,智能系统中加入司法的价值考量是发展的必然趋势.
首先,司法论证本质上是围绕法律事实和价值展开,如何将传统法学研究的价值观念融入司法裁量模型是司法裁量模型构建的核心问题.大多司法情形可事先假定,人类有一套价值观和可接受的价值排序,基于价值的论证方案,让智能主体能够基于价值偏好进行选择[27].一些现行探索者提出建立司法裁量模型中强调了系统预测依赖于背景、价值和规则[28].简言之,构建司法裁量模型时将智能主体置于具体推理场景中,通过控辩双方的论证确定法律事实,依据法律法规以及人们的价值观进行事先预设.
其次,构建司法裁量系统时应将价值选择权交由使用者,防止技术人员越厨代庖,事先进行价值植入.算法杀熟、信息茧房[29]是以技术为外包装的对主体平等权利的侵害,建立司法智能裁量模型加入价值预设时应防止技术人员或智能辅助系统提供人员的价值强制植入.司法智能裁量模型设计过程中的决策与价值偏好密切相关.表面上看技术人员采用价值中立的立场,实际上技术人员的价值观在使用技术时已悄悄植入.技术设计的选择提升特定价值,促进社会潜规则,更为重要的这种价值植入并非有意,而是以技术、效率或功能为名的设计方案的副产品[30].因此,技术人员算法编写不应只考虑技术最优,而应更多关注司法适用对人的尊重[31],更多地尽到告知义务,将价值选择权交由系统的使用者决定.
最后,司法裁量模型的价值观念也许并非单个主体而是多个主体观念的综合.司法裁判与医生的诊断类似,当判决结果不确定时,可以让更多的法官和利益相关人“会诊”,通过论证博弈的方式,找寻双方都能接受的裁判方式.(1) 司法裁判是多种价值交织在一起,做出价值排序是一件艰难的事.不同法官对同一案例,因为法官在追求准确地认定事实和适用法律之外,也追求其他诸多目标.例如社会效果、领导或公众的认可、晋升调薪、及时结案等[32].价值选择冲突最为突出的是自动驾驶汽车的事故引发的道德和法律困境.自动驾驶过程中若无法避免撞到行人,那么自动驾驶车是撞向一个人还是一群人,是撞老人还是孩子?(2) 价值的判断主体并非个人,而是多个主体在不同阶段做出的价值判断的综合.无人驾驶车将牺牲谁的利益这个选择权的设定尤其关键.如果价值预设是生产者,则生产者富有不可推卸的“杀人”责任.如果将这伦理难题交给使用者或乘客,由他们的价值伦理观念决定了自动汽车危及时的处置方法[33],可以帮助他们选择更有利的处置方式.(3) 建立司法裁量模型时将价值观念融入司法案例的法律推理的实际场景中.价值观念并不是指抽象的价值排序,而是在具体的事实场景中分析司法结果对价值观念的影响.例如,彭宇做好事被诬陷案中,虽然法官按照法律的推理没错,但其产生的后果会对传统的价值观念产生巨大的冲击.法律推理并非是一一对应的单调推理,而是依赖语境,具有容错性和不确定性的非单调推理[34].Bench-Capon构建了法律事实与法律价值相互影响的理论模型,价值优先性决定了可废止规则的优先性[35].
3.2 智能系统的价值审核和监督机制
大数据杀熟、算法歧视让人们更清醒地认识到数据的伪装性,更关注结论的正义性与可用性,迫切地需要建立包括数据传导、偏离预警、系统自控、系统有效性评估、专业人员监管等机制,让法官、律师和法律学者可以评估模型的合理性.将智能系统用到司法领域,则应尤其慎重,其伤害的是人们对法治的信仰.法律人需要对司法裁量模型使用的背景、整体的价值观以及采用的规则进行审核.注重通过持续的审查与检验确保其有效更新,使算法决策减少偏见和无意识歧视的影响,以保障其符合司法价值的内涵[36].
首先,司法智能裁量系统应引入监管与评估机制,建立事前审核和事后监督机制.《中华人民共和国电子商务法》和《中华人民共和国网络安全法》中规定了与算法相关的条款,应从事前规制、事中监测、事后救济和追责三个方面将智能算法纳入到监管之中.有些司法数据来源本身不合规范,且侵犯了个人的隐私权或信息有误.2022年5月18日我国第一家数据资源法庭温州市瓯海区人民法院正式挂牌成立[37],用于解决数据生产、储存、使用、交易等各环节中的违法行为.数据资源使用前需要明确数据来源、使用规则、排除标准、司法裁量要素选择原则、权重系数的选取方式、价值冲突处理原则等,便于法律人理性地审视司法裁量模型的公平性与合理性.司法裁量系统事前审核程序是其获得实际应用的前提,必须经过审核、整改才能投入使用,同时在智能系统使用过程中进行监督.
其次,司法智能裁量模型的应用,应由相关审核部门引入算法影响评估和告知义务,对其内容进行全方位的评估[38].当智能系统运行与法官的判断有较大偏差时,审核人员要叫停系统,并让系统设计者对其进行修正和重新评估.法律人作为社会公平运行的监督员,应当做好“守门员”角色.当法官发现有歧视行为时,应对相关案例进行标注和说明,对以后的引用产生影响,且要由审核人员进行甄别和修正.审核和监督的程序可以嵌入司法智能系统中.与车辆提示驾驶员除非先通过自带的吹气酒精测试,否则车辆不打火的程序相类似[12],没有经过审核和消歧的系统不能自动给出预测结果.简言之,通过算法审核抑制代码歧视风险,并建立非歧视准则规范人工智能开发、利用行为[39].
第三,建立外部算法问责制度,明确算法设计者、算法使用平台和算法审核或监督人的法律责任.司法智能裁量系统涉及软件开发者、设计者、使用者、监督机构等几方主体.他们在智能系统设计和使用的不同阶段应当进行责任分担,明确界定追责与免责之边界[40].2021年4月21日欧洲委员会通过了“人工智能法案”,该法案指出人工智能系统提供者负有使用前的评估和投入市场之后的监控责任[41].在系统的开发阶段,智能系统的责任主体在企业,企业设置内部监督机制,同时需要监督人员的嵌入或事前评估.运营阶段用户是责任主体,仍需要开发企业的回访与监督机构的事后评价,通过多维度对智能系统内部构成和外在关联进行系统性审视[42].2022年12月最高人民法院《关于规范和加强人工智能司法应用的意见》“透明可信原则”强调:保障人工智能系统可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案[43].通过合理分配人工智能软件的技术人员、软件的开发商、软件的最终用户等的责任,让智能系统的运行更透明,责任分担更明确.
第四,司法信息的审核和消歧程序.司法信息中可能存在种族和性别歧视信息,技术人员将法律规则转化为代码的过程中也带有人类文化中固有的偏见,则司法裁量模型的输出结果也不可避免地存在歧视和偏向,需要对裁判文书中的歧视、价值选择错误等不当趋向进行标注、提示、清理,警惕数字“喂养”中风险.大数据应用于司法领域对一些基本权利和法律价值构成挑战,应遵循合法性原则、比例原则,加强外部监督和司法监督[44].20世纪70年代由法学和计算机科学的学者与行政官员一道组成的“斯坦利屋工作组”(Stanley House)认为算法设计应注入“人化”的价值,即保持透明、公平、不作恶、可问责与隐私原则.GitHub公布了三个算法治理开源工具Deon、Model Cards与AI Fairness 360,用于审计个人信息保护、数据安全、数据集偏见、算法公平、可解释性等问题[45].
最后,需要有专业审核人员对司法智能裁量系统的运行进行全程监督与评估.知识和数据融合复杂推理技术不足(如过度拟合、信息来源不充分、案例部分细节过度放大以及智能技术不收敛等)或模型的价值偏差(如种族歧视、偏见等)都可能造成司法裁量系统偏离法官期望,所以需要专业人员进行监督、审核与纠偏.审核的人员可由技术专家、法学专家、社会公众代表等相关人员的参与组成,可以是类似于审计公司的第三方独立机构,也可以是法院或政府机构的专业审核人员.审核人员从系统规划、设计、运营全过程参与,剔除和减少伦理不合规的系统设计,保障设计的系统符合司法建设的要求.
3.3 促进算法公开和可解释性
算法黑箱是人们恐惧智能技术的根源,它是由算法的技术性特征造成的[46],开发人员的个人价值选择因素以技术为包裹变得更为隐蔽.司法裁量模型的输入部分是案例的信息和诉讼事由,输出是法官的裁判结论,连接输入与输出的往往是复杂和不透明的人工智能技术基于相似案例统计得出的一组近似结论.计算参数的轻微变化能够极大地改变计算结果,计算缺乏约束且代码无法理解,程序易演变成“黑箱”.
首先,解开算法黑箱的第一步是算法公开.电气和电子工程师协会(IEEE)倡导AI程序源代码公开、对源代码进行解释等措施使开放资源和促进代码透明化,减少信息不公开和程序包含的错误.法律技术公司应采用使用者喜好的方式,运用机器学习、语义处理和行为实验等技术向用户进行有针对性的信息披露[47].
其次,算法可解释性的关键是让法律专业人员理解系统的运行.算法是经过训练数据集而不断进行调整优化产生的.运行结果具有一定的隐蔽性和不确定性,难以发现技术人员的价值选择和倾向.即便输入相同的数据,由于算法编程逻辑和学习方式不一致,运行结果也会产生较大的偏差.算法的可解释性强调算法必须为数据主体或终端用户所理解[48],通过人机互动、知识图谱等方式增加数据的可解释性,进而对数据的可用性、合规性和合法性进行判断.技术代码代表的司法意义、运行潜在的危害、价值冲突时程序的选择等应有数据工程师类专业人员进行判断.2019年6月,我国科技部颁布的《新一代人工智能治理原则——发展负责任的人工智能》提出“安全可控”的原则,即要求人工智能技术“可审核、可监督、可追溯、可信赖”.欧盟明确提出了算法“解释权”概念,即“数据主体有权获得人工干预,表达其观点,获得针对自动化决策的解释并提出异议的权利”[36].技术人员价值植入将造成新的歧视与不公平,算法的公开和可解释能在一定程度上减少司法信息的歧视和被人为操纵的可能性.由于复杂模型的参数量大、工作机制复杂、透明性低,使得其难以得到较好的解释[49,50].只有当司法论证过程、结论和法律行为的动机都能够用法律人能够理解的方式进行解释[51],并能验证其行为合法性,才能确保不谙熟统计学的法官、律师、学者对司法裁判模型的合理性进行评判.
最后,算法的可解释性在于法律推理过程的公开.譬如司法论证用于法庭信息,支持与反对的信息进行可废止论证博弈,充分展示系统做出判决的论证过程.司法实践中研究人员为让系统具有可解释性做了积极地探索.总体来说有三种方式:第一类人工标注司法解释,即让法律人对司法文书进行大规模的标注,之后再进行相关性的排序,查询相关案例[52];第二类基于注意网络的案例查询和半监督案例注释,采用注意网络预测或注意权重突出相关性较强的案例,避免了对全法律信息的标注[53];第三类基于论证的法律解释,即模拟法官或律师做出司法决策的过程通过一方列举相似类比案件,应诉方引用反例,提出假设来强化或弱化论证的方式讨论案件的相关性,从而对司法智能裁量模型的运行进行有益的解释[54].
4 难点:类案的推荐
德国哲学家考夫曼指出:“同案同判”表现了法律适用上的平等,是正义的核心[55].类案是法官寻求判决确信和解决疑难案件的一种方式.类案类判是人们追求司法公正和司法稳定的基本要求.我国司法实践也要求制作关联案件和类案检索报告.如何用机器学习融合案例的各种特征帮助人类找到相似案例是建立司法智能裁量模型进行法律推理的关键问题.
4.1 类案判定的困境
案例具有引领社会导向以及塑造法治未来的功能,新的判决赋予了案例新时代内涵并缓解法律规范滞后性的难题.人们对智能裁判最大的期盼在通过查询类案,对“疑难案件”给予指引.然而,当前司法实践中人工智能类案检索系统不同程度地存在“凑数”和“过量”的情况[56].
首先,何为“类案”一直存在争议,建立司法智能裁量系统采用的标准不一.有人将案例相似性判定的依据归结为三种:案例引用、案例内容和案例的概要[57].也有人认为,案例相似是案件事实、法律关系和案件争议焦点的相似.我国最高人民法院2020年《最高人民法院关于统一法律适用加强类案检索的指导意见(试行)》进行了界定:类案是指与待决案件在基本事实、争议焦点、法律适用问题等方面具有相似性,且已经人民法院裁判生效的案件.案件关键事实是法律相似性判断的基本出发点,案情、争议焦点与法律适用相结合,更为全面的描述案件的特征.
其次,司法智能裁量系统的法律逻辑推理较为欠缺.人工智能可以帮助人类进行事实拆解和标签化,从而提取法律信息语义特征、获取特征权重和通过反馈学习提高系统性能[6].当前的智能系统大多通过对输入的案件进行解构,抽取出案件中最小要素,再进行要素选择及组合,从而进行类案推荐[58].司法裁量模型中案件被拆分为:案件名称、案由、当事人名称、原告诉称、被告辩称、审理经过、争议焦点、本院查明、本院认为、法律依据、裁判文书等基本信息.为提高相似案例的精度,有些公司采用人工对案例进行人工标准,将每个司法案例由法律人进行识别和加标签,用户搜索时再用关键词与系统中的标签进行对比,最终推送标签最为类似或相近的案例.司法裁量模型输入是案件事实,输出是法官的裁量,而运行的过程是复杂和不可控的.如果仅通过大规模的法律标签比对而法律人无法对比对过程中的核心法律技术细节和过程进行评判,司法裁判系统判定的相似案例的参考价值将大大削弱.
第三,类案的判定与个案所处的情境密切相关.司法裁量系统忽略价值与个案背景的输入,司法论证过程表现不充分,则获得的类案不准确.让机器进行相似案例的判定尤其需要提前设定相似案例判定的原则、标准,不能将输出结果的无因性完全归结于技术原因.案例相似性评判的基础是案件的事实,其相似性判定有赖于与案件论证相关的事实背景的详细输入.以经典HYPO海波系统为例,输入是当前事实情境,输出包括:(1) 将当前实时情境与支持原告案例进行类比论证;(2) 从当前事实情境中区分被引案例的论证,论证支持被告的反例;(3) 对反证案例进行反驳,在可能的情况下强化原告在当前事实情境中的论证[6].
最后,人工智能难以对法官的裁判思维进行清晰刻画.法官期望的“类案”并非案件的案由相似或是案情的完全一致,只是希望某些案例事实认定或是法律适用能够参照其他法官的裁判思路与技巧,如何搜索出法官所需案件的判决规则和判决思路.司法裁判文书是人工智能模型建立主要来源.判决书本身经过了法律语言的二次处理,各种隐性知识或是法官的个人考虑因素无法在判决书中尽述.判决书中法律参与人在法庭上的论证过程往往一笔带过,对司裁判辩论过程描述不清晰,裁判理由说明不充分.这些过程信息、隐性信息的缺失导致了法官裁判规则无法清晰刻画,法律人尚不能透过文字发现法官的审判规则.将专业人士无法回答的问题交给机器,自然难以获得满意的答案.
4.2 法律专家系统描述
人工智能技术推荐相似案例大体有两类思路:(1)建立案例引用网络来发现案例相似性.这类方法仅对有案例援引习惯的国家有效,且案例援引的不平衡,带有一定局限性.(2)采用神经网络等机器学习的方法对比分析案例的相似性.这是建立司法智能裁量模型的主要方法.司法智能裁量系统通过模拟法官法律推理的过程,进行支持和反对法律结论的论证,从而进行司法预测与类案推荐,专家系统、基于当前智能技术的计算模型以及认知计算系统都是该方法的具体应用.
法律专家系统是人工智能与法律相结合的最经典的解决方案,既让法官、律师从繁芜的事务中解放出来,又让专家系统的运行符合法律人的期望.专家系统将人工判断、层次分析法、模拟和模糊系统相结合[59],类似于“简单案件——法律适用量刑系统”,没有对证成阶段的证据推理和法律适用阶段的法律解释进行模拟[60].早期人工智能与法律研究多集中于法律专家系统的建构,人们输入当前遇到的法律问题,通过法律语义识别系统,获取到相关法律要点,再搜寻相关类似案例从过去的司法案例中类推出当前案例的可能解决策略,或是手动询问人类专家,了解专家分析此类问题所采用的规则,完善推理过程.以HYPO模型为代表法律智能学习模型,首先案件事实被分解为各种因素或特征,这些特征矢量可被看成高维空间中的点,寻找与目标案例相匹配的点,反馈给用户超过相似度阈值的案例.这些因素被分为“支持”和“反对”两个阵营,通过建立基于论证的模型,更容易识别案例的相似性与不同[51].
图1 法律专家系统的结构图
Fig.1 Diagram for legal experts
但是法律专家系统带有较强的专家的个人色彩,法律专家系统的缺点也比较明显.(1) 专家系统的建立需要专家的参与较多,提前设定的启发式规则节点与设定的案例特征库都打上了专家的印记,受专家的个人因素影响较大.基于案例的专家系统,利用人工智能技术比较案例相似性,生成基于这些相似性评估的论证,获得类案推荐;基于规则的专家系统,从已知事实开始,应用启发式推理规则设计了前向链接循环使用规则,一旦“触发”规则,则得出推论结论.不论基于规则还是基于案例还是二则兼有,专家对于规则节点的选择、案例相似性的判断等都起到了关键作用.(2) 专家系统针对审判要素确定的案例,其运行效果较好;但如处理信息不完整的数据,其效果堪忧.(3) 如果大量的案件都建立专家系统,耗时耗力,且成效不显著[6].(4) 文本解析技术可以提取某些类型法律语义信息,但目前尚无法通过学习获知专家系统的规则.(5) 司法案例的语义解析,往往忽视了专家系统中法官的价值选择、数据歧视等因素.(6) 司法裁判在法律信息代码化的过程中,剔除了裁判细节,使得裁量因素简化,但有的细节恰好对法官的判断具有较大的意义.
基于当前智能技术的计算模型将法律推理过程交由人工智能系统,不管有监督学习还是无监督学习,能够最大限度上摆脱人对智能系统运行的干预.专家系统与当基于大数据分析的智能模型的区别表现在:(1) 法律专家系统预设了案件的各种可能情节,专家帮助解决用户的问题,而基于大数据分析的智能模型通过模拟用户的处境,获取相关法律信息,帮助用户构建解决方案[6].(2) 法律专家系统中专家譬如启发式规则节点选取、案例特性值、特征的权重系数等均由专家根据经验手动获取,而基于当前智能技术的计算模型的识别、判断和排序均从特定领域的数据集合中提取获得.目前最常用的获取相似案例的人工智能技术:最近相邻法、决策树和神经网络.最近相邻法又称K最邻近法找寻特征空间中最邻近的值.决策树是用概率分析的一种图解法,每个叶节点代表一种类别.神经网络是一种模仿动物神经网络行为特征进行分布式并行信息处理的数学模型.
以下几点值得注意:(1) 案例相似性不是看特征维度的数量而是看事先设置的维度集以及子集关注案例特征的相关重叠因素.(2) 案例特征的权重,不宜事先指定,因素的权重与背景高度相关,法官可能不是根据权重进行推理.(3) 机器学习的统计相关性并不能够代表因果关联,机器学习采用分类方法所得到的准确率和召回率不一定就真正反映了案例的相关性[64].基于机器学习案例相关性判断是通过建立数据集,查询和排序相关案例,而基于论证的相关性判断旨在论证隐匿在法律文本中的相似关系,Ashley等提出将这两种思路相结合,建立基于论证的法律推理模型,此方法对司法过程的描述较为详细.这也是当前司法智能预测建模的主流方法.
司法裁量过程是寻找各方都接收且公平的解决策略.法官处理案件往往依据个人经验或是直觉对案件的判决有一个初步的认定[65],利用各种技术手段和证据推理认定案件事实,往返于案件事实与法律规范之间,再运用法律推理寻找控辩双方“可以接收”解决方式.法官的裁判过程是基于论证的复杂活动,其判决结果并非基于法律法规大前提和案件事实小前提的三段式法律逻辑的闭合适用,其结果与法官个人学习和生活经历有关,与道德、伦理乃至判决的实用性相关[66].法官需要在不断地反馈、调试中形成新的司法裁判,寻找“更优”解决方案来弥补法律的漏洞和不周延性.法律语言模糊、司法解释具有多样性、司法裁判需要感性与常识.各种隐性知识、过程知识、模糊知识等难以用计算机符号体系表达.基于当前智能技术的计算模型在没有获知法官裁判真实思维的基础上,对案件情况较简单、法律关系相对简单明了的事务,通过要素输入在税法、交通法等领域取得了较好的效果;而对案件事实较复杂、法律关系相对复杂、法律判决结果差异较大的复杂案例,智能系统的司法预测效果尚待提高.
目前人工智能技术在计算能力和感知能力方面取得重大突破,然而智能机器不具有常识、逻辑推理和思考与应变能力,使用当前语义处理技术和机器学习技术无法揭示法律关系的复杂本质,在模拟法律行为人思维上效果欠佳.人类拥有专业知识、判断、直觉、同情心、道德和创造力,对不同模态的知识具有一键搜索能力.认知智能以模仿人类认知理解记忆思维等能力为基础,是人工智能技术发展的高级阶段,强调知识、推理等技能,试图获得类似于人脑的多模感知能力[67].当前人工智能系统的基本做法是通过强大的算力将所有可能结果一一尝试,而人类依靠直觉得出初步结论,再进行逻辑思维和综合研判.因此,用认知计算进行类案相关性的判定将提高智能系统对法律数据理解、知识表达、逻辑推理和自我学习能力.2020年阿里达摩院的科技趋势报告指出:未来人工智能将在认知智能与机器间大规模协作上取得突破,其能力将从“听说看”拓展到逻辑推理、思考决策[68].认知智能的研究尚处于起步阶段,建立完全脱离了法律人的认知裁量系统并不现实,将机器“百科全书式的记忆与巨大的计算能力”和人类“专业知识、判断、直觉、同情心、道德和创造力”[6]相结合建立的认知计算模型,将是司法裁量模型发展的新模式.认知法学是人工智能与法律研究者将新的问题、信息提取和论证挖掘技术用于法律领域问题的解决过程,从计量法学、计算法学发展到认知法学是人工智能技术发展的必然趋势.人机协作的认知模型将是司法智能裁量系统未来发展的方向[69].
5 结 语
司法裁量模型辅助法官进行司法裁判,毋庸置疑将减少法官重复劳动,提高司法效率,有利于发现法官裁判规则和司法共识、辅助司法纠错和优化决策、进行法律风险预警等.司法裁判是复杂论证过程,并非简单因果逻辑,需要理性与感性结合来作出判断[36].要警惕“直觉的判断被迫让位于精准的数据分析”[70,71].法官具有直觉、同情心、价值观以及人文关怀,若习惯于大数据“喂养”和“推荐”将沦为马克斯·韦伯口中的“诉讼机器”.司法裁量模型的目标并非要代替法官行使司法权,而是辅助法官,减少法官相似案件的机械、重复劳动,同时抑制司法人员的恣意,增加法律适用的统一性以及减少偏见.司法智能辅助模型的重点是促进算法的可解释性发展,提高智能系统对法律数据理解,发展其法律逻辑推理能力,迈向认知法学.智慧司法不仅需要技术人员与法律人的深度配合,更需要建立相应的风险防范措施和运行保障制度,避免司法裁量模型侵蚀法官的裁量权.只有当法律人的直觉、判断与人工智能的强大算力相结合,缩小智能系统的预测结果与法律人的实际判断的差距,才能让人工智能系统落地生根,真正被法律人所接受.司法智能裁量系统将整个司法过程作为一个整体,提供了立体观察司法体系运行的机制,从而保障智慧司法的健康发展.
每一个案件的法律细节都不同,司法智能裁量模型的建立实际上是舍弃了案例细微差异性而寻求共同性.但这些细微差异性或许对于某些案例的判决至关重要,因此,法官的判决与智能系统的司法建议不一致可能经常发生,需要建立适当的程序,保障法官尽可能避免因决策风险而遭受责难,坚持自己的判断.当法官的判决偏离了智能系统的预测,需要法官对判决不一致的地方进行较为详细的理由陈述,类似于“指导案例”的裁判规则的总结,为之后的类案裁判提供依据.陈述理由需要明确:(1) 待决案件与类案的不同点具有实质不同;(2) 社会及经济情况发生变化;(3) 类案存在错误、过时、理由不充分等缺陷.当然这种说明程序不能过多增加法官的工作量,防止法官因怕麻烦而选择“顺从”.法官对不一致案例的处理应是法官工作考评的加分项,鼓励法官对裁量模型的运行进行反馈与实时更新.
参考文献:
[1] 张妮, 蒲亦非. 计算法学导论[M]. 成都: 四川大学出版社, 2015.
[2] 申卫星, 刘云. 法学研究新范式:计算法学的内涵、范畴与方法[J].法学研究, 2020(5): 3.
[3] 鲁道夫·冯·耶林. 法学是一门科学吗?[M].奥科·贝伦茨, 编注. 李君韬,译. 北京: 法律出版社, 2010.
[4] Ruhl J B,Katz D M, Bommarito M J. Harnessing legal complexity [J]. Science, 2017, 355: 1377.
[5] 张妮, 蒲亦非.计算法学: 一门新兴学科交叉分支[J].四川大学学报: 自然科学版, 2019, 56: 1187.
[6] 凯文·D阿什利.人工智能与法律解析——数字时代法律实践的新工具[M].邱昭继,译. 北京: 商务印书馆, 2020.
[7] 刘雯静.类案智能推送系统改进建议——基于法官用户体验及类案检索系统的比对研究[EB/OL]. [2022-04-23]. http: //maszy.chinacourt.gov.cn/article/detail/2019/12/id/4739358.shtml.
[8] 李世宇.司法大数据在类案裁判中的应用探索[J].郑州大学学报: 哲学社会科学版, 2018(1): 24.
[9] 左卫民.如何通过人工智能实现类案类判[J].中国法律评论, 2018(2): 26.
[10] 王禄生.司法大数据与人工智能开发的技术障碍[J].中国法律评论, 2018(2): 46.
[11] Wing J M. Computing thinking[J]. Commun ACM, 2006, 49: 33.
[12] 理查德·萨斯坎德.法律人的明天会怎样?[M].何广越, 译.北京: 北京大学出版社, 2015.
[13] 高尚.司法类案的判断标准及其运用[J].法律科学, 2020(1): 24.
[14] 马超, 于晓虹, 何海波. 大数据分析: 中国司法裁判文书上网公开报告[J].中国法律评论, 2016(4): 195.
[15] 曹磊.类案检索对裁判文书写作的期待[J].扬州大学学报: 人文社会科学版, 2021(6): 28.
[16] 刚青卓玛.刑事裁判文书释法说理的现状及优化路径[J].贵州警察学院学报, 2021, 33: 64.
[17] 司法部.“数字法治、智慧司法”信息化体系建设指导意见[J].中国司法, 2018, 11: 108.
[18] 张新宝, 魏艳伟.司法信息公开的隐私权和个人信息保护研究[J].比较法研究, 2022(2): 104.
[19] 范姜真微.政府资讯公开与个人隐私之保护[J].法令月刊, 2001(5): 2.
[20] 高鸿钧.德沃金法律理论评析[J].清华法学, 2015(2): 96.
[21] Coons J E. Consistency [J]. California Law Rev, 1987, 75: 60.
[22] 罗· 庞德. 通过法律的社会控制、法律的任务[M]. 沈宗灵, 译.北京: 商务印书馆, 1984.
[23] 托马斯·威施迈耶.人工智能与法律的对话[M].韩旭至, 译.上海: 上海人民出版社, 2020.
[24] 黄仁宇.万历十五年[M]. 北京: 生活·读书·新知三联书店, 2006.
[25] 陈邦达.人工智能在美国司法实践中的运用[N].中国社会科学报, 2018-04-11(7).
[26] Grabmair M,Ashley K. Argumentation with value judgments-an example of hypothetical reasoning[C]//Proceedings of the 23rd Annual International Conference on Legal Knowledge and Information Systems (JURIX). Netherlands: IOS press, 2010.
[27] 凯文·D·阿什利.人工智能与法律解析——数字时代法律实践的新工具[M].邱昭继, 译.北京: 商务印书馆, 2020.
[27] Bench-Capon T, Modgil S. Norms and value based reasoning: justifying compliance and violation [J]. Artif Intell Law, 2017, 25: 29.
[28] Berman D H, Hafner C L. Incorporating procedural context into a model of case-based legal reasoning[C]//Proceedings of the third international conference on artificial intelligence and law.New York: ACM Press, 1991.
[29] 凯斯·桑斯坦.信息乌托邦—众人如何生产知识[J].毕竟悦, 译. 北京: 法律出版社, 2008.
[30] Surden H. Values embedded in legal artificial intelligence [J].IEEE Technol Soc Mag, 2022, 41: 66.
[31] 山本龍彦.AI と個人の尊重、プライバシー[M].东京: 日本经济新闻出版社, 2018.
[32] 韩振文.裁判思维的整合性认知[M]. 北京: 清华大学出版社, 2019.
[33] Francesca L, Giovanni S, Giuseppe C. The Ethical Knob: ethically-customisable automated vehicles and the law [J]. Artif Intell Law, 2017, 25: 365.
[34] 熊明辉.论法律逻辑中的推论规则[J]. 中国社会科学, 2008(4): 26.
[35] Bench-Capon T, Sartor G. A model of legal reasoning with cases incorporating theories and values [J]. Artif Intell, 2003, 150: 97.
[36] 马靖云.智慧司法的难题及其破解[J].华东政法大学学报, 2019(4): 110.
[37] 温州市中级人民法院. 全国第一家数据资源法庭揭牌设立![EB/OL]. [2022-05-23].https: //www.sohu.com/a/548420713_121123759.
[38] 刘云.论可解释的人工智能之制度构建[J].江汉论坛, 2020, 12: 113.
[39] 李成.人工智能歧视的法律治理[J].中国法学, 2021, 2: 127.
[40] 王东方.人工智能嵌入司法审判的逻辑[J].研究生法学, 2020(2): 90.
[41] Ebers M. Standardizing AI-the case of the european commission′s proposal for an artificial intelligence act [EB/OL]. The Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law and Ethics, 2021Available at SSRN: https: //ssrn.com/abstract=3900378 or http: //dx.doi.org/10.2139/ssrn.3900378.
[42] 段伟文.算法的客观性预设与运作策略之弊[N].社会科学报, 2022-10-27(6).
[43] 最高人民法院. 最高人民法院关于规范和加强人工智能司法应用的意见 [EB/OL]. [2022-10-12]. https: //www.court.gov.cn/fabu-xiangqing-382461.html.
[44] 程雷.大数据侦查的法律控制[J].中国社会科学, 2019(3): 189.
[45] 许可.驯服算法.算法治理的历史展开与当代体系[J].华东政法大学学报, 2022(1): 99.
[46] 沈伟伟.算法透明原则的迷思——算法规制理论的批判[J].环球法律评论, 2019(6): 20.
[47] Porto F D. Algorithmic disclosure rules [J]. Artif Intell Law, 2021, 29: 1.
[48] 丁晓东.论算法的法律规制[J].中国社会科学, 2020(12): 138.
[49] 刘定一, 沈阳阳, 詹天明, 等. 融合微博热点分析和LSTM模型的网络舆情预测方法[J]. 江苏大学学报: 自然科学版, 2021, 42: 546.
[50] 纪守领, 李进锋, 杜天宇, 等.机器学习模型可解释性方法、应用与安全研究综述[J].计算机研究与发展, 2019(10): 2071.
[51] Bibal A, Lognoul M, Streel A, et al. Legal requirements on explainability in machine learning [J]. Artif Intell Law, 2021, 29: 149.
[52] 王竹.司法人工智能推理辅助的“准三段论”实现路径[J]. 政法论坛, 2022, 40: 28.
[53] Branting L K,Pfeifer C, Brown B, et al. Scalable and explainable legal prediction [J]. Artif Intell Law, 2021, 29: 213.
[54] Prakken H, Ratsma R. A top-level model of case-based argumentation for explanation: Formalisation and experiments [J]. Argum Comput, 2022, 13: 159.
[55] 考夫曼.法律哲学[M].刘幸义, 译.北京: 法律出版社, 2004: 24.
[56] 孙跃.类案检索的司法适用及其完善[J].法律方法, 2022, 39: 268.
[57] Bhattacharya P, Ghosh K, Pal A, et al. Methods for computing legal document similarity: A comparative study [EB/OL].[2022-11-02]. https: //doi.org/10.48550/arXiv.2004.12307.
[58] 王燃.以审判为中心的诉讼制度改革——大数据司法路径[J].暨南学报: 哲学社会科学版, 2018(7): 61.
[59] Li S L, Li J Z.Hybridising human judgment,AHP,simulation and a fuzzy expert system for strategy formulation under uncertainty [J]. Expert Syst Appl, 2009, 36: 5557.
[60] 张宝生.人工智能法律系统.两个难题和一个悖论[J].上海师范大学学报: 哲学社会科学版, 2018(6): 25.
[61] Zhang N, Pu Y F, Yang S Q, et al. A Chinese legal intelligent auxiliary discretionary adviser based on GA-BP NNs[J]. Electron Libr, 2018, 36: 1135.
[62] Mohri M, Rostamizadeh A, Talwalkar A.Foundations of machine learning[M].Cambridge, MA: MIT, 2012.
[63] Katz D M, Bommarito M J. Measuring the complexity of the law: the United States Code [J]. Artific Int Law, 2014, 22: 337.
[64] 魏斌.智慧司法的法理反思与应对[J].政治与法律, 2021(8): 111.
[65] 郭春镇, 王凌皞.认知神经科学在法学中的应用研究[M].北京: 法律出版社, 2018.
[66] 罗伯特·阿列克西.哈贝马斯的法律商谈理论[M].雷磊, 译, 北京: 法律出版社, 2013.
[67] 张燕.人工智能未来已来.由感知智能向认知智能演变将催生新业态[J].中国经济周刊, 2020(1): 92.
[68] 达摩院.达摩院2020十大科技趋势[EB/OL].(2022-04-21)[2022-10-27].https: //damo.alibaba.com/events/57.
[69] 张妮, 蒲亦非.计量法学、计算法学到认知法学的演进[J].四川大学学报: 自然科学版, 2021, 58: 020001.
[70] 陆汝钤. 从大数据到大知识[J]. 重庆邮电大学学报: 自然科学版, 2022, 34: 921.
[71] 维克托·迈尔·舍恩伯格, 肯尼斯·库克耶.大数据时代——生活、工作与思维的大变革[M].盛杨燕, 译. 杭州: 浙江人民出版社, 2013.