论人工智能技术的刑法归责路径
2022-05-29曾粤兴高正旭
曾粤兴 高正旭
摘要:对人工智能进行法律治理的难点,在于人工智能技术具有相对独立于自然人的智能属性。鉴于现有的人工智能技术未能脱离智能工具的范畴,法律规制的重点不是人工智能技术本身,而是人工智能背后相关法律主体的行为。刑法需要把握算法这一人工智能技术的实质与核心,并以算法安全为纽带构建对人工智能相关法律主体的刑事归责路径。在具体方案的设计上,需要厘清刑法在人工智能治理活动中的功能与定位,避免出现过度纠结于技术逻辑的证明,或将刑法功能与前置法之功能相混淆的误区。
关键词:人工智能;科技风险;算法安全;法律体系;刑事归责
中图分类号:D914文献标志码:A文章编号:1007-9092(2022)03-0113-011
2017年国务院发布的《新一代人工智能发展规划》(以下简称《发展规划》)指出了我国存在“适应人工智能发展的基础设施、政策法规、标准体系亟待完善”的现状,自此人工智能相关的法律问题迅速成为我国法学领域研究的热点。刑法应当如何对人工智能进行归责,是近年来理论界的热门话题。目前的共识是,对于人工智能技术的发展,刑法的主要任务是防御人工智能技术给社会带来的不确定风险,同时也需要认识到智能技术是当今世界新的技术高地,我国必须全力争取在智能技术上的国际领先地位,所以在针对人工智能设计相应法律规则时,需要给技术进步留下合理空间。从刑法的角度看,人工智能所涉刑法问题,实际上属于刑法与科技、刑法与前置法共治的领域。所谓共治,是指不同的群体在平等基础上的合作。虽然在某一领域中实现了价值与目标上的统一,但是不同治理手段在实现治理的途径、方式、作用等方面存在区别。就人工智能法律治理而言,前置法与刑法之间存在着法律体系中层次的不同,只有当前置法无法有效规制相关行为时,刑法才进行介入。而法律与科技则属于不同的领域,科技作为当今社会重要的生产要素,有其自身发展进步的规律与知识体系,而法律在为科技进步创造良好的社会环境的同时,也需要限制科学技术手段可能给社会带来的副作用。
在目前法律框架下,刑法所需要做到的是针对人工智能所产生的刑法问题寻找合适的切入点实现对人工智能相关主体的刑事责任判断,从而使刑法有效参与到人工智能的治理活动中。我国具体负责推进规划实施人工智能发展战略的科技部下属国家新一代人工智能治理专业委员会,于2021年9月25日发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),本文将结合该规范的相关内容,对人工智能的刑法归责路径进行探讨。
一、人工智能的法律归责困境
人工智能技术不同于其他科学技术的关键点,在于目前有深度学习功能的人工智能系统已经可以通过与环境的交互和不断地试错而具有自主学习的能力,相对于早期的弱人工智能而言,已经进入强人工智能阶段,使其一定程度上独立于相关的自然人。曾毅、刘成林、谭铁牛:《类脑智能研究的回顾与展望》,《计算机学报》,2016年第1期。这也成为了刑法对人工智能进行归责的难点。
(一) 人工智能的工具属性
人工智能区别于其他科学技术的智能能力,指可以执行通常与人类智慧有关的智能行为,如推理、识别、感知、思考、规划、学习等等。关于人工智能技术,存在着两种不同的发展理念:第一种是,属于智能工具,用以减轻人类劳动的弱人工智能;第二种是,属于社会进步的主体,达到或超越人类智慧水平,具有心智和意识,依据独立意图开展行动的强人工智能。从技术层面看,目前人工智能所取得的进展和成功基本上都是基于弱人工智能技术,但在军事、家庭生活(如性伴侣、棋手)等个别领域,已进入强人工智能阶段,预计在不远的将来,会进入超强智能阶段,为此,有人担忧人工智能的进一步发展,有可能终结人类文明。实证研究显示,大多数社会公众并不希望人工智能完全独立于人类。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,Frontiers in Robotics and AI, vol. 8 (November 2021), p.5.当然,据此我们还无法否定未来出现超强人工智能的可能性。人工智能技术的进一步发展,可能会使人工智能这一纯粹的技术性问题最终超越科学的领域,对人类社会的伦理、道德、法律等方面产生深远的影响。其中既可能存在技术进步所带来的福利,也可能产生传统社会难以预见到的风险,“面对人工智能技术发展可能带来的负面影响,我们刑法学者不应该无动于衷,刑事立法和刑事司法更不应该面临危险而束手无策”。刘宪权:《人工智能时代的“内忧”“外患”及刑事责任》,《东方法学》,2018年第1期。
据此,刑法理论对人工智能的独立刑事责任地位进行了广泛探讨。如认为对人工智能刑事责任主体地位的研究符合时代发展需求,如果一定要等到强人工智能全面到来的时代再研究相关法律问题,会使得法律及相应的规章制度落后于科技进步,只有进行前瞻式的研究才能消除人们对人工智能犯罪的恐惧。彭文华:《人工智能的刑法规制》,《现代法学》,2019年第5期。也有的认为,承认人工智能的刑事责任主体地位并非没有意义,因为人工智能的“智能”来自于对海量数据的学习,对人工智能施以刑罚,可以使人工智能通过对相关法律信息和判例的收集获取正确的法律观念,实现一般预防的作用。程龙:《自动驾驶车辆交通肇事的刑法规制》,《学术交流》,2018年第4期。
类似的研究具有一定的前瞻性,但针对的也都是今后可能出现的超强人工智能,对于现有的弱人工智能技术而言,其智能的实质是依照生产时所用的算法规则,对外界事物或指令所作出的反应。松尾丰、盐野诚:《大智能时代:智能科技如何改变人类的经济、社会与生活》,陆贝旎译,机械工业出版社2016年版,第6页。现有的弱人工智能技术不具备独立于自然人的自由意志,并且具有可支配性,所以弱人工智能没有脱离智能工具的范畴,理论上尚无讨论其独立刑事责任主体的空间,因为“法律作为最重要的社会规范,最终要来源于社会存在的合理要求,而不应该来自空洞的想象力”。龙卫球:《人工智能立法规范对象与规范策略》,《政法论丛》,2020年第3期。而且部分应用领域中基本不可能發展出强人工智能,如在医疗领域中,无论技术如何进步,或许都不能否认自然人医师在医疗过程中的主导地位,完全自主的医疗人工智能并不符合人工智能有益、可控的发展目标,也不能符合社会的需要。退一步讲,即使出现了医疗领域的强人工智能,在患者使用完全脱离医师主导的医疗人工智能进行治疗的情况下,因为缺乏“医师—患者—医疗机构”之间的医患关系基本结构,这种治疗已变成患者本人运用智能设备的“自诊”的行为,难以通过现行的医事法律规范和医事犯罪的相关规定进行处理。皮勇:《论医疗人工智能的刑法问题》,《法律科学》(西北政法大学学报),2021年第1期。
同时,即使赞同人工智能的犯罪主体地位,也需要注意到人工智能的智能程度划分是需要技术方面的工作,并不是法律上的简单判断。因为人工智能主体虽然具备相对独立于自然人的“智能”,但是不可能做到完全等同于自然人的思考与判断,对于其“智能”的基本组成要素、判断规则以及具体标准等,都属于需要技术领域回答的重要问题。王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》,2019年第1期。在相应技术标准尚不明确的情况下,在刑法领域中并不具备对人工智能的刑事责任主体地位进行有效探讨的条件。
从国家对人工智能技术发展的具体要求来看,《伦理规范》第3条第4款的规定延续了《发展规划》中“确保人工智能安全、可靠、可控发展”的要求,明确指出人工智能开发需要坚持可控可信的原则,不能剥夺人类的“充分自主决策权”,人类有权随时退出与人工智能的交互,有权随时终止人工智能的运行,从而确保人工智能始终处于人类控制之下。所以即使人工智能技术对国家发展具有战略意义,完全脱离自然人管控范围的超强人工智能也不是我国人工智能技术的发展方向。
当代刑法肩负积极有效贯彻安全政策、保证国家总体安全的特殊使命。需要为社会提供积极能动但又不失审慎适度的刑法保障安全之逻辑与方案。高铭暄、孙道萃:《总体国家安全观下的中国刑法之路》,《东南大学学报》(哲学社会科学版),2021年第2期。所以在进行前瞻性思考之外,我们更需将目光聚焦在当下,在认识到其工具属性本质的基础上,对现有人工智能技术给法律制度、法学理论所产生的影响进行分析,提出合理的解决方案,这也有利于增强社会公众对人工智能技术的信任,从而保障人工智能技术的进一步健康发展。毕竟法律是行为规范,科技本身不会成为法律规范的对象,需要规范的是科技活动及其产生的社会问题。龙卫球:《人工智能立法规范对象与规范策略》,《政法论丛》,2020年第3期。
(二)算法黑箱问题
算法作为人工智能技术的核心,其本质是计算机按照一系列指令去执行、处理收集到的数据。算法可以根据收集到的数据对原有的算法模型和假设进行持续检验,并作出实时调整,从而构成了人工智能相对独立于自然人个体的智能化基础。金东寒主编:《秩序的重构:人工智能与人类社会》,上海大学出版社2017年版,第105页。对社会公众而言,算法这一相对独立的决策过程具有不可知的技术逻辑,即算法黑箱。在智能时代中这种不可知的技术逻辑正在深刻影响着我们的生活,在我们已知或未知的领域替我们做着决定,引导我们的行为,故算法黑箱被视为人工智能技术风险的根源。在刑法理论上,算法黑箱问题则是对人工智能所造成的损害进行归因判断的一大障碍。
刑法中的归因判断,是指通过行为人的行为与损害结果之间的因果关系,确定结果是否可以归属于一定的行为。基于算法的独立运行逻辑,在归因上需要判断算法的独立运行是否会割裂损害结果与相关主体行为之间的因果关系。因为如果认为算法的运行逻辑对人工智能设计者或使用者而言是不可知、不可控的过程,则难以认为算法所导致的损害可以归属于相关的法律主体。
辨析算法运行中的逻辑,涉及算法的解释问题。对于算法是否能够被解释,有观点指出现实中许多大型算法应用往往存在多种算法叠加使用的现象,使得专业人员也难以对其解释,而且即便可以解释,解释的结论也难以被一般公众所理解。苏宇:《算法规制的谱系》,《中国法学》,2020年第3期。相反的观点则认为,算法的设计是一个具有目的性的過程,即使存在有将算法进行拆分或组合使用的复杂算法,设计算法所欲追求的目的也是可以探求和解释的,所以算法黑箱是相对的,对算法黑箱的怀疑和恐惧,实质是社会公众对算法决策中因果关系认知的断裂。金梦:《立法伦理与算法正义:算法主体行为的法律规制》,《政法论坛》,2021年第1期。
虽然对算法黑箱的认识具有一定分歧,但从以下角度来看,算法黑箱的存在并不能否认弱人工智能所具有的工具属性,也就不能割裂人工智能损害结果和相关主体行为之间的因果关系。
首先,算法在设计上需要人为地设定价值目标。在算法设计时所设定的价值目标相当于设计者给算法所下达的指令,之后算法的所有运作虽看似是一个脱离人为控制的状态,但实质上都是依据所收集的数据和环境信息,不断朝向最初设置的目标运作并优化的过程。金梦:《立法伦理与算法正义:算法主体行为的法律规制》,《政法论坛》,2021年第1期。部分算法风险,即源于最初的价值设定偏差。算法在自我运行时应该收集什么类型的数据,也需要人为设定。因此,算法在运行中所做的任何决定都需要由人类授权,人类可以对他们在开发和使用人工智能和算法时所做的决定负责。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2055.又如在人工智能的伦理问题方面,人工智能难以通过自我学习来认识广大的社会系统,进而形成合理的伦理观念,但设计者完全可以赋予算法一定的价值判断规则,使算法的决策尽可能符合社会伦理。故弱人工智能应用的算法在合规律地运行时,可以视为设计者价值诉求的体现,对此也可以要求算法的设计者通过分析各种风险会以何种方式进入系统,对相关风险进行积极规避。沈向洋、施博德:《计算未来:人工智能及其社会角色》,北京大学出版社2018年版,第26页。其次,在算法运行的过程中可以实现人为的干预。目前主流人工智能技术以具有工具属性的弱人工智能为发展方向,《发展规划》和《伦理规范》也并不赞同开发独立于自然人的超强人工智能,发展人工智能技术的目的在于使其更好地服务于人类,实现人工智能与人类的协调工作,所以人机交互是人工智能发展所需突破的重要技术领域,使人工智能系统更好地接受、理解人所给予的指令。如自动驾驶汽车,其驾驶行为虽是自动的,但何时出发、目的地的设定、中途是否需要更换目的地或停车,都要依照人的指令决定。且对于自动驾驶汽车而言,不仅使用者在使用时可以对其下达指令,如果没有相关的保护措施,自动驾驶汽车可能会被黑客通过网络侵入其自动驾驶系统而劫持。Kyounggon Kim, Jun Seok Kim, Seonghoon Jeong, Jo-Hee Park and Huy Kang Kim, “Cybersecurity for Autonomous Vehicles: Review of Attacks and Defense”,Computers & Security, vol. 103 (April 2021), p.21.研究也发现,如果用户对算法进行轻微的控制,部分算法错误是可以被克服的。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,Frontiers in Robotics and AI, vol. 8 (November 2021), p.2.故在具体应用的过程中,人工智能也处于相关法律主体的支配之下。
智能技术虽然在一定领域内可以实现自主运行,但是不具有自由意志和可以由人所支配两大特征,决定了目前的智能技术及产品仍属于一种为人所支配的工具。刘宪权:《智能机器人工具属性之法哲学思考》,《中国刑事法杂志》,2020年第5期。在目前的技术条件下,通常程序员和用户都知道他们想如何处理人工智能,更准确地说,他们知道自己希望人工智能为他们做什么。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2059.所以一定程度上算法黑箱的存在,并不足以使我们积极承认人工智能的独立主体地位,更不能割裂算法相关主体与损害结果之间的因果关系。《伦理规范》第12条对实现人工智能算法“可验证、可审核、可监督、可追溯、可预测、可信赖”的要求,也破除了今后算法黑箱可能对刑法归责产生的障碍。如果在偶然情况下出现了算法完全失控的情形,则在刑法上应依据意外事件处理,而不是积极追究相关主体的刑事责任。魏东:《人工智能犯罪的可归责主体探究》,《理论探索》,2019年第5期。而关于算法是否完全失控属于技术领域需要判断的问题,必须由相关技术机构进行鉴定从而得出结论。
二、以算法为切入点的归责路径
上文的分析指出了刑法对人工智能相关主体进行归责不存在根本性障碍的问题,接下来需要讨论的是刑法需要对什么样的主体进行归责和应当以什么样的切入点对相关主体进行归责。
(一)归责的对象
在关于人工智能刑事主体地位的讨论中,理论上很多观点认为我国刑法中的单位刑事主体资格是刑法拟制的结果,所以对人工智能刑事责任主体地位进行拟制也不存在障碍。但是单位实质上是自然人权利与义务的集合体,对单位刑事责任的探讨,也是通过单位中具体自然人的意志和行为来进行的。黎宏:《刑法学总论》,法律出版社2016年版,第111页。同样,对单位施以刑罚,实际上剥夺的是单位中具体自然人的权利,从而起到刑罚预防犯罪的效果。所以,刑法对单位主体的拟制,并不能用来支持人工智能的独立刑事主体地位。基于目前人工智能所具有的工具属性,人工智能所造成的损害,归根结底是相关主体行为所造成的损害,刑罚要实现对犯罪的预防,就需透过人工智能这一技术工具,寻找其背后的可归责主体。
在现代技术使用和发展的过程中,往往存在一个漫长的因果链,在人工智能技术中这一点尤其突出。人工智能所运用的复杂软件系统往往有着许多开发人员在不同阶段参与软件各个部分的研发,即使在人工智能基于算法自我学习的情况下,也有一个数据的生产、选择和处理的过程,这一过程同样也需要有多主体多阶段地参与。无论是提供数据的人、收集和处理数据的人、出售数据的人、分析数据的人等,都有可能影响人工智能自我学习的过程。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.同时,每一个参与其中的主体,都只对自己所参与的具体阶段具有认识,而无法预测也无法控制在上一阶段或下一阶段中其他主体对人工智能运作過程所施加的影响。该因果链条还可以继续延伸至算法的应用阶段,在算法被使用者所支配时,也完全可以产生相应的损害结果。并且在此因果链条中,人工智能所造成的损害有可能是由多个阶段因果关系所叠加造成,也完全可能是由当中的某一阶段所独立造成,故理论上将人工智能责任判断的特点概括为一种“多主体的责任”(the Problem of Many Hands)。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.如何在因果链条中准确定位出原因行为,对于人工智能相关主体的责任判定具有关键性意义。
《伦理规范》第2条规定了该规范的适用主体包括“从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等”,并在第2条第1款至第4款中明确了相关主体的定义。该规定为人工智能相关主体划定了具体的范围,并且符合人工智能“多主体责任”的特点,对“管理、研发、供应、使用”中的主体行为进行规制,可以覆盖人工智能从设计研发到最终投入使用的每一个环节。就刑法而言,需要重视《伦理规范》对人工智能相关主体范围的界定,因为过去刑法理论界对人工智能产品责任的讨论,往往只集中于生产者和使用者这二者之间的责任划分上。陈禹衡:《算法优化语境下自动驾驶汽车交通肇事的困境纾解》,《苏州大学学报》(法学版),2021年第3期。这种责任划分与2017年的《发展规划》中对人工智能“实行设计问责和应用监督并重的双层监管结构”进而将监管重点放在设计和应用两个方面的要求相符合,能够有效处理大部分人工智能产品致损的案件。但《伦理规范》中对相关主体范围的界定带给刑法理论的启示是:有时人工智能损害的原因并不来源于生产者或者使用者,在人工智能管理或者研发环节出现的问题,也完全有可能导致损害结果的发生,进而产生刑事归责的问题。如既然要求建立相应的人工智能监管机制,依法负有对人工智能相关活动监管义务的国家机关工作人员,就有可能因工作失职构成玩忽职守或滥用职权罪,这是监督过失原理能够得出的结论。又如人工智能产品的生产活动依照《伦理规范》第2条的定义属于人工智能的供应环节,而在人工智能技术的开发过程中,人工智能的生产者和研发者有可能并不是同一主体。如在生产过程中叠加使用已公开的算法技术的情形下,生产者并不能支配上游算法研发的过程,而上游算法研发过程中出现的偏差,往往就是导致人工智能出现缺陷问题的根源。人工智能“管理、研发、供应、使用”的主体都能够在不同阶段实现对人工智能的控制或干预,也就需要为此负担相应的义务,这是业务过失原理能够产生的结论。
风险社会中安全是刑法所需要坚持的基本价值取向之一,并且在特定的情况下刑法的安全价值优先于其他价值,即有时只有在实现安全价值的前提下,刑法才能追求其他的价值。魏汉涛:《人类基因编辑行为的刑法规制》,《法商研究》,2021年第5期。所以,如果仅仅从生产者和使用者的角度进行讨论,会忽视了同样处于“多主体责任”因果链条中的人工智能管理者和研发者,难以符合当代刑法防御科技风险的需求。当然,人工智能所造成的损害也可能存在无法对相关主体归责的情况。比如在研发、供应、管理、使用环节都符合规范要求的情况下,人工智能所应用的算法也可能产生算法歧视、算法偏见的现象。其原因可能是算法自主学习了网络上普遍存在的歧视性、偏见性知识,这种现象是算法对于社会客观存在的反映,可以说整个社会群体都对此负有责任。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2064.對于此类现象,刑法需要保持应有的谦抑,即使为了防御风险也不能仅依照结果进行追责,否则容易扩大打击面,使刑事责任蜕变为一种单纯的结果责任,从而迫使人工智能从业人员战战兢兢,畏首畏尾,不适当地抑制算法进步和人工智能的正常发展。
(二)算法的纽带作用
确定需要追责的主体范围后,我们可以进一步考察确认相关主体刑事责任的具体路径。
以自动驾驶汽车为例,自动驾驶汽车责任判断的难点在于确认当自动驾驶造成损害时自动汽车究竟处于哪一主体的控制之下。《伦理规范》第15条规定了人工智能生产者具有“加强质量管控,不得经营、销售或提供不符合质量标准的产品与服务”的义务;第22条规定了人工智能的使用者具有“主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用”的义务。从这两条规定来看,在产品缺陷导致自动汽车肇事时,可以对相关生产商以生产不符合安全标准的产品罪定罪处罚。从逻辑上说,如果生产者明知自动驾驶系统存在严重的算法缺陷,可能导致使用过程中出现肇事结果而予以隐瞒,最终导致使用者肇事结果的发生,其主观上具有放任的故意,从而竞合以危险方法危害公共安全罪,应当以较重的罪名从重处罚。但笔者认为,鉴于人工智能尚处于需要进一步发展的状态,严苛的责任固然可能存在一般预防的功能,但也可能压抑设计者、生产者的探索热情,因此,笔者主张即使上述逻辑推演能够成立,也应当立足于司法的谦抑而作出有利于被告的认定。质言之,仅仅以法定刑相对于较轻的生产、销售不符合安全标准的产品罪问责,即可在一般预防与特殊预防之间找到平衡点。而在自动汽车不存在产品问题时,根据《伦理规范》第3条的规定,人工智能使用者“有权随时终止人工智能系统的运行,确保人工智能始终处于人类控制之下”的规定,似乎可以推导出使用者有预见肇事结果的义务和能力的,从而进一步演绎出使用者对事故存在过失的结论,最终要求使用者对交通肇事结果承担罪责。对使用者而言,一般不会出现明知车辆自动驾驶系统存在算法缺陷有肇事可能仍然敢于驾驭的情况,因此很难得出使用者对肇事结果存在故意的结论。
之所以发展自动驾驶技术,是为了提高道路交通的便利程度。对于使用者而言,自动驾驶技术可以最大程度地将使用者从驾驶员的身份中解放出来,减轻驾驶行为对其产生的负担。在此情况下,如果还需要使用者承担驾驶普通汽车一般的注意义务,否则可能因此承担刑事责任的话,会使自动驾驶汽车对消费者的吸引力大打折扣。依照自动驾驶技术最大程度减轻驾驶员负担的目的,理论上认为自动驾驶汽车的使用者,在智能系统完全接管汽车运行的过程中,即使出现事故也可以依照信赖原则得以免责,只有在自动驾驶系统对使用者发出提示时,使用者才有义务介入以保障驾驶安全。付玉明:《自动驾驶汽车事故的刑事归责与教义展开》,《法学》,2020年第9期。
从自动驾驶技术的现实应用情况看,达到L4等级的高度自动化驾驶汽车已在我国部分城市进行试运营。赵禹程、张永伟、俞乔:《无人驾驶汽车发展史、技术现状与创新管理模式研究》,《新疆师范大学学报》(哲学社会科学版),2021年第4期。L4等级是自动驾驶技术的飞跃,因为对于L4与L5级别的自动驾驶汽车而言已经没有了“驾驶员”这一概念,由此则出现了不能追究使用者责任的问题。松尾刚行:《关于自动驾驶汽车与刑事责任的考察》,《法治现代化研究》,2019年第1期。所以有观点认为人工智能算法的智能程度越高,使用者对人工智能的控制责任就越弱,生产者则有责任和义务来设计出好的算法,让算法发挥积极的正面作用,人工智能真正的因果追责趋向应该是算法背后的生产者。陈禹衡:《算法优化语境下自动驾驶汽车交通肇事的困境纾解》,《苏州大学学报》(法学版),2021年第3期。
从宏观层面来看,对人工智能的研发者和生产者赋予较为严格的义务是有必要的。无论是在传统的农业社会或工业社会中,社会在整体结构上都呈现出等级化、中心化的特征,经济活动、社会管理均围绕公权力主体运作。而在大数据与人工智能的时代,无论是经济活动的宏观决策、个人日常消费很大程度上都依赖于算法的运作,智慧政府、智慧司法的建设,也会在一定程度上将原专属于国家公权力的决策让渡予算法决策,加剧了社会的扁平化和去中心化。齐延平:《论人工智能时代法律场景的变迁》,《法律科学》(西北政法大学学报),2018年第4期。但随着智能技术的进步,手握海量数据和智能技术的主体,不仅容易在经济活动中取得优势地位,基于大量数据和相关算法技术,此类主体甚至可以对经济运行和社会发展的趋势进行预判,从而在广泛的领域内对社会产生影响。随着持有海量数据和智能技术的公司、平台影响力的逐步扩大,原本经由大数据时代被“去中心化”的人类社会,会因为依赖于相关公司、平台的运作而实现网络时代的“再中心化”。科技寡头对社会关系和社会规则进行重塑时,普通公众是完全被动的,由此产生的技术精英与普通公众之间两极分化,容易造成新的社会问题,产生对国家安全、社会安全、金融安全的威胁。所以在智能时代,法律制度的设计上需要迎回“义务本位”。齐延平:《论人工智能时代法律场景的变迁》,《法律科学》(西北政法大学学报),2018年第4期。对掌握智能技术的研发者和生产者赋予相关义务以规范其行为,是法律抗制科技风险的关键。但也需要注意,如果将高度智能化产品所造成的损害一律归责于生产者与研发者,那么对生产者和研发者而言,这些责任就成了一种结果责任,这对生产者和研发者而言是难以接受的。当然,人工智能本质上是由生产商或研发机构根据算法形成的一种“产品”,金东寒主编:《秩序的重构:人工智能与人类社会》,上海大学出版社2017年版,第87页。所以在民事层面上可以依照产品责任的无过错归责原则对相关损害进行处理。刑事责任的认定则依据《刑法》第16条的规定必须以行为人主观上具有故意或者过失为前提。而且毫无疑问的是,如果在刑法上对算法采用严格责任,会直接扼杀人工智能技术的进步。刘宪权:《涉人工智能犯罪中的归因与归责标准探析》,《东方法学》,2020年第3期。另外,依据《伦理规范》的相关要求,即使出现了高度自动化的智能产品,也不能免除生产者、研发者以外其他相关主体对人工智能技术所应承担的义务,但是法律设计上不能把保障人工智能安全运行的义务过度强加于研发者与生产者。面对这样的情况,就需要在法律上寻找能更好平衡技术发展中不同价值之间矛盾的方案。
在传统归责路径存在障碍的情况下,刑法需要寻找新的切入点对人工智能技术进行规制。对此,可以尝试以算法为切入点探讨相关主体的刑事责任。算法是人工智能技术的实质与核心,对算法的掌控即是对人工智能风险的掌控,所以算法可谓是在法律体系下对人工智能技术风险进行规制的一把钥匙,可以在法律领域中实现“人工智能规制→算法规制→算法相关法律主体规制”的转变。理论上已有学者提出以作为公共安全的“算法安全”为人工智能犯罪所保护法益的观点。魏东:《人工智能算法安全犯罪观及其规范刑法学展开》,《政法论丛》,2020年第3期。通过这种视角,可以揭示人工智能技术风险作为一种新型的社会风险,在广泛的领域内对公共安全产生威胁的本质,使其有效区别于其他类型的犯罪。反之,在现有刑法框架下,无论将人工智能犯罪认定为生产不符合安全标准的产品等破坏市场经济秩序的行为,还是认定为破坏计算机系统等扰乱公共秩序的行为,都难以反映人工智能犯罪危害公共安全的实质特征,对此也许需要设立新的罪名以保护算法的安全法益。基于本文的立场,该罪名应当配置较轻的法定刑。同时,在智能时代“义务本位”的法律设计中,通过围绕算法安全设置相关义务,可以将责任合理分配至《伦理规范》中所定义的相关主体,即所有相关主体的义务都是以维护“算法”这一人工智能实质内涵的安全为核心,在避免某一主体义务过重的情况下,使刑法的规制覆盖人工智能从开发到应用的整个过程,最大程度防御各个环节可能产生的公共安全风险。
三、算法刑事归责路径的具体问题分析
如前所述,人工智能法律问题是刑法与科技、刑法与前置法所共治的领域。在最大限度降低风险,确保人工智能安全、可靠、可控发展的共同价值前提下,人工智能领域的治理手段是多元化的,包括有伦理原则、政策导向、法律规制、技术治理手段等不同方面。刘露、杨晓雷、高文:《面向技术发展的人工智能弹性治理框架研究》,《科学与社会》,2021年第2期。在这种共治关系中,不同治理方式之间是一种相互沟通与合作的关系。上文提出的以算法安全为刑法参与相关治理活动的具体进路,需要在共治关系中明晰刑法发挥作用的功能与范围,避免与其他不同的治理方式产生混淆。
(一) 刑法逻辑与技术逻辑的区分
面对科技风险,法学领域中真正的论点不是要不要采取预防原则的问题,而是預防程度的强和弱的问题。陈景辉:《捍卫预防原则:科技风险的法律姿态》,《华东政法大学学报》,2018年第1期。科技对社会产生的不确定风险是一种客观的存在,刑法通过算法安全这一纽带,所要规制的是与算法相关的法律主体的行为,而在此过程中,刑法需要面对技术逻辑给刑法判断所带来的挑战。
上文指出了算法黑箱不能成为刑法归责的障碍,因为算法仍处于相关主体所能支配的范围。但是仅仅论述至此,还不能说刑法因果关系的判断已跨过了算法这一技术逻辑的障碍。因果关系是危害行为与危害结果之间的引起与被引起的关系,但在刑法视野下,并不是所有对危害结果产生作出贡献的行为都是刑法规制的对象。刑法需要对条件因果关系加以限制,确定具体的一个或数个行为进行归责。对于人工智能造成的损害而言,关键在于确认具体的损害结果究竟需要归因于研发、供应、管理、使用的哪一个或哪几个环节。
在刑法因果关系的判断上,受日本刑法理论的影响,相当因果关系理论在我国成为了有力学说,该理论认为“通过一般性地观察某种事态,当一般人在经验上认为存在某种先行事实就会发生某种后行事实是通常的,就肯定刑法上因果关系”。高桥则夫:《刑法总论》,李世阳译,中国政法大学出版社2020年版,第107页。但在以算法为纽带评价人工智能犯罪归因问题时,算法中科技逻辑所形成的壁垒直接切断了以“一般人经验”作为判断基准的可能性。而另一种思路,是通过客观归责理论,即“行为制造了法律所不允许的危险→该行为使该危险实现在作为构成要件要素的结果之中”的判断步骤来认定因果关系。周光权:《刑法总论》,中国人民大学出版社2021年版,第129页。客观归责的优点在于通过“法不允许的危险”这一概念,使结果归属与规范的要求得以结合起来,这对于人工智能归因判断是重要的。因为在以义务为本位的法律设计中,与人工智能相关的犯罪是典型的法定犯,各主体负有不同规范赋予的维护算法安全的义务,主体行为是否违反了规范赋予的义务,是否因此创设了“法律不允许的危险”,是对其刑事责任进行追究的起点。如前所述,对于人工智能的法律设计,需要为人工智能技术的进一步发展留有合理的空间,而人对技术的认识是具有局限性的,所以法律需要对超出认识范围的风险保有一定的宽容心态。当主体的行为没有违反相关规范的规定时,即使产生了一定风险也不宜进行归责,承认“被允许的风险”存在,能够更好地实现人工智能技术的社会效益。付玉明:《自动驾驶汽车事故的刑事归责与教义展开》,《法学》,2020年第9期。
通过客观归责的方式判断人工智能相关主体的责任也存在理解上的难点,因为进行客观归责所需阐明的“法所不允许的危险”和“危险实现”这两个关键问题并不是经验所能确定的,需要以规范的判断为前提,而这种规范判断应如何进行?应依照什么样的标准进行?“客观归责”这个概念本身并没有告诉我们。托马斯·魏根特:《客观归责:不只是口号?》,王静译,梁根林、埃里克·希尔根多夫编:《刑法体系与客观归责:中德刑法学者的对话(二)》,北京大学出版社2015年版,第97页。因为人工智能相关犯罪是法定犯,所以对“法不允许的危险”需要参照前置法律规范进行规范判断,前置法定性、刑法及其司法定量的主张特别具有现实意义,田宏杰:《知识转型与教义坚守:行政刑法几个基本问题研究》,《政法论坛》,2018年第6期。在此不再赘述。对于应当依照什么标准进行判断,即如何确定风险与结果之间的因果关系,就涉及在人工智能法律治理中的技术逻辑与法律逻辑的区分。
法律在面对这种技术逻辑所带来的障碍时,需要正视法律自身的局限性,将技术判断交给相关技术部门解决。这样的做法并不会影响法律自身功能的发挥,因为法律的运作从来都离不开其他部门的辅助。典型的如医疗事故鉴定,相关医疗行为与损害结果之间的因果关系即为纯粹的技术逻辑,需要依赖于专业鉴定部门的结论来确定责任。在这些法律与技术共治的领域,法律的工作是搭建好防御风险、保障相关主体权利的合理法律框架,而不是纠结于因果关系中所包含的技术逻辑如何得到证明。算法安全是刑法对人工智能技术进行规制的切入点,目的在于要求人工智能相关行为主体依照自身所承担的义务,实现人工智能“安全、可靠、可控”的发展。理论上有观点虽然认识到了人工智能与其所造成结果之间的因果关系是一种纯粹的技术逻辑,但是认为“这种纯粹技术结构的方法论致使算法及其计算结果彻底隔离于社会规范,进而使之跳脱于侵权法律责任判定的维度之外,这种挑战对于法律理论中的因果关系判定是一种根基性的撼动”。李文静、栾群:《人工智能时代算法的法律规制:现实、理论与进路》,《福建师范大学学报》(哲学社会科学版),2020年第4期。笔者认为,这种结论未能正视共治领域中的技术逻辑与法律逻辑的关系,夸大了技术逻辑的作用。如前所述,对技术逻辑因果关系的判断并不是法律需要完成的工作。实体法在司法领域中是以证据为基础对案件事实进行认定从而得出结论的,证据的基本属性包括了客观性,所以算法因果关系等问题的证明,不能从法律的角度基于对技术逻辑模棱两可的认识进行推测,对于专业的技术问题,法律需要尊重技术领域得出的结论。当相关证据不充分,如科技领域只给出了“有可能”的结论时,在司法领域中重要的“存疑有利于被告”原则便可以发挥作用,以此实现刑法的人权保障的功能。
当然,法律需要为技术部门对算法因果关系的判断提供依据。对此,实践中《发展规划》和《伦理规范》已为在立法领域进一步完善相关法律规范提供了宏观指导,要求算法“逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖”。在理论层面,学者们也为解决算法因果关系判断提出了不同的解决方案,如要求算法设计者设置完整的算法设计日志、张凌寒:《算法规制的迭代与革新》,《法学论坛》,2019年第2期。建立算法登记制度、苏宇:《算法规制的谱系》,《中国法学》,2020年第3期。统一算法的设计生产标准和给人工智能安装类似飞机黑盒子一样的监控装置。金东寒主编:《秩序的重构:人工智能与人类社会》,上海大学出版社2017年版,第264页。
(二)刑法与前置法的功能区分
在人工智能治理领域中,除了对法律逻辑与技术逻辑进行区分以外,还需要避免出现刑法与前置法功能的混淆。
在社会风险激增的背景下,扩张刑法制裁范围以对社会风险进行预防是世界范围内普遍存在的现象,具有其必要性与必然性。从我国刑事立法的实践看,“功能性特征极其明显,立法者的反应更为迅捷,通过刑法控制社会的欲望更为强烈,触角也伸得更长”的积极刑法立法观已经在我国得以确立。周光权:《论通过增设轻罪实现妥当的处罚:积极刑法立法观的再阐释》,《比较法研究》,2020年第6期。但对预防功能的重视并不会改变刑法在国家法律体系中的后置法地位,因为刑法理性参与犯罪治理,不能仅仅是寄希望于高压威慑,而是需要把刑法作为社会治理中的一种具体手段,同其他社会资源共同有效控制犯罪、防御社会风险。高铭暄、孙道萃:《预防性刑法观及其教义学思考》,《中国法学》,2018年第1期。代表积极预防主义的微罪立法、危险犯的立法也只是个别特例。在我国违法与犯罪的二元制裁体系中,刑事犯罪与一般违法行为之间应具有社会危害性“量”上的区别,刑法所规制的只是已超出前置法律规制范围的具有“严重社会危害性”的犯罪行为。防御人工智能技术所产生的风险,对法律的要求是多方面的。如高度依赖于网络的人工智能,需要完备的网络安全法律规范提供保障;人工智能技术对大数据的需求,需要一套能够兼顾技术发展需求和相关主体信息权利保障的法律规范;人工智能自主性的提升对社会伦理的影响,也需要相关规范加以应对。这些都是过去法律考虑不充分或者没有考虑到的问题,在今后立法活动中需要进一步完善。龙卫球:《人工智能立法规范对象与规范策略》,《政法论丛》,2020年第3期。而且刑法与前置法对于维护算法安全所发挥的功能并不相同,基于刑法在法律体系中的后置法地位,对维护算法安全的义务,需要从前置法到刑法进行层层保障。所以相关义务如保障算法安全所需的网络安全、伦理规范、数据保护规则等,首先需要由前置法律规范进行确认,刑法不宜直接介入加以规定。在对人工智能进行治理的共治领域中,基于法秩序统一的原理,在人工智能相关主体的义务认定上刑法需要与前置法保持一致。对此,刑法可以通过空白罪状对相关前置法律规范中的规定进行引用,维护法律秩序的统一,避免在相关问题的认定上出现与前置法规定相矛盾的结论。
算法安全这一法益搭建了刑法参与人工智能法律治理的桥梁,在共治关系中,前置法为人工智能相关主体设定的义务,是刑法据以判断刑事责任的依据,为了避免刑法对人工智能技术的进步产生阻碍和混淆刑法与前置法的不同功能,在对人工智能相关主体的规制中刑法需要保持合理的谦抑,坚持刑法在法律体系中的后置保障法地位。
刑事立法在围绕算法安全这一新型法益设计罪名时,需要保持罪名对相关行为类型化的高度概括性,以充分发挥刑法对前置法的保障作用。对此,理论上已提出了在刑法分则第二章危害公共安全罪中新增“设计、制造、销售、使用不符合算法安全标准的人工智能产品罪,非法设计、制造、持有、买卖、运输、使用人工智能武器罪,擅自改变人工智能产品算法与用途罪,滥用人工智能罪,人工智能肇事罪”五种危害算法安全的犯罪。魏东:《人工智能算法安全犯罪观及其规范刑法学展开》,《政法论丛》,2020年第3期。《伦理规范》所定义的“管理、研发、供应、使用”四类主体中,除负有管理义务的国家工作人员的行为需要通过渎职罪进行规制外,以上五种危害公共安全的罪名设计可以很好覆盖“研发、供应、使用”的相关主体危害算法安全的行为。同时,根据《伦理规范》第17条的规定,人工智能供应主体具有“研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险”的应急保障义务,对于违背该义务严重侵害算法安全的行为,也需要刑法制定新罪名予以规制。
《伦理规范》中的相关规定,为今后人工智能法律规范的制定提供了宏观指导,但具体的规范细节还需各个部门法进一步细化规定,所以以上罪名设计的构想是否成立,或者是否还有必要继续增加保护算法安全的新罪名,需要继续观察人工智能技术的发展情况和前置法律的立法情况,使刑法与前置法在人工智能治理领域中保持良好的互動。
四、结论
通过结合《新一代人工智能伦理规范》的相关规定和人工智能技术发展的基本特征,可以看出具有工具属性的人工智能技术,其产生的社会风险仍是一种人为风险,故并不会对刑法理论产生颠覆性的影响。刑事立法与刑法理论需要根据人工智能技术的特征,为人工智能的刑法治理提供有效的方案。以算法安全为纽带对人工智能相关主体进行刑事归责,是使刑法有效参与人工智能法律治理的理论尝试,为刑法对人工智能相关主体的刑事责任认定提供了可能的路径。在具体方案的设计上,还需在厘清刑法与技术逻辑、刑法功能与前置法功能关系的基础上,明确共治关系中刑法规制的范围和应具有的功能,从而与人工智能的其他治理手段形成有效配合,实现人工智能技术法律治理的效果最大化。