强人工智能体的刑事责任主体资格审视
2020-02-25张斌
张 斌
一、人工智能的刑事法治困境:法律关系客体抑或刑事责任主体
1956 年的达特茅斯会议最早提出人工智能(Artificial Intelligence)的概念。作为开启人工智能发展新纪元的标志,达特茅斯会议同时也指明了人工智能的未来方向:“精确描述人的学习能力和智慧并利用机器人进行模拟。”[1]所谓人工智能,是指通过深度学习,模拟人类的思维和智慧,用以替代部分人类活动的一种计算机程序。人工智能体,指为实现人类感知、推理、决策、情绪、语言、行为等活动,由以算法、人工神经网络和大数据等技术为基础的计算机控制系统和用来执行系统命令的载体所组成的客观实体。方兴未艾的人工智能技术现如今已广泛而深刻地参与人类生产生活,并在无人驾驶、医疗、金融等领域发挥举足轻重的作用。
然而,当前的人工智能技术尚未发展完善,依然面临诸多障碍,如在通用性,举一反三的情景应对能力,情感、伦理道德理解能力等方面明显不如人类。随着科学研究的不断深入,人工智能必将突破现有技术藩篱,向强人工智时代能跨越。人工智能的自主程度愈高,对其行为的预测和控制就愈加困难,这引发了人类对人工智能脱离人类控制的担忧。即使暂不考虑将来可能的危机,眼下人工智能发展的负面效应诸如特斯拉汽车致人死亡案、绍兴人工智能诈骗案等人工智能犯罪已经足以引人关注,刑法对人工智能引发社会风险的应对尤为重要。刑法理论始终无法回避的问题是人工智能刑事犯罪对刑法人类中心主义造成的冲击:人工智能体是否具备刑事责任主体资格?赋予人工智能体刑事责任主体地位是否可以实现刑法的目的和功能?
人工智能所涉及的刑事犯罪,归纳起来可分为两种情形,第一种情形是其在特定领域具备智能,只能在程序设定的范围内执行命令,也被称为弱人工智能;第二种情形是其在所有领域具有通用性,能够在设定程序之外自主决策,独立行为,这种人工智能被称为强人工智能。弱人工智体能实现的是人的意志,只能视作人的工具,造成的法益侵害,应当由设计者、制造者和使用者承担;强人工智能体由于其行为的不可预测性,究竟由其自行承担刑事责任还是由自然人承担刑事责任还存在理论争议,因此本文以强人工智能体为讨论对象。如果将强人工智能体视作“人类的工具”“法律关系的客体”,那么在造成法益侵害时其本身并不承担刑事责任,被害人可以依据《民法典》关于侵权责任的相关规定请求产品生产者、销售者承担民事赔偿责任,甚至可以追究生产者、销售者的刑事责任。如果将强人工智能体视作“主体”,势必会颠覆当前的刑法人类中心主义理论体系,并建立“自然人、法人、人工智能体”为中心的三元刑事制裁体系。一般来说,特定主体之所以能够成为法律上的“人”,是因为其被赋予法律人格并享有权利,承担义务。法律人格是连接法与法律主体的介质,作为部门法的刑法也不例外。在刑事法律关系中,特定对象能否成为刑事责任主体,当以法律人格为先决条件,而非先入为主地判断刑事责任能力问题。具有法律人格不一定具有刑事责任能力,但具有刑事责任能力一定具有法律人格。换言之,法律人格问题是判断刑事责任主体资格的逻辑前提。在此意义上,如果要考察强人工智能体的刑事责任主体资格,就必须先解决能否赋予强人工智能体法律人格的问题,即强人工智能体应具备刑事责任主体资格的条件和基础。本文认为,未来强人工智能体应当成为刑事主体,而非法律关系的客体。
二、强人工智能体刑事主体资格之证成:基于法律人格理论的分析
行为自主性不断增强,逐步突破辅助工具属性的强人工智能体是现有以自然人为中心的刑法体系无法消减的社会风险,法律人格是决定未来强人工智能体法律关系地位的关键,也是厘清刑事责任、化解技术风险的途径。法律人格作为实现特定目的的立法技术,赋予强人工智能体完全具有理论及现实基础。
(一)法律人格的理论基础变迁
法律人格,概言之,即“私法上的权利和义务所归属的主体”[2]。人格权的演进经历了漫长而复杂的过程,在早期社会,建立在“身份”“等级”基础之上的法律人格是不平等的,个体因身份、地位的差异所对应的权利义务内容迥然不同。如在古罗马法中,奴隶不享有自由权,不是法律保护的对象,只能成为法律关系的客体,自由民才会被赋予法律人格而享有权利承担责任。在文艺复兴、资产阶级革命的影响和推动下,古代法律中的身份制度难以为继,法律人格的不平等性由“平等”“契约自由”等理念替代,并最终实现所有个体人格由形式到实质的平等。这一时期的法律人格以自然法的伦理性为基础,认为人格应当受到尊重,随后《人权宣言》确立了人生而平等的基本原则,继而《法国民法典》也规定“所有法国人均享有私权”,《瑞士民法典》更是开创了实定法首次规定“人格权”的新局面。一旦法律人格被规定为实定法的原则,其伦理性基础将逐渐为人们所忽略,以至于伦理性不再是法律人格的决定性要素,法人进而也被普遍认为具有法律人格[2]。《德国民法典》进一步超越了法律人格的伦理性基础,将法律主体范围由自然人扩大到法人[3]。
由上可知,法律人格经由古罗马法发展到近现代民法,历经了以身份为基础到与伦理相结合这一发展历程,并最终形成基于特定社会需求而生成的立法技术。这种由身份决定的“人可非人”到功利主义影响下的“非人可人”的立场演变说明,特定主体是否具有法律人格,并不以伦理性作为唯一判断标准,而是实定法基于社会利益的必然回应[4],社会发展需要是法人法律人格作为立法技术的内在动因。赋予强人工智能体法律人格意味着其得以享有权利、承担责任,当前学者否认强人工智能体具有法律人格的主要原因是其不具有自然人的心理、生理特征,亦不具有理性个体的伦理性基础。但是,法律人格作为客观实在,以法律主体享有权利、承担义务为内容,以一般大众普遍接受为前提,并以实现特定社会目的为目标,具有鲜明的先验性、功利性特征。是否具备自然人特征诸如情感、直觉、心灵心性、举一反三等不应成为赋予人工智能体法律人格的人为阻碍。
(二)从“人可非人”到“非人可人”的立法技术
纵观人类立法历程,法律主体范围经历了由“人是客体”“人可非人”的特定自然人到以伦理性为基础的全部自然人并最终扩展到包括法人在内的非理性主体的演变。各国立法实践普遍将法律人格作为立法技术赋予法人等非理性主体,因为法人不仅广泛参与各类社会经济活动,而且能够作为刑事主体承担刑事责任。然而,学界对法人的法律人格本质并没有形成共识,主要存在如下几种学说:其一是法人拟制说。该学说缘起于13 世纪西方教会统治时期,教会之下准许个人成立社会团体并赋予其人格,后为萨维尼所继承和发扬。其二是法人实在说。该学说认为法人团体因为具有团体意志而先于法律存在,法律不是创造而是承认了法人人格[5]。这些学说均不能完全自圆其说,法人拟制说让法人的存在流于形式,“将法人人格基础推给法律本身”[6];而法人实在说能够提供法人承担刑事责任的正当根据,但不能说明双罚制下法人和自然人共同承担刑事责任的缘由。
尽管如此,我国依然基于社会经济发展的需要,将法人设定为刑事责任主体。法律的生命与进化源自社会发展的需要,法律人格的有无也不应只以伦理性作为衡量标准,而应当将其作为一种立法技术服务于人类自身发展。参照我国刑法单位犯罪的双罚制,赋予强人工智能体刑事责任主体资格,形成以自然人、法人、人工智能体为核心的三元刑事制裁体系并不存在技术障碍。当前世界范围内的单位犯罪,主要包括单罚制和双罚制。所谓单罚制,不处罚单位,只处罚直接负责的主管人员或其他直接责任人;所谓双罚制,既要对单位判处罚金,也要处罚直接负责的主管人员或其他直接责任人。双罚制可适用于研发者、生产者、销售者、使用者和强人工智能体之间,它不同于民事侵权责任,当强人工智能体独立决策、自主行动而侵害国家法益、公共法益或者公民个人法益时,由其自身承担独立的刑事责任。如果研发者、生产者、销售者、使用者和强人工智能体对法益侵害结果均存在故意或过失时,可视情况采用双罚制分别处以刑罚。
(三)强人工智能体法律人格之赋予
1.赋予强人工智能体法律人格的现实性:从“工具”到“主体”的流变
第一,强人工智能体逐步突破工具属性。在早期场景应用中,通过预先设置算法和程序,人工智能只需重复执行指令,特别是在无人驾驶汽车领域,人工智能仍然没有摆脱人类控制,属于辅助性工具。2018 年工业和信息化部、公安部、交通运输部联合印发《智能网联汽车道路测试管理规范(试行)》,其中第25 条规定:“自动驾驶汽车在测试期间发生交通事故,应当按照道路交通安全法律法规认定当事人的责任。”据此,无人驾驶汽车因执行程序指令所产生的结果是可预测的,法律责任应当转移到自然人身上。随着5G 网络的商用、算法及深度学习技术的提升,人工智能的独立性显著增强,人类在决策过程中的参与度越来越低。2019 年9月,武汉市交通运输部门颁发了全球首张无人驾驶汽车牌照,开启了人工智能独立参与商业运营的新局面。但无人驾驶汽车系统程序不可能穷尽所有路况场景,特别在面临两难选择时,这便需要无人驾驶系统自主创造性地决策。此时人类很难预测行为结果,当发生交通事故时,解决刑事责任问题的最好途径就是赋予强人工智能体法律人格,必要时由其承担相应的刑事责任。2016 年5 月,欧洲议会法律事务委员会发布《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》,要求从法律责任承担的角度考虑创设电子人格[7]。强人工智能体作为不具备人之肉体、心灵、情绪,但能够独立决策的特殊主体,被赋予其电子人格契合当前实际。
第二,强人工智能体具备享有权利、承担责任的条件。赋予强人工智能体法律人格就是赋予其法律权利并承担法律义务。“‘智能性’是目前人类所能认知的有关权利主体所必须具有的最本质性的要素”[8]。也就是说,强人工智能体能够成为权利主体的关键不在于其是否具备人之肉体和外形,而在于其是否和人一样智能,这在科技的发展下并不难以实现。当前包括我国在内的世界多国和组织早已针对人工智能体的法律地位进行研究和立法,欧盟法律事务委员会主张机器人的“工人”身份并赋予其特定的权利义务,2017 年沙特阿拉伯成为首个授予机器人公民身份的国家,同年我国国务院发布的《新一代人工智能发展规划》明确提出建立健全相关制度,“明确人工智能法律主体以及相关权利、义务和责任等”。与自然人主体不同,人工智能所享有的权利只能具有利他属性,这是由其法律人格的基础所决定的。其法律人格既然基于特定利益需求而产生,那么在生产生活中为人类带来价值也是其实现权利、承担责任的最终归宿。不过,这种利他属性并不会导致其在以利己性权利为主的法律体系中处于竞争劣势。相反,这种权利的利他属性正是人工智能快速社会化应用的原因,如陪伴型机器人能使人稳定获得情感利益,于是有更多人参与到与人工智能的合作关系当中,进而形成一种稳定的法律关系。与此同时,人工智能的权利内容不是无约束的,需要以“负面清单”的形式为人工智能设定权利边界。刑法的视角下,人工智能不能基于自己的人身权利而行使防卫权,但可以基于国家、集体、他人的人身和财产利益行使防卫权,因为人的人身权利应当受到刑法的平等保护,但人工智能的价值不能等同于人类的生命、健康权益。
2.赋予强人工智能体法律人格的可能性:契合刑法的本质
人工智能体刑事责任主体地位否定论者的观点是,赋予强人工智能体刑事责任主体地位与刑法不具有兼容性。一方面,处罚强人工智能体无法实现刑法之目的与机能。刑法通过禁止和惩罚法益侵害行为来保护公共法益和个人法益免受不法侵害,其惩罚手段以剥夺主体权利造成其痛苦为必要,“否定刑罚的痛苦特征,无异于否定刑罚概念本身”[9]。就自然人而言,刑罚通过剥夺或限制社会活动资格造成情感上的痛苦,而刑罚并不能给强人工智能体带来痛苦[10]。另一方面,我国的刑罚措施无法适用于强人工智能体。刑罚在本质上就是剥夺主体的权利,强人工智能体没有生命、自由、财产权利,无法适应我国以生命刑(死刑)、自由刑(管制、拘役、有期徒刑、无期徒刑)、财产刑(罚金、没收财产)和资格刑(剥夺政治权利)为内容的刑罚体系[11]。
否定论者一味削足适履无益于人工智能时代刑事治理困境问题的解决,现有刑罚种类是否适合于人工智能不是其刑事主体资格的决定性因素,否则有因果倒置的逻辑错误。首先,处罚强人工智能体是刑法内生逻辑的必然要求。刑法是规定犯罪、刑事责任和刑罚的法律规范,因此刑事犯罪的司法判断逻辑顺序为:特定主体在客观上实施了符合构成要件且违法的行为,主观上具有故意、过失且具有刑事责任能力,特定主体具有刑事主体地位,应当承担刑事责任、接受刑事处罚。切不可犯“没有适当的刑罚措施——强人工智能体不具刑事责任主体资格”这样本末倒置的逻辑错误。其次,处罚强人工智能体有利于合理分配刑事责任。在强人工智能体的社会化应用过程中,侵犯他人法益的事件时有发生,如2016 年特斯拉自动驾驶汽车发生车祸致人死亡,没有相关主体因为诸如此类事故而承担刑事责任,究其原因,不是因为犯罪结果没有发生,而是由于刑法没有将强人工智能体规定为制裁对象。虽然强人工智能体与生产者、销售者、使用者可能并不构成共同犯罪,但由于生产者、销售者、使用者没有直接实施行为,根据行为与责任同时存在原则,即使他们具有故意或者过失的罪责,也无法追究其刑事责任。只有将强人工智能体规定为刑事责任主体,才能合理地分配刑事责任。
三、强人工智能体的刑事责任主体资格:基于我国刑法规定的分析
强人工智能体能否成为刑事责任主体取决于我国刑法对刑事责任主体要素的规定,根据《刑法》第17 条、第18 条、第19 条的相关规定,犯罪主体需要满足三个条件:一是基于自由意志实施了危害行为;二是具备刑事责任能力;三是符合承担刑事责任的要求,通过刑事制裁能够达到特殊预防和一般预防的效果。笔者认为,以刑事责任而非本质和内容为视角,强人工智能体作为刑事责任主体能够很好地契合刑法体系的内在协调性。
(一)强人工智能体因其工作机制而具有自由意志
自由意志是否存在,一直是学派之争的焦点问题,既无法证实也无法证伪。古典学派强调人的行为是发挥主观能动性的结果,而社会学派则认为人的行为选择受外界支配。但问题在于,古典学派强调的理性的人是法律的一般抽象,而责任是对具体个人的司法判断;社会学派强调责任是对危险性格的社会防卫,但完全否认自由意志可能导致人的主体地位丧失进而完全沦为工具。一方面,责任即非难,其本质在于行为人有他行为之可能性而实施了不法行为,没有意志自由就没有责任,因此,与他行为之可能性具有某种等价关系的自由意志理当被承认,“意志自由问题是责任论的基础”[12]。另一方面,“根本不可能存在这样的情况,即立法者将特定行为规定为犯罪,却并未因而表现出预防此类(犯罪)行为的意愿与目的”[13]。据此,预防犯罪是刑罚的正当性根据,也是刑法存在的价值。根据费尔巴哈的“心理强制说”,只有承认自由意志才能实现刑罚的预防目的,因为就建立在自由意志基础之上的理性人而言,刑罚既是一种激励,促其弃恶从善,又是一种威慑,警醒世人不得重蹈覆辙,从而达到特殊预防和一般预防之目的。但同时我们也无法否认环境对个人的影响,从以上两个角度看,相对自由意志论更容易为学界所普遍接受,强人工智能体也因其工作机制而具有自由意志。
众所周知,人工智能技术以人工神经网络技术、算法和深度学习技术为依托,其工作的一般原理是,强人工智能体借助人工神经网络,模拟人脑信号传输,将数据进行二进制编码并模式化为逻辑表达式[14],这些数据经过算法模型的层层特征提取,自动发现数据规律并自主解决问题,整个过程并没有任何人为设限。所谓自由意志,即“决断免受感性冲动之强制的独立性”[15]。一方面,强人工智能体能够自行分析数据、自行决策,体现了其自主选择的能力;另一方面,在无人为因素的参与下,其采用何种策略进行决策无人为干涉可能性,其行为更无预测可能性。强人工智能体的这种自主选择和独立决策能力早已得到证实。康奈尔大学创意机器人实验室在实验中欲通过深层神经网络深度学习技术来分类猫、狗、蜥蜴的图像,但深层网络却自主决定追踪研究人员的脸[16]。强人工智能体模拟人脑工作原理使其能够像人一样思考、决策,那么其拥有自由意志也是水到渠成的结果。
(二)强人工智能体因嵌入伦理道德算法而具有辨认、控制能力
如前所述,意志自由是责任的基础,但意志自由以行为人具有对其行为的价值评价和是非辨别能力为前提,具备善恶认知能力的人才会产生对自己行为的责任,才具有承担法律责任的能力[17],动物或其他物质由于不具备法秩序所倡导的法价值、社会价值观等是非判断能力,所以很难承担对自己举动的责任。特定个体是否承担刑事责任与其刑事责任能力直接关联,如果不具有责任能力,即使实施了符合构成要件且违法的行为,也很难对其进行责难。责任能力以辨认能力和控制能力为内容。一般而言,判断自然人主体是否具备辨认能力和控制能力以刑事责任年龄和精神状态作为参考,只要达到法定刑事责任年龄并且精神正常,即可认定其具有辨认能力和控制能力。
辨认能力是行为主体对自己行为性质、社会意义、将产生特定后果的认知能力,它是行为主体具备控制能力的前提和基础。与自然人不同,强人工智能体无法通过刑事责任年龄和精神状态来衡量自身的辨认能力和控制能力,其辨认能力源自神经网络技术和深度学习技术下的自主思考能力。也正是因为强人工智能体的算法在深度学习时如何决策不为外界所知,也就是通常所说的“算法黑箱”,导致歧视、偏见等伦理危机时有发生。微软推出的聊天机器人Tay 因涉嫌种族歧视言论引起巨大争议而被迫下线,一些学者因而据此认为“Tay 自己并不知道和它‘聊天’的人所说的内容和社会意义,也无法知道它自身反馈的‘聊天’内容具有何种社会意义。[18]”这种逻辑存在明显错误。机器人Tay的种族歧视言论无疑不符合社会主流价值观念,但不能表明其不知聊天内容和社会意义,只是说明其缺乏对聊天内容的善恶分辨能力。如果事先为强人工智能体植入机器人伦理算法,在其运用算法深度学习时,具备规范的评价能力,能够准确判断行为是否具有正向的社会意义,则其必将具备认识能力。如通过算法植入“机器人三原则”①美国作家艾萨克·阿西莫夫提出机器人三原则内容是:第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;第二,除非违背第一法则,否则机器人必须服从人类的命令;第三,在不违背第一及第二法则的前提下,机器人必须尽可能地保护自己。,让强人工智能体获得辨别是非的能力,以该原则为标准判断什么行为是善的,什么行为是恶的,进而也就具备了对其行为负责的能力。当然还可以通过算法植入人类道德、社会主流价值、法律规则等,让其获得更加全面、深刻的判断力、领悟力。不过也应当看到,因为利益分歧、人际冲突和文化差异,世界范围内不可能存在完全统一的道德。当前世界各国也非常重视人工智能的伦理道德建设问题,2017 年国务院发布的《新一代人工智能发展规划》指出,到2025 年初步建立人工智能法律法规、伦理规范和政策体系;特斯拉CEO 伊隆·马斯克曾斥资1000 万美元,用来研发一种人工智能伦理道德系统,这些伦理道德的建设努力终将让强人工智能体获得如同自然人般的辨认能力。为强人工智能体加载伦理道德系统并非使得人工智能系统与自然人一样平等地享有权利、履行义务,参与社会治理和资源分配,而是为了确保强人工智能体的正确发展方向,不至于脱离人类控制,危害人类。
强人工智能体的辨认能力是由事实到规范,由具体到抽象的过程,它需要在初始阶段接受声音、事实、事件、图像、视频等基础事实材料,通过对基础事实材料的深度加工而产生规范意识。对于具体事实层面的认识,强人工智能体完全可以通过传感器来获取。至于规范层面的认识,特别是对行为性质、意义、后果的认识,仅仅依靠传感器难以实现,需要赋予其机器人道德。机器人道德是其判断善恶是非的标准,具备了机器人道德的强人工智能体就具备了行为的善恶认识能力,进而具备了弃恶扬善的自由意志。如果决意从恶,就应当承担刑事责任。控制能力的实现是强人工智能体实现其行为的必备条件,在算法、数据传输、传感器等技术的支持下,强人工智能体拥有着比人类反应速度更快、更精准的控制能力。具备了辨认能力、控制能力,强人工智能体也就具备了刑事责任能力,进而具备了承担刑事责任的可能性。
(三)强人工智能体刑事主体地位因适当的刑罚措施而得以贯彻
强人工智能体刑事责任主体资格否定论者将以人类为中心的刑罚制度和措施机械地适用于强人工智能体,没有考虑自然人与强人工智能体的内在差异性,有诸多不可取之处,只有针对强人工智能体自身特性设定刑罚措施,使其刑事主体地位因刑罚措施的执行而得以贯彻和体现,方可最终实现刑法的善治。具体而言,笔者认为应当从如下几个方面针对强人工智能体设定适当的刑罚措施:
第一,针对强人工智能体设定资格刑,禁止其进入特定行业、从事特定行为、进入特定场所。因为赋予强人工智能体法律人格是基于功利主义的特定社会需求,因而进入特定行业、从事特定行为以实现人类利益需求是其终极使命和最终价值,它只能通过从事特定行为、参与社会活动而成为法律主体,这与法人的刑事责任主体资格取得并无二致。因此,剥夺其进入特定行业、从事特定行为的资格会造成其存在价值暂时或永久地丧失,并带来自身乃至背后自然人情感上的痛苦,如此也就实现了刑法的目的。如果给强人工智能体的资格刑设定期限,其效果相当于针对自然人主体的生命刑和自由刑。
第二,针对强人工智能体设定财产刑。赋予强人工智能体法律人格就是赋予其法律规定的权利义务,也即可以参照法人赋予其相对独立的财产权。剥夺强人工智能体的财产权,其所参与的社会经济活动也难以为继,同时也会造成与强人工智能体利益相关的自然人的痛苦,迫使其尽到谨慎义务并督促其防止强人工智能体再次犯罪。
第三,针对强人工智能体设置恰当的刑罚裁量和执行措施。如前所述,强人工智能体因植入伦理道德算法而不具备善恶是非的辨认能力,当然也包括对社会秩序遵守和社会文化的认同,从而实现了由“工具人”到“社会人”角色的转变。在此过程中,强人工智能体可以基于自由意志在深度学习中体会其行为的利弊,在犯罪的快感和刑罚的痛苦中权衡,刑罚的教育和威慑功能也得以体现[19]。同样,刑罚的预防功能也可以在刑罚的执行过程中得以实现,通过指定适合于强人工智能体的累犯、自首、坦白、立功、减刑、假释等刑罚量刑和执行措鼓励其尽早消除人身危险性并重返社会。
四、结语
刑法理论因特定时代需求而产生,不同理论流派的演进均在特定的历史时空具有现实意义。当前人工智能技术迅猛发展,其工具属性逐渐减弱,独立性逐步增强,催生出一系列法律问题。在刑法人类中心主义因此再次受到挑战之际,有学者回应道:“人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景。”[20]我们应当看到,在强人工智能体部分替代人类的趋势下,其行为难以被预测,现行刑法体系无法解决无自然人行为情形下的归责问题,行之有效的措施是及时调整刑法人类中心主义观念,赋予强人工智能体法律人格,承认其刑法主体地位,发挥人工智能技术造福人类的正向价值。