APP下载

人工智能时代刑事风险的刑法应对

2019-02-19王志祥张圆国

上海政法学院学报 2019年2期
关键词:犯罪行为刑罚刑法

王志祥 张圆国

2017年7月20日,国务院印发的《关于新一代人工智能发展规划的通知》提出将人工智能提高到国家战略层面进行系统布局。由此可见,人工智能对于社会发展的重要影响日益凸显。然而,正如有关学者所指出的,人工智能既是人类社会的伟大发明,同时也会给法律秩序带来巨大的风险。①参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。人工智能所带来的巨大刑事风险不容忽视。例如,1978年,日本广岛的摩托车厂机器人转身将其背后的工人抓住并切割;1989年,苏联国际象棋冠军尼古拉·古德科夫在与人工智能机器人对战时连胜3局,被“恼羞成怒”的对手自主释放强电流电死;2015年,德国大众汽车工厂内发生机器人杀人事件。近年来,人工智能技术日新月异,发展很快,人工智能也被人类赋予了更多的独立自主的能力,而智能机器人依据这种日渐强大的独立自主能力实施的危害社会的行为也将越来越不可预测,由此给社会带来的刑事风险进一步加大。人工智能会给人类社会带来哪些刑事风险?智能机器人是否应当对自己实施的行为承担刑事责任并接受刑事处罚?刑法应当按照怎样的路径对人工智能犯罪进行规制以适应人工智能的快速发展?这些问题都是亟待刑法学界作出回应的。只有对人工智能领域的刑法问题进行具有前瞻性的分析并探索出合乎法理、行之有效的解决途径,才能在不久的将来游刃有余地处理人工智能领域可能面临的刑事风险。

一、人工智能时代的刑事风险

(一)具有更大的社会危害性

科技的发展在给人类社会带来便利的同时,也给人类社会带来了更大的风险。每次科技的进步都伴随着人类社会生产力的极大解放,同时也使得犯罪的工具更加先进。伴随着两次工业革命的进行,人类发明了汽车、飞机等新型交通工具,同时也使得犯罪的工具得到了扩展,给人类社会带来了更大的风险。犯罪分子能够利用这些新型交通工具给社会带来更大的危害,他们可以利用汽车等新型交通工具作为故意杀人和危害公共安全的工具,这与利用马车等传统交通工具相比会给社会带来更大的危害。伴随着新时代网络科技的发展,以网络为媒介的犯罪行为更是层出不穷。这些新兴科技在给人类社会带来便利的同时,犯罪分子以其为媒介所实施的犯罪给人类社会所造成的危害也呈现出不断强化的趋势。犯罪分子以人工智能技术为媒介所实施的犯罪往往比以往的传统犯罪具有更大的社会危害,这主要体现在人工智能时代的刑事犯罪给社会带来的危害更广更深。从广度上来讲,现今人工智能技术被广泛应用于工业生产、医疗救治、智能驾驶、应急事件处置等多领域,而且在这些领域起到至关重要的作用。可以预见,人工智能技术还将应用于农业、金融、商务、军事等重要领域。人工智能技术的应用范围非常广阔,且还有逐步扩大的趋势,犯罪分子很可能利用人工智能技术在更广的范围内实施犯罪行为。从深度上来讲,人工智能技术被应用在医疗救治、金融、军事等重要领域。犯罪分子在这些重点领域内利用人工智能技术所实施的犯罪行为会给人类社会带来难以估量的危害,造成更加深重、难以估量的损失。由此可见,人工智能技术会使犯罪行为的影响更广更深,使刑事犯罪具有更大的社会危害性。

(二)具有更显著的时代特征

人工智能时代的刑事风险具有更为显著的时代特征,这一方面体现在随着人工智能技术的进一步发展,人工智能技术的表现形式也会有所变化,逐步呈现出从弱人工智能向强人工智能的转化,刑事犯罪的主要表现形式也会随之变化;另一方面体现在随着人工智能技术的发展,人工智能时代的刑事犯罪可能会产生新的形式。为了更好地打击这些新形式的犯罪行为,刑法需要创设新的犯罪类型。依据美国加利福尼亚大学约翰·塞尔教授的观点,可以把人工智能分为“强人工智能”和“弱人工智能”。“弱人工智能”是指计算机在心灵研究中的主要价值,只为我们提供一个强有力的工具。“强人工智能”是指计算机不仅是我们研究心灵的工具,而且带有正确程序的计算机确实可被认为具有理解和其他认知状态,恰当编程的计算机其实就是一个心灵。在强AI中,由于编程的计算机具有认知状态,这些程序不仅是我们用来检验心理解释的工具,而且本身就是一种解释。①参见[英]玛格丽特·A·博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2001年版,第92页。由此可见,弱人工智能并不具有自己的独立意志,只是在编程的范围内实施相关的行为,是人类为实现自己目的而制造的工具;而强人工智能则拥有自己独立的意志,具有认识能力和控制能力,能够在编程的范围外实施行为。毋庸置疑,弱人工智能是当前人工智能技术的主要表现形式,利用弱人工智能实施故意犯罪或者涉及弱人工智能的过失犯罪的行为也是当前人工智能犯罪的主流形态。然而,随着人工智能技术的不断发展,人工智能技术由弱人工智能向强人工智能转变在不久的将来具有可能性。在将来制造强人工智能机器人具有技术可行性的条件下,就人类是否应当制造强人工智能机器人而言,在刑法学界引发了热烈的讨论。有学者认为,我们应当鼓励强人工智能技术的发展,允许制造强人工智能机器人,并指出人工智能技术是当下我们重点发展的技术,所以,刑法对涉人工智能技术犯罪的规制应保持适当的限度,不能阻滞甚至扼杀人工智能技术的创新和发展。①参见刘宪权:《人工智能:刑法的时代挑战》,上海人民出版社2018年版,第108页。但是,也有学者对此表示质疑,认为当强人工智能机器的利益与人类利益冲突时,未来远比人类智慧强大的、具有自主意识的强人工智能机器人必然全面碾压人类反抗,使人类处于被奴役甚至灭绝的境地。②参见皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。笔者认为,鉴于人工智能技术已经给人类社会在生产生活、文化教育、医疗活动等方面带来的有益成果,将来随着强人工智能技术发展有可能给人类社会带来更多方面的便利,强人工智能机器人的研发成为时代发展的必然趋势。我们应当顺应这种趋势,使强人工智能机器人更好地为人类服务。但是,正如有学者所指出的,安全是人工智能时代的核心法价值,安全价值是对整个社会秩序稳定的维护。③参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。我们必须对强人工智能机器人的出现给人类社会安全所带来的巨大风险引起警惕,并采取行之有效的方法进行防范和控制,从而把社会风险降到最低。笔者认为,综合考虑强人工智能可能给人类社会带来的风险,发展强人工智能技术必须符合以下3个前提条件:第一,为了维护整个社会的安全,强人工智能机器人的应用范围必须受到严格限制。不能将强人工智能机器人应用于武器系统管理、人类基因图谱等关乎人类安全的重要领域,否则必将给整个社会的安全带来更大的风险和挑战;第二,强人工智能机器人必须受到有效控制;第三,应当建立一系列针对强人工智能机器人的民事和行政方面的法律法规,使强人工智能技术的应用在法的框架下运行。

随着强人工智能技术的发展,拥有强人工智能的智能机器人依据自己产生的独立意志实施的犯罪也极有可能随着人工智能技术的不断发展而得以出现。强人工智能机器人不具有自然人所具有的生命权、身体权,却具有自然人才能具有的独立意识。假如其实施犯罪行为,应当由其自身承担刑事责任还是由其背后的研发者、使用者承担责任?如何确定强人工智能机器人实施犯罪的刑事责任的归属成为现今刑法学领域亟待解决的重要问题,科学技术的发展会使犯罪呈现出新形式。为了惩治这些新形式的犯罪,刑法往往会针对这些犯罪的特点规定新的犯罪类型。比如,机动车的出现导致大量交通事故的出现。为了更好地预防刑事风险、惩治犯罪,刑法设立了交通肇事罪、危险驾驶罪等犯罪类型,飞机的出现给犯罪分子提供了新的犯罪工具。为此,刑法规定了劫持航空器罪等犯罪类型。信息网络技术的发展为一些别有用心的人提供了实施危害社会行为的“温床”。为了更好地规制这些行为,刑法规定了非法侵入计算机信息系统罪、破坏计算机信息系统罪等犯罪类型。同样,随着人工智能技术的不断发展,利用人工智能实施犯罪的情况也会大量出现,其中涉及许多新形式的犯罪行为,例如,窃取人工智能技术所产生的数据库里的数据并进行传播的行为,攻击人工智能技术系统从而使自己的违法犯罪行为逃脱应有处罚的行为等等。这些利用人工智能技术而实施的行为具有很强的社会危害性,依据现有的刑事法律并不能有效地惩治此类行为,这在客观上要求刑法有针对性地增设犯罪类型,以惩罚这些利用人工智能技术实施的新形式的犯罪行为。

二、人工智能时代犯罪主体的范围问题

人工智能时代的到来给人类社会带来了巨大风险,我们应当怎样从刑法的角度出发应对这些风险?要很好地回答这个问题,就必须对人工智能犯罪主体的范围进行讨论,假如能够赋予人工智能机器人犯罪主体资格并承担刑事责任,这个问题就能够迎刃而解。但是,无论从刑法理论还是从实践出发,人工智能机器人都不能成为犯罪主体;将其作为犯罪主体承担刑事责任,不具有可行性。我国传统刑法理论认为,犯罪主体是指实施危害社会的行为并依法应负刑事责任的自然人和单位。①参见高铭暄、马克昌:《刑法学》(第5版),北京大学出版社2011年版,第82页。自然人犯罪主体应当具备以下两个方面的条件:第一,犯罪主体必须具有自然人人格;第二,犯罪主体必须具备刑事责任能力。单位犯罪的主体应当具备以下两个方面的条件:第一,单位犯罪的主体包括公司、企业、事业单位、机关、团体;第二,只有法律明文规定单位可以成为犯罪主体的犯罪,才存在单位犯罪及单位承担刑事责任的问题。②同注①,第82页、第101页。依据上述刑法理论,人工智能机器人显然不能够成为犯罪主体。既然人工智能机器人并非我国刑法明文规定的犯罪主体,目前将其作为犯罪主体进行处罚就明显违反了罪刑法定原则。就人工智能时代犯罪主体的范围应否扩展至智能机器人的问题,有观点主张,智能机器人一旦拥有属于自己的独立的辨认能力和控制能力,即拥有了刑事责任能力。在这种情况下,如果智能机器人实施了严重危害社会的犯罪行为,完全可以成为独立的刑事责任主体。③参见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报(法治论丛)》2018年第2期。笔者认为,上述赋予智能机器人犯罪主体地位的观点值得商榷。虽然强人工智能机器人拥有独立的意志以及辨认能力、控制能力,但同样不能成为犯罪主体,不承担刑事责任。

(一)弱人工智能机器人不能成为犯罪主体,不承担刑事责任

弱人工智能机器人并不具有自己的独立意志,只是在编程的范围内实施行为,是人类为实现自己目的而制造的工具,不能成为犯罪主体并承担刑事责任。一方面,弱人工智能机器人只是犯罪分子实施犯罪时所使用的工具,并不具有自己独立的意识和意志。众所周知,犯罪分子为实现犯罪目的所采用的工具和手段可谓五花八门。犯罪分子为实现剥夺他人生命权的犯罪目的,会使用刀具、枪械、交通工具、动物等作为犯罪工具。在犯罪行为实施过程中,刀具、枪械、交通工具、动物等没有独立意志,当然不可能成为犯罪主体。同样,自然人可以通过对弱人工智能的编程系统进行特定设置或者修改从而以智能机器人为媒介达到自己不可告人的犯罪目的。在这种情况下,借助弱人工智能机器人实施的犯罪行为所造成的危害虽然有可能比使用一般犯罪工具实施犯罪行为所造成的危害更为恶劣,但是,其没有自己的独立意志,本质上是犯罪分子为实现犯罪目的而使用的工具,与上文所述的没有自己独立意志的刀具、枪械、交通工具、宠物等并无二致。在这种情况下,智能机器人当然不能够成为犯罪主体,不能承担刑事责任。另一方面,弱人工智能机器人没有刑法意义上的辨认和控制自己行为的能力。刑事责任能力与辨认能力和控制能力之间也存在有机联系。辨认能力是刑事责任能力的基础,控制能力是刑事责任能力的关键。弱人工智能机器人受到编程程序的控制,没有自己的独立意志,更谈不上具有自然人所拥有的刑法意义上的辨认能力和控制能力,其只能够根据编程来实施编程人员希望其实施的行为,其辨认能力和控制能力受到自然人的操纵,是依附于自然人的辨认能力和控制能力的。这样,就只有操纵弱人工智能机器人实施犯罪的自然人才具有刑法意义上的控制能力和辨认能力,才是刑事责任的真正承担者。由此可见,弱人工智能机器人不能成为犯罪主体。对于弱人工机器人所实施的故意犯罪行为,应由设定或改变弱智能机器人编程而控制弱智能机器人的自然人作为犯罪主体,承担相应的刑事责任。值得注意的是,弱人工智能机器人有可能因为研发者或使用者的过失而实施犯罪,这里的过失包括研发者或使用者因疏忽大意没有预见到弱人工智能机器人可能造成损害的疏忽大意的过失和研发者或使用者已经预见到弱人工智能机器人可能造成损害,但轻信这种情况能够避免而过于自信的过失。在这种情况下,如果弱人工智能机器人实施了过失犯罪的行为并确实造成了危害结果,对于相关研发者或使用者而言,就应以相应的过失犯罪追究刑事责任。有观点认为,囿于一定地域内社会历史发展阶段与水平的限制,人类所掌握的人工智能技术完全可能无法彻底消除人工智能的安全风险,亦即人工智能的安全系数与标准的提高还有赖于人工智能技术的进一步成熟。在此情况下,我们不应追究研发者和使用者的责任。对于最终导致的危害结果,可以按刑法中的意外事件处理。①参见刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018年第1期。笔者对这种观点表示赞同。智能机器人作为人类社会发展到一定阶段的产物,其必然会带来一定的风险。研发者和使用者在当前认知条件下尽到了注意义务,且在现有条件下无法预知人工智能的刑事风险,也就谈不上具有疏忽大意的过失或者过于自信的过失。如果对这种行为进行处罚,会阻碍人工智能技术的发展,不符合刑事政策的要求,因此,在这种情况下,就不应当追究人工智能机器人研发者和使用者的刑事责任。

(二)强人工智能机器人也不能成为犯罪主体,不承担刑事责任

与弱人工智能机器人相比,强人工智能则拥有独立的意志,能够在编程的范围外实施相应的行为。对于这种强人工智能机器人所实施的犯罪行为,可否以人工智能机器人为犯罪主体,并由其承担刑事责任,是一个亟待解决的问题。有观点认为,人工智能时代,我们不得不警惕人类设计和编制的程序无法完全控制住“头脑”越来越发达的智能机器人的行为,机器人完全可以按照自主意识和意志实施严重危害社会的犯罪行为。在这种情况下,智能机器人完全具有独立的辨认能力和控制能力,可以成为刑事责任主体并需要承担刑事责任。②参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。笔者认为,这种观点从根本上动摇和改变了传统刑法学关于犯罪主体方面的规定,其合理性是值得商榷的。支持将强人工智能机器人作为犯罪主体的观点认为强人工智能机器人能够成为犯罪主体的理由如下:第一,在设计和编制的程序范围外实施行为时,智能机器人的行为实现的是自主意志而非他人意志;第二,智能机器人在设计和编制的程序范围外的行为相比于传统理论对于“行为”的定义,除了不满足主体是具有生命体的“人”之要素之外,其他的要素均符合行为理论要求。智能机器人在设计和编制的程序范围外的行为可以成为刑法学意义上的“行为”;第三,对智能机器人完全可以课处刑罚,这符合刑罚的目的,且有利于降低社会治理成本。③同注②。支持这一观点的理由还包括:在设计和编制的程序外实施行为的智能机器人具有辨认能力和控制能力,而我们完全可以将刑事责任能力直接理解为辨认能力和控制能力,所以也应当认为此类智能机器人具有刑事责任能力。④参见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报(法治论丛)》2018年第2期。笔者认为,将强人工智能机器人作为犯罪主体的观点忽视了自然人与智能机器人的本质区别,同时也有悖刑法法理,是很难成立的。这种观点的缺陷主要包括以下几个方面:

第一,将强人工智能机器人作为犯罪主体的观点忽视了自然人与智能机器人的区别,是形而上学的观点。具有刑事任能力,就必须具备辨认能力和控制能力,对此无需多论。然而,认为强人工智能机器人依靠自我意识而具有辨认能力和控制能力,便具有刑事责任能力,能够成为犯罪主体的观点却过于肤浅,对自然人和强人工智能机器人之间的本质区别缺乏由表及里的审视。自然人作为有血有肉的社会活动主体,其与智能机器人具有天壤之别,这体现在自然人在社会中有多重身份、自然人作为社会中的人受到伦理道德规范的约束、自然人的本质是一切社会关系的总和,而这些都是机器人所不具备的特性。自然人的这些特性决定了即使出现了具有辨认能力和控制能力的强人工智能机器人,将其作为犯罪主体的观点也大大超出了预测可能性的范围,容易造成“道德危机”,很难被社会大众所接受。正如相关观点所指出的,在理解法律主体概念的时候,必须考虑人的其他面相,以更多地区别于智能机器人。如果仅仅把人视为理性的过于抽象的法律主体,那么,作为人的其他面相就消失了。人不是仅仅具有身体的一个实体存在,同时也是向他者、与他者共性的存在。显然,承认智能机器人的公法主体地位是十分困难的。①参见王勇:《人工智能时代的法律主体理论构造——以智能机器人为切入点》,《理论导刊》2018年第2期。还应当注意的是,自然人的独立意志是通过自然人在人类社会中受到伦理道德和社会规则约束的情况下形成的独立意志,而强人工智能机器人的独立意志并不受到人类社会伦理道德和社会规则的约束。因此,自然人的独立意志与强人工智能机器人的独立意志不具有对等性,很难将智能机器人的自由意志拟制为自然人的自由意志。由此可见,将强人工智能机器人作犯罪主体的观点超出了刑法中犯罪主体的“人”的概念具有的含义,在刑法立法者对犯罪主体的“人”的意识之外主张解释者自己所设定的原理;认识到智能机器人不是刑法规定的犯罪主体,以强人工智能机器人依据自己的意志实施具有相似社会危害性行为为由而主张将其作为犯罪主体,实质上是对刑法规定的“人”的概念进行类推解释的结果,这显然是不妥当的。

第二,将强人工智能机器人作为犯罪主体,缺乏相应的刑罚措施。“没有刑罚就没有犯罪”,这是西方刑法上的一句著名格言。这句格言显然是就立法而言的,即某种行为是法律所禁止的,但如果刑法没有对该行为规定刑罚后果,该行为就是无罪的;反之,如果刑法对某种行为规定了刑罚后果,该行为便是犯罪,而不是其他违法行为,我国刑法没有直接对犯罪规定非刑罚处罚后果的条文。因此,在我国,仍然可以说没有刑罚就没有犯罪。②参见张明楷:《刑法格言的展开》(第3版),北京大学出版社2013年版,第186-188页。如果要将强人工智能机器人作为犯罪主体,就必须对强人工智能机器人判处刑罚,否则将强人工智能机器人作为犯罪主体就失去了意义。我国现有的刑罚体系包括管制、拘役、有期徒刑、无期徒刑、死刑在内的5种主刑和包括罚金、剥夺政治权利、没收财产、驱逐出境在内的4种附加刑。但是,将这些刑罚适用于智能机器人是不可思议的。由于智能机器人不具有如同自然人一样的人身权,对智能机器人适用诸如管制、有期徒刑等限制或剥夺自由刑,不会让智能机器人感到人身痛苦,由此刑罚的报应功能便无法实现;而智能机器人被拘禁期间也很难在监狱里得到改造,由此不但刑罚的预防功能无法实现,反而会浪费大量的社会资源。由于智能机器人是由特殊材料制成的,其不具有如同自然人一般的生命权,对智能机器人适用死刑这种生命刑也不具有可操作性。智能机器人更没有财产和政治权利,对其适用罚金、没收财产、剥夺政治权利和驱逐出境也不具有现实意义。由此可见,在现有的刑罚体系下,不可能对智能机器人适用刑罚。而没有刑罚就没有犯罪,这样,将智能机器人作为犯罪主体而对其不实施刑罚处罚的观点就是不可取的。

第三,将强人工智能机器人作为犯罪主体并对其设定独特刑罚的观点无法实现刑罚的机能。由于对智能机器人判处现有的刑罚在刑法理论上是不科学的,在实践中是不可行的,在这种情况下将强人工智能机器人作为犯罪主体的观点就是无法自圆其说的。为了使强人工智能机器人可以成为犯罪主体的观点在理论和实践中得到支持,有学者指出,我们完全可以通过对刑罚体系的重构来实现对智能机器人的刑事处罚。智能机器人虽然没有生命,但其行为受到编程的影响,编程之于智能机器人犹如生命之于自然人。我们可以通过对自然人的生命、自由进行限制来对自然人进行定罪处罚,我们也同样可以通过对智能机器人的编程进行调整来对其进行定罪处罚。适用于智能机器人的刑罚有3种,分别为删除数据、修改编程、永久销毁。①参见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报(法治论丛)》2018年第2期。笔者认为,这种观点是不合理的,其漏洞集中体现在无法实现刑罚的机能。刑罚的机能,是指国家制定、裁量和执行刑罚对社会与社会成员可能产生的积极作用。②参见马克昌、卢建平:《外国刑法学总论(大陆法系)》(第2版),中国人民大学出版社2016年版,第368页。刑法学者对刑罚机能的理解大致有三分法和四分法。三分法将刑罚机能分为对犯罪人的功能、对社会的功能和对被害人的功能。日本刑法学者牧野英一认为,刑罚主要具备以下3个方面的机能:第一,对犯罪人方面,刑罚首先对犯人发挥作用,称之为特别预防;第二,对社会方面,刑罚又以警戒社会的一般人以防后者的倾覆为目的,谓之一般预防,而同时又有满足一般社会报应思想的作用;第三,对被害者方面,刑罚对被害者有给予满足的作用。③参见[日]牧野英一:《日本刑法》,有斐阁1939年版,第576页。四分法将刑罚机能分为报复感情绥靖机能、保安机能、赎罪机能和预防机能。日本著名刑法学者西原春夫持有这种主张,认为所谓报复感情绥靖机能,是指使被害者及其家属,进而包括社会一般的报复感情观得以和缓并满足的机能;所谓保安机能,是由于将犯人隔离于社会而保障社会安全的机能;所谓赎罪机能,是指受刑者自己由于受到刑罚的痛苦而赎罪;预防机能同样指的是针对一般人,利用威慑来防止犯罪的机能,以及针对犯人本人,使其不再重新犯罪的机能。④参见[日]西原春夫:《刑法的根基与哲学》,顾肖荣等译,法律出版社2004年版,第92页。由此可见,刑罚的机能包括刑罚的报应机能和预防机能两大方面,而在设定刑罚时必须满足刑罚的这两种机能。由于强人工智能机器人具有认识能力和控制能力,对强人工智能机器人施加刑罚具有一定的预防效果,这体现在对智能机器人的编程进行修改和删除可以使实施犯罪行为的机器人得到教育和改造,从而从一定程度上实现特别预防的效果;而且这种刑罚对其他具有独立意识的智能机器人产生震慑,使其他智能机器人考虑到刑罚后果而自觉控制自己的行为,在一定程度上实现一般预防的效果。但是,也应当看到,对强人工智能机器人施加刑罚,不利于实现刑罚的报应机能。对强人工智能机器人实施诸如删除数据、修改编程、永久销毁一类的刑罚措施,无法使被害者及其家属,进而包括社会一般的报复感情观得以和缓并满足。例如,自然人实施故意危害公共安全的犯罪行为,造成多人伤亡后果的,在我国的刑事司法中极有可能以危害公共安全的犯罪被判处死刑。这样,被害人和社会的报复感情就可以得到宣泄和满足。然而,如果具有辨认能力和控制能力的强人工智能机器人实施故意危害公共安全的犯罪行为并造成多人伤亡后果的,对其施加删除数据、修改程序一类刑罚措施,则根本不可能使被害人和社会的报复感情得到满足。可能有人认为,单位可以成为刑法拟制的犯罪主体,而强人工智能机器人具有独立意识,更可以成为拟制的犯罪主体。这种观点忽视了单位具有一定的财产,其作为犯罪主体可以承担罚金刑,从而使被害人和社会的报复感情得到满足,而智能机器人则没有财产权,对其不能实施罚金刑,由此也就不能使被害人和社会的报复感情得到满足。这都体现出将强人工智能机器人作为犯罪主体并对其设定独特刑罚的观点是不合理的。

第四,将强人工智能机器人作为犯罪主体的观点违反了适用刑法人人平等的基本原则。刑法的基本原则,是指贯穿全部刑法规范、具有指导和制约全部刑事立法和刑事司法的意义,并体现我国刑事法治的基本精神的准则。罪刑法定原则、适用刑法人人平等原则、罪责刑相适应原则无可置疑地应当属于我国刑法的基本原则。①参见高铭暄、马克昌:《刑法学》(第5版),北京大学出版社2011年版,第24页。刑法的基本原则对刑事立法和刑事司法所具有的的巨大指导意义是毋庸置疑的,任何刑法学观点都应当符合刑法基本原则的精神。适用刑法人人平等原则和含义是:对任何人犯罪,不论犯罪人的家庭出身、社会地位、职业性质、财产情况、政治面貌、才能业绩如何,都应当追究刑事责任,一律平等地适用刑法,依法定罪、量刑和行刑,不允许任何人有超越法律的特权。②同注①,第28页。将强人工智能机器人作为刑事主体的观点则违反了刑法面前人人平等原则。这体现在刑法不可能对强人工智能机器人与自然人一律平等地适用刑法,依法定罪、量刑和行刑。假使自然人以极其凶残的手段故意杀害被害人,大多会被判处故意杀人罪并处以死刑或长期监禁;而强人工智能机器人作为犯罪主体实施了这类行为,对其判处故意杀人罪,却最多只能对其判处销毁或者删除数据等刑罚措施,这样就带来了平等定罪却不平等量刑和行刑的问题。自然人的生命权对于自然人来讲只有一次,其珍贵性对于单一的自然人个体而言是至高无上的,而对于智能机器人而言,其不具有生命权和身体权,对其实施删除数据甚至销毁等刑罚充其量只算是一种形式意义上的处罚,不能使智能机器人感到生命被剥夺的痛苦和身体上的痛苦。如果在实施相同犯罪行为的情况下对智能机器人判处不同的刑罚,不但被判处死刑的自然人犯罪人会感到不公平和不可接受,整个社会也会感到不公平,甚至对这种不平等量刑的情况感到滑稽,从而使社会大众对刑法公平、公正的理念产生动摇,也将令全社会对智能机器人犯罪陷入一片恐慌之中。由此可见,将强人工智能机器人作为犯罪主体的观点违背了刑法面前人人平等原则的精神,在理论和实践层面是站不住脚的。

此外,有学者认为,既然单位能够成为犯罪主体,那么强人工智能机器人也能够成为犯罪主体。该学者还将强人工智能机器人与单位的法律地位做了一番对比,指出明确规定单位犯罪的国家通常承认,单位也有意志,只不过其意志表现为单位内部所有人的共同意志罢了,但归根结底是一种自由意志,并且是一种区别于自然人的意志。通过深入学习,智能机机器人完全可能产生设计和编制的程序外的自由意志,那么便没有理由否认智能机器人的自由意志,智能机器人是介于普通机器人与人之间且是由人创造出的“人工人”。从法律属性上看,智能机器人比单位更接近于法律意义上的人,我们应当关注智能机器人的自由意志并赋予其法律上的主体资格。由此,智能机器人一旦符合犯罪主体资格,那么其实施了严重危害社会的犯罪行为,当然就可以承担刑事责任。③参见刘宪权:《人工智能:刑法的时代挑战》,上海人民出版社2018年版,第227页。笔者认为,上述观点很难站得住脚:一方面,强人工智能机器人虽然具有自由意志,但是其自由意志与自然人的自由意志相差甚远,而单位的意志归根结底反映的是单位内部自然人的自由意志,而强人工智能机器人的自由意志不包含自然人在人类社会的属性,不宜将其作为犯罪主体,否则极易引起人类社会秩序的混乱。另一方面,与单位相比,强人工智能机器人并不具有相应的刑罚适应能力。就单位犯罪的处罚而言,世界各国刑事立法和刑法理论上主要有两种原则:一是双罚制,即单位犯罪的,对单位和单位的直接责任人员均予以刑罚处罚;二是单罚制,即单位犯罪的,只处罚单位或只处罚单位的直接责任人员。对单位犯罪的,一般采取双罚制的原则,即单位犯罪的,对单位判处罚金,同时对单位直接负责的主管人员和其他直接责任人员判处刑罚。④同注①,第102页。这体现了单位作为犯罪主体的刑罚适应能力,刺破单位的面纱,其背后存在直接负责的主管人员和其他直接责任人员,这些人都是自然人。当单位构成犯罪时,当然可以对单位背后的这些自然人适用刑法针对自然人规定的一系列刑罚方式。然而,强人工智能机器人没有生命权和身体权,不能适用这些针对自然人设置的刑罚方式;另一方面,由于单位具有一定的财产,可以被判处财产刑,而强人工智能机器人并不具有财产,不能够对其判处并执行相关财产刑。由此决定,强人工智能机器人不能像单位一样成为犯罪主体,认为单位可以成为犯罪主体从而推断强人工智能机器人可以成为犯罪主体的观点是类推解释的结果,不但在刑法理论上难以自圆其说,而且很难应用于刑事司法实践。

通过以上分析,笔者认为,弱人工智能机器人和强人工智能机器人都不能够成为犯罪主体,能够成为犯罪主体的只能是智能机器人背后的自然人。关于自然人利用弱人工智能机器人实施故意犯罪以及涉及弱人工智能机器人的过失犯罪的犯罪主体问题以及刑事归责问题,前文已有讨论;而关于强人工智能机器人犯罪的犯罪主体及刑事归责问题,笔者将在下文进行进一步的探讨。

三、人工智能时代刑事风险的刑法应对措施

(一)滥用人工智能行为的刑法应对措施

正如上文所论述的,人工智能技术的不断发展给整个社会带来的刑事风险与日俱增,社会危害性越来越大,尤其是强人工智能机器人可能依靠独立的意志实施犯罪,这更凸显出从刑法立法上对滥用人工智能实施危害社会的行为创设新的犯罪类型的必要性。由于当前对滥用人工智能实施犯罪行为的刑法研究方兴未艾,滥用人工智能实施犯罪的形式也不充足,刑事立法尚不具备对滥用人工智能实施危害社会的行为规定大量法条的条件。然而,为化解目前人工智能技术所带来的巨大刑事风险,亟需通过相关罪名予以规制。为此,笔者建议设立“破坏人工智能管理秩序罪”,其中规定,滥用人工智能技术破坏人工智能管理秩序,情节严重的,按照破坏人工智能管理秩序罪论处。笔者认为,在目前的环境下增设破坏人工智能管理秩序罪,具有其合理性:第一,从刑事立法上为滥用人工智能实施危害社会行为创设了新罪名,填补了此类犯罪行为在刑事立法上的空白;第二,人工智能管理秩序并不是横空出世的概念,其内容由民事法规和行政法规予以规定。设立新罪名,实际上构建了一道民事、行政、刑事3种手段紧密衔接,惩治滥用人工智能行为的体系,充分发挥了民法、行政法、刑法在惩治不同情节滥用人工智能危害社会行为上的作用,而对破坏人工智能管理秩序情节严重的行为才作为犯罪论处的规定也充分体现了刑法的谦抑性。第三,对新罪名进行如此设定,既考虑了当前滥用人工智能实施犯罪行为的特征,又颇具前瞻性地对将来滥用人工智能实施犯罪行为的特征进行了预见。随着人工智能技术的不断发展,滥用人工智能实施危害社会的行为将具有更多的形式,将来针对人工智能技术进行规制的民事和行政法规必将如雨后春笋般不断涌现。刑法作出如此规定,顺应了人工智能技术不断发展的趋势,避免了刑法在打击新形式犯罪上的滞后性。也许有人会批评道,破坏人工智能管理秩序罪的设置过于笼统,不符合刑法明确性的要求。但是,我们更应该看到的是如此设定在惩治犯罪和保障人权上所具有的显著作用。回首往昔,新中国各项事业的发展刚刚起步,刑事法学研究方兴未艾之时,我国刑法也曾经设定了诸如流氓罪等口袋罪名。虽然这些罪名在刑法的明确性上有所欠缺,但是在客观上却符合当时社会发展环境的需要,起到了惩治犯罪、保障人权的作用,完成了其历史使命。同理,为了更好地惩治当前滥用人工智能危害社会的行为,有必要增设一个涵盖面较广的具有兜底性质的罪名,以避免无法可依情况的出现。而依据今后人工智能发展的新形势要求,对个别行为需要单独增设新罪名时,完全可以以刑法修正案的形式对相关新罪名进行增设;而对于人工智能发展新形势下新出现的亟待解决的疑难问题,也可以通过立法解释和司法解释加以解决。

(二)强人工智能机器人犯罪的刑法应对措施

如上所述,将强人工智能机器人作为犯罪主体,由强人工智能机器人承担刑事责任的观点是站不住脚的。那么,对强人工智能机器人实施的犯罪行为应当如何进行归责?刑法应当对此类行为作出何种规制才能够在预防强人工智能技术所带来的刑事风险的同时促进强人工智能技术的发展?对此,均需要进行进一步的探索。

在强人工智能机器人实施犯罪行为的场景下,虽然在表面上犯罪行为确实是由强人工智能机器人实施的,但是,正如上文所述,将强人工智能机器人作为犯罪主体是不符合刑法理论和刑事司法实践要求的。由此,我们应当刺破强人工智能机器人的面纱,找寻其背后真正应该承担刑事责任的犯罪主体。由于强人工智能机器人具有自己的意识,具有认识能力和控制能力,其所实施的犯罪行为很难直接由强人工智能机器人的研发者和使用者来承担责任。当然,如果智能机器人的研发者和使用者没有尽到注意义务,已经提前预见到自己的行为有可能生产出一个产生犯罪意识的强人工智能机器人或在使用中意识到强人工智能机器人有可能产生犯罪意识,却放任机器人依据自己产生的犯罪意识实施犯罪行为并造成危害结果发生,后来智能机器人果然基于这种扭曲意识实施犯罪行为的,应当作为相关犯罪的间接正犯承担相应的刑事责任。例如,强人工智能机器人的生产者在生产过程中意识到智能机器人的编程会使智能机器人产生扭曲意识,将来智能机器人可能基于此实施犯罪行为,却放任其进入相关领域。而智能机器人果然基于扭曲意识实施了犯罪行为,则对相关生产者应当按照相关犯罪的间接正犯进行处罚;而如果智能机器人的研发者和使用者应该预见到所生产或使用的强人工智能机器人有可能产生犯罪意识,因为疏忽大意没有预见或已经预见却轻信能够避免,则应当对智能机器人犯罪承担相应的过失责任。但是,也应当注意的是,这样的情况毕竟是极少数。强人工智能机器人的生产者、使用者在生产、使用强人工智能机器人时,很难预见到强人工智能机器人今后是否会产生犯罪意识,也很难在生产、使用过程中对强人工智能机器人产生犯罪意识具有注意能力。在这种情况下,似乎就没有人对智能机器人的犯罪行为负责任,而这也给刑法学界带来了困惑。

笔者认为,基于强人工智能机器人实施犯罪行为的特殊性,不妨对强人工智能机器人设定相关的监管人员。这样,当强人工智能机器人依据自己的意志实施犯罪行为时,对智能机器人负有监管义务且没有履行或充分履行该义务的人员就要负担相应的刑事责任。随着科技的不断发展,在对强人工智能机器人实施的危害行为予以惩治方面引进替代责任已较为可行。可以预见的是,在不久的将来,强人工智能机器人必然会出现并应用在更广泛的领域。届时,强人工智能机器人给人类社会所带来的各种道德、伦理风险将大大增加,也会给社会带来更大的风险。根据阿西莫夫提出的智能机器人三定律,智能机器人不得危害人类、必须服从人类的命令、在不违反第一条和第二条的情况下必须保护自己。①参见[美]艾萨克·阿西莫夫:《我,机器人》,叶李华译,江苏文艺出版社2013年版,第59-60页。如何保障强人工智能机器人不危害人类和最大限度地服从人类命令成为当前社会必须解决的问题。对此,笔者认为,由于刑法具有补充性,仅仅以刑法为手段不可能抑制犯罪,并且因为刑罚是剥夺人的自由、财产等极苛酷的制裁,应当限定为防止犯罪的最后手段。正如德国学者李斯特所言,最好的社会政策就是最好的刑事政策,应当首先积极谋求从技术和社会的角度对强人工智能的危害行为进行防卫。鉴于强人工智能机器人给人类社会带来的巨大风险和挑战,应当成立专门的监管机构对强人工智能机器人进行监管。这样,就可以由精通人工智能技术的专业人员负责对强人工智能机器人予以监督管理。但是,由于强人工智能机器人拥有自己独立的思维意识,如何才能对其进行有效管理便成为一个难题。在我国首个功夫科幻系列片《功夫机器侠·北腿篇》里,具有自主意识的强人工智能机器人“阿狗”被植入了特殊芯片,在其准备着手实施针对自然人的暴力犯罪行为时智能系统将启动自毁装置,将智能机器人摧毁。笔者认为,强人工智能机器人拥有自己的意识,而且在某些方面具备比自然人更强的能力。为了对强人工智能机器人进行更加有效的监管,可以考虑在强人工智能机器人的编程系统里设定“毁灭系统”。这样,在强人工智能机器人产生犯罪意识时,相关的毁灭系统介入摧毁智能机器人的全部编程,使其变为没有任何意识的、冷冰冰的机器。待人类重新为其输入编程系统后,再行恢复其相关能力。毁灭系统由专门的智能机器人监管者负责安装与维护。当毁灭系统因故障失效时,监管者可以通过使用手动遥控启动毁灭程序摧毁强人工智能机器人的编程。如此一来,监管者就承担起对强人工智能机器人的监管责任。如果因为监管者没有履行或充分履行监管义务而导致强人工智能机器人实施犯罪行为的,则由监管者承担相应的刑事责任。但是,由于在这种情况下,监管者仅因为存在一定的失职行为从而过失导致危害结果的发生,而不是积极追求或放任危害结果的发生,对其不宜按照人工智能机器人所实施的行为进行处罚,而应当针对人工智能监管者增设管理机器人失职罪,并按照此罪对监管者进行刑事处罚。强人工智能机器人犯罪未遂的,监管者不应承担相关的责任。此外,基于强人工智能机器人与自然人相比,可能实施具有更大社会危害性的行为,其犯罪行为会给被害人带来更为严重的危害,单单对监管者处以罚金刑显然不能满足对被害人的经济赔偿。由此,如何满足对被害人的经济赔偿的问题也亟待解决。笔者认为,应当推行对强人工智能机器人的强制保险制度。由此,如果强人工智能机器人实施严重危害行为的,则由保险公司承担经济赔偿责任。这样就能够充分利用现代社会的保险制度对被害人的损失加以弥补。

四、结 语

人工智能技术就像一柄双刃剑,其快速发展既给人类社会带来了更多的便利,推动了人类社会的快速发展,也给整个人类社会带来了极大的风险和挑战。而对于人工智能机器人,尤其是随着人工智能技术的不断发展在将来出现的强人工智能机器人实施的危害社会的行为应当如何从刑法的维度进行规制,成为一个亟待解决的难题。世异则事异,事异则备变。人工智能技术的刑事风险所引发的讨论才刚刚开始,伴随着人工智能技术的快速发展和人类社会知识的创新,刑法理论也需要进一步的发展,以应对人工智能技术给整个社会带来的日益复杂的刑事风险。笔者认为,刑法学者应当秉着实事求是的实践精神和与时俱进的创新精神,对人工智能时代的刑法完善途径进行积极探索,以构建一整套防卫人工智能刑事风险的刑事法律制度体系,从而实现防卫人工智能刑事风险和推动人工智能技术不断发展的有机统一。

猜你喜欢

犯罪行为刑罚刑法
利用“短信嗅探”技术实施网络侵财犯罪行为的定性研究
过度刑法化的倾向及其纠正
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
《刑法》第217条“复制发行”概念的解释与适用
论故意伤害罪入罪标准
断盐也是一种刑罚
刑法的理性探讨
刑罚的证明标准
诱惑侦查合法性之认定及此措施下毒品犯罪行为的界定