人工智能时代刑事责任与刑罚体系的重构*
2018-02-07
(华东政法大学法律学院,上海 200042)
当智能机器人成为一种由程序设计、编制而成并由此产生深度学习能力且能够自主思维、自发行动,因而具有辨认能力和控制能力的物体时,智能机器人与同样具有学习能力并能够自主思维、自发行动,且具有辨认能力和控制能力的自然人之差异,就仅仅在于其不具有生命,与动物的差异则在于其具有辨认和控制能力,与普通机器人的差异在于其具有深度学习能力,可能超越人类设计和编制的程序在独立的意识和意志支配下实施行为。就此而言,人们完全没有理由排除智能机器人实施严重危害社会行为的可能性。在这种情况下,智能机器人是否需要承担相应的刑事责任?智能机器人的研发者或使用者是否需要承担相应的刑事责任?如果智能机器人需要承担刑事责任,那么智能机器人和其研发者或使用者共同实施了犯罪行为,是否可能构成共同犯罪,其刑事责任又应该如何分担?这些都是值得研究者深入思考的问题。笔者认为,在人工智能时代,有必要对刑事责任与刑罚体系进行重构。重构的体系包括四个部分,即智能机器人的刑事责任、智能机器人研发者或使用者的刑事责任、智能机器人与自然人共同犯罪刑事责任的分担和智能机器人犯罪刑罚体系。
一、智能机器人的刑事责任
理论界一般认为,刑事责任能力是指,行为人认识自己行为的性质、意义、作用和后果,并能对自己的行为进行解释、控制以及对自己的行为承担刑事责任的能力。刑事责任能力亦可称为行为人辨认和控制自己行为的能力。同时,理论界达成共识的是,刑事责任能力是否具备又是行为人能否成为刑事责任主体的必要条件,换言之,作为刑事责任主体必须具有辨认能力和控制能力。我国刑法学界通常将刑事责任看作“犯罪的法律后果”,是犯罪与刑罚之间的“桥梁”。在判断行为人的行为是否构成犯罪时,一方面需要判断行为主体是否具有刑事责任能力,另一方面需要判断行为主体实施的行为是否具备严重的社会危害性,以及是否具备诸如罪过等其他构成要件。
当下,大多数人认为,智能机器人和普通机器人没有什么本质的区别,如果智能机器人实施了严重危害社会的行为,那必然是受到智能机器人研发者或使用者的“操纵”,因而需要承担刑事责任的应当是智能机器人的研发者或使用者。对此观点,笔者不敢苟同。依笔者之见,这种观点忽略了智能机器人与普通机器人之间的区别,从而将智能机器人完全等同于普通机器人。事实上,达到一定程度的智能机器人与普通机器人的最大区别就在于,前者拥有自己的辨认能力和控制能力,并在独立的意识和意志的支配下实施严重危害社会的行为。因为既然智能机器人有了主体性也有了能力,其思想的天平就有可能倒向自己制定的规则和价值观。*参见赵汀阳:《终极问题:智能的分叉》,《世界哲学》2016年第5期。换言之,当智能机器人的“智能”达到一定程度时,其所实施的行为就完全可能不受研发者或使用者的控制,此时智能机器人具有自己的辨认能力和控制能力,即拥有了行为的选择权,可以选择实施或不实施犯罪行为,此时若将智能机器人实施的严重危害社会的行为完全归责于研发者或使用者,并不妥当。在这种情况下,智能机器人与具有部分辨认能力和控制能力的不完全刑事责任能力的自然人颇为相似。智能机器人在自己可以承担刑事责任的范围内实施严重危害社会的犯罪行为,当然需要自行承担刑事责任而不能归责于其监护人。
鉴于达到一定程度的智能机器人与普通机器人的区别在于智能机器人可以深度学习,从而可能产生自主意识,具有辨认能力和控制能力,有学者提出应将人工智能定义为具有智慧工具性质又可作出独立意思表示的特殊主体。*袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。笔者认为,这种观点似乎也不妥当。智能机器人是人工智能技术的结晶,人工智能技术的核心就是通过模拟人类的神经网络,利用算法和程序对大数据加以深度学习。然而,就目前的智能机器人的发展而言,智能机器人往往被应用于一些特定的领域从事特定的事务。例如,外科手术机器人被用于协助手术操作,翻译机器人被用于从事翻译工作。一般而言,这些被用于特定领域的智能机器人所做出的行为都是在程序设计和编制的范围之内的。在这种情况下,虽然智能机器人具有学习能力,可以自行做出判断,但其并不具有辨认能力和控制能力,因为此时智能机器人的行为仍然受制于设计和编制的程序。以外科手术机器人为例,外科手术机器人通过深度学习完全可能掌握高深的医疗技术,可以自主判断病人的病情并作出相应的处理。不过,由于外科手术机器人是受到程序的设计和编制控制的,研发者设计和编制程序的目的是让外科手术机器人能够顺利完成手术,在能够顺利完成手术的程序设计和编制的范围内,外科手术机器人行为受到程序的限制,不能自主决定自己的行为。与此同时,不法分子完全可能出于不法目的研发或使用专门用于实施犯罪行为的智能机器人,例如智能杀手。智能杀手和其他智能机器人一样拥有深度学习能力,并能对外界事物做出及时反应和判断,比如可以根据具体的情景选择杀人的方式和时机等。然而,智能杀手从“出生”的那一刻起,其存在的意义就是为了杀人,其实施的行为所实现的是研发者或使用者通过程序设计和编制的杀人目的。在这种情况下,该智能机器人其实并不具有辨认能力和控制能力。此时,智能杀手似乎只能看作研发者或使用者的实施杀人行为的“工具”,而不是特殊主体,其显然不应当承担刑事责任,而需要承担刑事责任的当然是智能杀手的研发者或使用者。
通过对上述分析,笔者认为,智能机器人实施严重危害社会的行为可分为两种,即在程序设计和编制范围内实施的行为与在程序设计和编制范围外实施的行为。在设计和编制的程序范围内实施行为时,智能机器人并不拥有辨认能力和控制能力,不具有刑事责任能力,其实施的犯罪行为实现的是研发者或使用者的犯罪目的,因而不应当由其承担刑事责任,例如智能杀手实施杀人的行为。在设计和编制的程序范围外实施行为时,智能机器人和自然人一样,具有辨认能力和控制能力,具有刑事责任能力,可以成为刑事责任主体,其实施的犯罪行为实现的是自主意志,可能且应当承担刑事责任,其包括两种情形。一种情形是智能机器人受到其他自然人的教唆或其他自然人的帮助,产生了犯意,实施了严重危害社会的犯罪行为;抑或研发者在研发过程中并未将犯罪意图融入程序的设计和编制中,但在智能机器人诞生后产生了犯意,利用智能机器人的学习能力,让智能机器人帮助自己实施严重危害社会的犯罪行为。在这种情形下,智能机器人可能与教唆或者提供帮助的自然人构成共同犯罪。关于智能机器人与自然人共同实施严重危害社会的犯罪行为,能否构成共同犯罪且如何分担刑事责任的问题,笔者将在下文展开具体的讨论。另一种情形是虽然设计和编制的程序并不具有不法意图,但是智能机器人通过深度学习,产生了程序设计和编制范围之外,且不受程序设计和编制范围控制的自主意识和意志,在这种自主意识和意志的支配下智能机器人了实施了严重危害社会的行为。此种情形下,智能机器人拥有自己的辨认能力和控制能力,能够成为刑事责任主体,因而其需要对自己在自主意识和意志支配下实施的行为承担相应的刑事责任。当然,在这种情形下,智能机器人的研发者或使用者在没有罪责的前提下,就不应承担任何刑事责任。智能机器人的研发者或使用者如果违反有关法律规定没有尽到应尽的义务,则不能完全免责,可能需要承担相应的过失责任。对于智能机器人研发者或使用者的有关刑事责任,笔者在下文有相应的论述。
综上所述,在程序设计和编制范围内的智能机器人不具有辨认能力和控制能力,因而不具有刑事责任能力,其实施犯罪行为是按照研发者或使用者的意识和意志做出的,应当将智能机器人看作研发者或使用者实施犯罪行为的“工具”,而发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,此时的智能机器人具有辨认能力和控制能力,因而完全可能成为行为主体承担刑事责任。
二、智能机器人研发者或使用者的刑事责任
除了前述智能机器人的研发者设计和编制了具有犯罪意图的程序而需要承担刑事责任的情况外,智能机器人的研发者或使用者还有可能在其他情况下承担刑事责任。责任与义务是紧密联系的,可以将智能机器人的研发者或使用者的义务分为预见义务与监督义务。如果智能机器人的研发者或使用者违反了预见义务,那么其可能承担的是一般过失犯罪的刑事责任;如果智能机器人的研发者或使用者违反了监督义务,那么其可能承担的是监督过失的刑事责任;如果智能机器人的研发者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其可能不需要承担刑事责任,此时,则为意外事件或由智能机器人独立承担刑事责任。
一般过失犯罪成立的前提以行为人“应当预见而没有预见”或“已经预见却轻信能够避免”危害结果的发生为构成条件。如果智能机器人的研发者或使用者“已经预见”危害结果的发生,只是轻信能够避免这些危害结果的发生,那么其研发者或使用者成立有关过失犯罪。应该强调的是,这种“已经预见”危害结果不是一种抽象的“预见”,即认为智能机器人在未来可能会危害到人类社会,而是“预见”到了具体内容,即预见到自己研发或使用的智能机器人在投入使用后可能会实施严重危害社会的犯罪行为,那么可以成立相关过失犯罪,承担刑事责任。“应当预见而没有预见”是指行为人负有预见到自己的行为可能致使危害结果的发生的义务,而由于疏忽大意而没有预见的情况。那么智能机器人的研发者或使用者是否负有预见的义务呢?传统观点认为,是否负有预见义务是以行为人有预见能力为前提,而判断行为人预见能力的标准应考虑行为人的能力和行为时的具体条件。笔者认为,对于研发者或使用者而言,判断其是否具有预见能力主要需要考虑人工智能技术的发展情况,根据人工智能技术的发展情况,可分为在研发或使用时人工智能技术可以避免危害结果的发生和在研发或使用时人工智能技术无法避免危害结果的发生两种情况。
其一,在使用或研发智能机器人时人工智能技术可以避免危害结果的发生的情况下,智能机器人的研发者或使用者负有预见危害结果发生的义务,最终因未预见而导致危害结果的发生,智能机器人的研发者或使用者成立一般过失犯罪,需要承担相关刑事责任。如果智能机器人在设计和编制的程序范围内实施了严重危害社会的犯罪行为,则智能机器人不承担刑事责任,智能机器人的研发者或使用者单独承担过失犯罪的刑事责任。应当看到,此时程序的研发或使用上的过失与最终导致的危害结果之间必然存在因果关系。理由是智能机器人的行为完全受到程序研发或使用的限制,与研发者的程序设计、编制和使用者的使用情况紧密相关,因此智能机器人的研发者或使用者的过失行为与危害结果的发生具有因果关系。如果因为程序的漏洞使得智能机器人在设计和编制的程序范围外实施了严重危害社会的犯罪行为,仍应认为研发者或使用者的过失行为与最终导致的危害结果之间存在因果关系。众所周知,刑法中因果关系的本质是引起和被引起的关系。智能机器人即使能在自主意识和意志的支配下实施行为,这种自主意识和意志也是来源于程序的设计和编制,如果程序的研发或使用本身存在问题,那么研发者或使用者的过失行为与最终导致的危害结果之间就必然存在引起和被引起的因果关系。在使用或研发时人工智能技术可以避免危害结果的发生的情况,智能机器人的研发者或使用者完全可以利用人工智能技术对智能机器人进行检测,从而“预见”智能机器人可能实施严重危害社会的犯罪行为。如果没有利用人工智能技术对智能机器人进行检测,最终导致危害结果的发生,则完全符合“应当预见而没有预见”的情况,属于疏忽大意的过失。如果研发者或使用者利用人工智能技术检测时发现智能机器人可能在未来实施犯罪行为并导致危害社会的结果,但轻信在现有的人工智能技术下这种危害结果是能够避免的,那么则符合“已经预见并轻信能够避免”的情况,属于过于自信的过失。
还需要指出的是,智能机器人的研发是个复杂精细的过程,对智能机器人设计和编制程序不可能由一个人完成,因此笔者提到的“研发者”在大多数情况下都是指研发团队。如果智能机器人的行为最终导致了危害结果,认为此时研发者可能成立过失犯罪,就可能存在一种情况,即无法查明智能机器人的研发团队中究竟是谁的过失行为直接导致了危害结果。若不将共同过失犯罪以共同犯罪论处,则在无法查明究竟是谁的过失行为直接导致了危害结果的情况下,每个行为人都将作无罪处理。即便在极其罕见的场合能够查明各行为人的过失行为分别在何种比例上作用于危害结果的发生,但若分别按照其作用追究责任,一则量刑很轻,二则也不利于促使各环节人员互相监督、彼此协作,以共同防范过失行为。
在民事法律领域,目前为了克服证明不能的难题,严格责任与追偿制度成为解决方案。严格责任既不考虑侵权人的过错,也不考虑受害人的过错,仅根据法律的直接规定,以因果关系确定侵权人所应当承担的民事责任,我国《产品质量法》对产品缺陷致人损害采取的正是严格责任。追偿制度在一定程度上是为了解决侵权行为与损害结果之间因果关系的证明难题,如我国《产品质量法》第43条规定:“因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。”该制度是为了最大限度地保护消费者的利益,至于已作出赔偿的生产者或销售者因不能证明另一方的责任而无法行使追偿权,则是法律所无力关心的内容。那么,是否可以认为,在未来人工智能机器人将遍布于社会生活各个方面的场景下,为了最大程度地保护人类的利益,有必要在该领域引入类似于前述的责任追究方法吗?换言之,人工智能机器人的研发者、使用者因违反监督义务过失致人重伤、死亡却无法查明究竟是哪一方的过失行为直接导致了危害结果时,是否有必要依据某种规则确定其中的一方或者多方承担刑事责任。
我国司法实践与司法解释并未完全否认共同过失犯罪的共同犯罪性质,如2000年最高人民法院发布的《关于审理交通肇事刑事案件具体应用法律若干问题的解释》第5条第2款规定:“交通肇事后,单位主管人员、机动车辆所有人、承包人或者乘车人指使肇事人逃逸,致使被害人因得不到救助而死亡的,以交通肇事罪的共犯论处。”西方刑法理论中的过失犯罪理论也正随着时代的变迁而不断发展,以应对社会分工日益精细、风险行业日渐增多的现实之需,尤其是在高速交通、机械、建筑、化学、医药、医疗等行业,一着不慎,其危害结果都是惊人的。*参见李希慧、廖梅:《共同过失犯罪若干问题研究》,《浙江社会科学》2002年第5期。可以想见,在今后的这些高风险行业中将处处可见人工智能机器人的身影,如果不对智能机器人研发的过失行为进行有效的规制,恐难回应时代要求与现实需求。未来刑法是否需要考虑承认在特殊行业中存在共同过失犯罪的问题,值得探讨。
其二,在研发或使用智能机器人时人工智能技术无法避免危害结果的发生的情况下,笔者认为,智能机器人的研发者或使用者不负有预见义务,也就不构成一般过失犯罪。然而,智能机器人的研发者或使用者是否可以成立监督过失犯罪呢?监督过失犯罪理论的意义在于,它解决了具有一定监督义务的行为人对非因自己实际参与的行为造成了严重危害社会的结果时无法确定行为人的刑事责任问题。比如发生了工厂生产爆炸事故或食品安全事件时,相关负责人因其具有监督义务,就应当承担相应的刑事责任。如果对于这一类负有监督义务的行为人不进行一定的处罚显然是有失公平的。一般来说,在产品的生产过程中,企业的管理者、监督者有义务监督被管理者按照要求从事生产活动,其具体内容一般为事前的指示、提示、指挥,事中的监督和事后的检查等。如果没有履行这种监督义务,最终导致了危害结果的产生,企业的管理者、监督者就需要承担监督过失责任,如果确实履行了这种监督义务,则不需要承担监督过失责任。判断智能机器人的研发者或使用者是否构成监督过失犯罪首先需要判断智能机器人的研发者或使用者是否具有监督义务。
鉴于人工智能技术并非发展得越快越好、越先进越好,而是要在增进社会福利与防范潜在风险之间找到一个平衡点,底线标准就是要确保人类对风险的控制力,不容许失控现象的发生。2017年6月,Facebook人工智能研究所发现其所研发的具有谈判能力的智能机器人逐渐在对话中发明了人类无法理解的语言,Facebook研究院随即宣布暂停并整改这一项目,有人猜测其原因可能是担心对这些智能机器人失去控制。不论该叫停事件背后的真实原因是否源于人类对失控的担忧,但对智能机器人时刻保持警惕不失为是一种理性而谨慎的做法。“人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性”,*吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。智能机器人一旦开始实施严重危害社会的犯罪行为,那么后果将是不可想象的。无论人工智能是否会超越人类智能,研究人工智能的安全问题都是非常必要的。*杜严勇:《人工智能安全问题及其解决进路》,《哲学动态》2016年第9期。因此,将安全作为人工智能时代的核心法价值,这种定位是比较合理的,人类不能等到风险发展为实害后才去防范风险,此时可能为时已晚,甚至可能出现难以控制的局面。为此,笔者认为有必要对相关主体设定一定的监督义务。
第一,对智能机器人的研发者规定风险防范与控制、监督义务。
虽然目前智能机器人还是受控于研发者的,但令人担忧的是,人们无法保证智能机器人能够经由其与人类身体的相似性而承载了人类所认可的道德规范。*参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报(哲学社会科学版)》2017年第6期。一旦智能机器人的智能达到甚至超越人类智能,它就会在一定程度上结束“受控于人类”的循环,人们应当尽量避免这种情况的发生。换言之,当下以及未来,智能机器人的研发者或使用者必须确保其所设计、编制、使用的智能机器人始终处于人类的监督范围之内。需要指出的是,此处“监督”的内容不是指禁止智能机器人进行深度学习,如前所述,智能机器人区别于普通机器人的根本价值就在于其可以深度学习并从事很多特定领域内的业务。智能机器人的研发者或使用者对智能机器人的“监督”应当是指,智能机器人的研发者或使用者能够确保智能机器人不会实施伤害人类、危害社会的行为,即不具有攻击性,或者当智能机器人意外实施攻击行为时,人类能够做到瞬间阻止,如在机器人身上设置紧急按钮或一键休眠等。总之,防范与控制风险的技术必须成为人工智能技术发展中的重要组成部分,不使人类丧失对智能机器人的控制,不发生系统性风险,是发展人工智能技术的底线要求。假如智能机器人的研发者或使用者违反相关监督义务,最终会导致智能机器人实施严重危害社会的犯罪行为发生的危险,完全可以通过刑法增设滥用人工智能技术罪等监督过失类犯罪,对智能机器人的研发者或使用者的行为进行规制。如果智能机器人的研发者或使用者既不可能预见危害结果的产生(即不违反预见义务,没有预见能力),也确实履行了监督义务,那么其可能不需要承担刑事责任。此类情况下如果智能机器人是在设计和编制的程序范围内实施了严重危害社会的犯罪行为,那么最终导致危害结果的产生可以理解为发生了刑法意义上的意外事件。如果智能机器人是在设计和编制的程序范围外实施了严重危害社会的犯罪行为,那么智能机器人对危害结果独立承担刑事责任,智能机器人的研发者或使用者同样不需要承担刑事责任。
第二,对涉案智能机器人的所有人或使用人规定制止义务。
对智能机器人的研发者规定风险防范与控制义务,是确保智能机器人不致危害社会的第一道刑法防线。假如第一道防线失守,如研发者基于故意或过失违反了风险防范与控制监督义务,导致智能机器人主动、自发脱离人类控制实施危害社会的举动的,就有必要立法设置防止危害结果蔓延的第二道刑法防线,即规定智能机器人的所有人或使用人负有制止其攻击行为的义务。在无法通过断电、遥控、一键休眠等方式制止智能机器人行为时,所有人或使用人应当将机器人销毁(击毁、炸毁等)。能够销毁而拒不销毁导致严重后果的,所有人或使用人承担相应的不作为犯罪的刑事责任。使用人履行制止义务销毁机器人的,无需对机器人的所有人承担民事赔偿责任,能够证明该机器人不符合安全标准的,所有人可向机器人的生产者或销售者主张赔偿责任,能够证明机器人符合安全标准也未发现有技术瑕疵的,对机器人的设计者、生产者而言属于意外事件,其不负刑事责任,机器人之所有人的损失可通过购买保险的方法加以弥补。此处有必要讨论的一种特殊情形是,假如机器人正在实施故意毁坏财物的行为,并且除毁损该机器人外别无其它制止方式,但机器人所毁损财物的价值远低于机器人本身的价值,此时负有制止义务的所有人、使用人是否可以主张不作为的紧急避险,使不作为行为得以免责。笔者认为,在这种情形下机器人的所有人或使用人不构成紧急避险。因为在所有人或使用人履行制止机器人行为的作为义务之前,“正在发生的危险”仅为机器人毁坏财物的危险,只有为了使财物免受机器人的毁坏而不得已所采取的损害另一较小合法权益的行为方为紧急避险行为。换言之,所有人或使用人不制止机器人,其所避免的并不是危险,而是履行自身作为义务的成本,后者并非危险的来源,不是紧急避险的适用对象,这本质上是一个行为人履行作为义务比不履行作为义务所导致的社会经济成本更大的问题。值得指出的是,该情形也并不适用我国《刑法》第21条第3款“关于避免本人危险的规定,不适用于职务、业务上负有特定责任的人”的规定。因为该款所规定的其实是职务、业务上负有特定责任的人本身遭遇危险的情况,并非指职务、业务上负有特定责任的人本身未遭遇危险但其履行作为义务之后会遭遇危险的情形。既然当行为人履行作为义务比不履行作为义务所导致的社会经济成本更大时不涉及紧急避险问题,那么应当如何处理呢?可行的方案是适用我国《刑法》第13条“情节显著轻微危害不大的,不认为是犯罪”的但书规定,对该行为作出罪处理,行为人应当赔偿被害人的财产损失。
三、智能机器人与自然人共同犯罪刑事责任的分担
如前所述,人工智能时代发展到一定阶段,智能机器人完全可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,此时的智能机器人具有与普通自然人一样的辨认能力和控制能力,因而完全可能成为刑事责任主体而承担刑事责任,即智能机器人应当具有刑事责任能力。那么,在这些复杂的情况下,是否可以认为智能机器人和自然人共同参与实施了犯罪行为呢?是否可以认为智能机器人和自然人需要共同承担有关刑事责任呢?笔者认为,在上述几种情况下,完全可以认为智能机器人与自然人成立共同犯罪,需要共同承担有关刑事责任,理由如下。
首先,认为智能机器人与自然人可以成立共同犯罪,符合刑法中共同犯罪客观方面的要求。如前所述,智能机器人之所以可能承担刑事责任,是因为其既然能在设计和编制的程序范围外实施行为,那么其必然拥有属于自己的辨认能力和控制能力,同时可以拥有自主的意识和意志。既然承认了这一点,就需要考虑到实际上智能机器人可能将自主的意识和意志与自然人的意识和意志相融合,共同而并非单独实施严重危害社会的犯罪行为。从共同犯罪的客观表现方式来看,二人以上在共同故意的支配下,共同实施了具有一定内在联系的犯罪行为,共同犯罪人都需要承担刑事责任。各个共同犯罪人在参加共同犯罪时,不论他们的分工与参与程度,都成为了一个统一的犯罪活动整体。*参见刘宪权主编:《刑法学》(第四版),上海人民出版社2016年版,第216-217页。智能机器人可能与自然人共同以积极的行为实施危害社会的犯罪行为,例如一起抢劫,一起行凶杀人。智能机器人也可能与自然人共同以消极的方式,即不履行某种义务,从而致使危害结果发生。例如,智能机器人护士和自然人护士共同负责看管病人,后共同决定要杀害这个病人,所以都不给病人服药最后导致病人死亡,此时智能机器人护士和自然人护士完全可以成立不作为的共同犯罪。同时,智能机器人也可能和自然人形成一方作为、一方不作为的共同犯罪。再以智能机器人护士为例,自然人如果想杀害一个病人,让智能机器人护士帮助,在进入病房杀害病人时智能机器人护士假装不知情,那么智能机器人护士构成不履行特定义务的不作为,与该自然人积极的行为构成共同犯罪。
其次,认为智能机器人与自然人可以成立共同犯罪,符合共同犯罪的主体要求。众所周知,如果是一个有刑事责任能力的人唆使一个没有刑事责任能力的人一起实施危害社会的犯罪行为,或者一个单位利用一个没有刑事责任能力的自然人一起实施危害社会的犯罪行为,均不成立共同犯罪。然而,如果一个具有完全刑事责任能力的行为人和一个具有限制刑事责任能力的行为人共同实施了危害社会的犯罪行为,就有可能成立共同犯罪。其理由是,如果他们实施的这种严重危害社会的犯罪行为在限制刑事责任能力的行为人可以承担刑事责任的行为范围内(例如杀人、抢劫、强奸等),那么他们就需要共同承担相关刑事责任。限制刑事责任能力的行为人是按照行为类型来承担刑事责任的,所以也在需要承担刑事责任的这些行为类型的范围内和他人成立共同犯罪。虽然智能机器人和限制刑事责任能力的行为人不同,一旦智能机器人在设计和编制的程序范围外按照自主的意识和意志实施严重危害社会的犯罪行为,它就需要对所有类型的犯罪行为承担刑事责任,但是智能机器人和限制刑事责任能力的行为人相似的一点是,智能机器人即使实施了危害社会的行为,它也有可能不承担刑事责任,即智能机器人在设计和编制的程序范围内按照研发者或使用者的意识和意志实施行为时,其不需要承担刑事责任。所以笔者认为,基于限制刑事责任能力行为人和智能机器人的相似点,有关限制刑事责任能力行为人的共犯原理完全可以适用于智能机器人。换言之,智能机器人与限制刑事责任能力的行为人都应该在与他人共同实施自己需要承担刑事责任的犯罪行为时,与其他共同实施犯罪的行为人成立共同犯罪,共同承担刑事责任。以外科手术智能机器人为例,如果外科手术智能机器人在不法分子的教唆下产生了犯意,实施了故意伤害他人的行为,那么外科手术智能机器人就需要和该不法分子成立共同犯罪,需要共同承担刑事责任。
最后,认为智能机器人与自然人可以成立共同犯罪,有利于解决智能机器人与自然人的刑事责任分担问题。以目前的刑法体系为例,我国刑法以犯罪分子在共同犯罪中所起的作用为标准将共同犯罪人分为主犯、从犯、胁从犯和教唆犯,其主要目的就是为了确定各个共同犯罪人的刑事责任。同样,在智能机器人和自然人共同实施严重危害社会的犯罪行为情况下,也可以根据实际情况来判断智能机器人和自然人的作用和分工,从而进一步地给智能机器人和自然人定罪量刑。我国《刑法》第27条第2款之所以规定“对于从犯,应当从轻、减轻处罚或者免除处罚”,是因为从犯在共同犯罪中只是起次要或者辅助作用,而没有起主要作用,与主犯相比,其行为的社会危害性较小,所以对其采用了“必减”的处罚原则。认定智能机器人与自然人可以成立共同犯罪,有利于司法实务工作者合理分配智能机器人与自然人的刑事责任,实现区别对待,明确打击重点,从而更加精准地定罪量刑。
此外,需要指出的是,我国刑法要求共同犯罪的行为人必须有共同犯罪的故意,即二人以上对于共同实施的犯罪行为所造成的危害社会的结果都必须持有希望或者放任的心理态度。智能机器人的行为可以根据程序的运行过程来判断,所以,笔者认为,可以在未来考虑从事后程序运行与记录等情况来判断智能机器人的主观心理状态,进而判断智能机器人是否具有共同犯罪的故意。如果智能机器人实施危害社会的犯罪行为不仅是因为受到自主意识和意志的支配,还因为研发者在设计的过程中存在程序设计和编制的过失,那么智能机器人和研发者就不能成立共同犯罪,理由是缺乏共同犯罪的故意,此情形下需要根据具体情况在追究智能机器人的刑事责任的同时,按前所述规则追究该研发者过失行为的有关刑事责任。
四、智能机器人犯罪刑罚体系的建构
应该看到,刑事责任最主要的承担方式就是刑罚。既然承认了智能机器人在设计和编制的程序范围外实施的严重危害社会的犯罪行为需要承担刑事责任,那么对于构成犯罪的智能机器人就涉及对智能机器人适用刑罚的问题。对智能机器人适用刑罚,本质是承认智能机器人的社会成员地位,智能机器人群体“实力”的变化导致国家需要重视智能机器人的权利。一般而言,刑罚具有特殊预防和一般预防两种功能。对于智能机器人而言,这两种功能同样适用。刑罚的特殊预防功能是针对犯罪主体的,具有剥夺或限制再犯能力、威慑、教育和改造等功能。智能机器人同样可以被改造,很多情况下智能机器人的犯罪意识并非“天生”的,只要“回炉重造”,智能机器人本身还可以为人类社会所用甚至作出较大贡献。刑罚的一般预防功能是针对犯罪主体以外的其他主体的,对于智能机器人犯罪而言,刑罚的一般预防对象既可以是智能机器人,也可以是普通自然人。对智能机器人处以刑罚不仅可以让其他具有辨认能力和控制能力的智能机器人和普通自然人目睹惩罚而停止犯罪行为,还可以明确犯罪行为的性质,使不知法的智能机器人和普通自然人自觉控制自己的行为,防患于未然。
应当看到,智能机器人所适用的刑罚体系在一定程度上要有别于自然人和单位。我国刑法规定的刑种包括四种类型,即财产刑、资格刑、自由刑和生命刑。在可能适用的刑罚种类上,智能机器人异于自然人和单位之处表现在四个方面。其一,智能机器人不享有财产权,其也无需财产以维持其生存,罚金、没收财产的刑罚无法施加于智能机器人。其二,智能机器人不享有参与政治生活的权利,剥夺政治权利的刑罚亦无法施加于智能机器人。其三,智能机器人由程序设计和编制而成,不存在“人身权”,因而也就不存在所谓的人身自由权,其无法被限制和剥夺人身自由,管制、拘役、有期徒刑和无期徒刑的刑罚同样无法施加于智能机器人。其四,智能机器人不具有生命,更无生命权可言,剥夺自然人生命的死刑更不能施加于智能机器人。目前我国刑法所确立的刑罚体系仅以自然人和单位为适用对象而设计,我国刑法规定的主刑(管制、拘役、有期徒刑、无期徒刑、死刑)和附加刑(罚金、剥夺政治权利、没收财产),不能满足人工智能时代对智能机器人的特殊处罚需求,因而有必要加以重构。
笔者认为,设计智能机器人的刑罚体系时必须坚持以下三个原则。第一,罪刑相适应原则。应使智能机器人所实施的犯罪与刑罚之间“保持实质的对应关系”,重罪重罚轻罪轻罚,建立层次分明的刑罚阶梯。对智能机器人所施加的刑罚并非只有断电、销毁这么简单,而应力图避免单一化倾向,努力探索更符合智能机器人特点的多元化刑事处罚方法。第二,以刑罚目的为导向原则。刑罚的本质是报应,有罪必罚,故立法者将具有严重社会危害性的行为“划入”犯罪圈,与此同时,立法者也应考量科处刑罚对该行为是否无效果、太昂贵、可替代,即以是否能够实现刑罚的目的来决定是否将该行为“划出”犯罪圈。犯罪圈的划定需要以刑罚的目的为导向,刑罚种类的设计更应该以刑罚的目的为导向。刑罚的目的是预防犯罪,不能实现此种目的的刑罚即是不合理、无必要的刑罚。譬如断电能否成为施加于智能机器人的刑罚便取决于断电能否收到一般预防与特殊预防的效果。假如智能机器人不可能从“被断电”的经历中感知到刑罚的“痛苦”(断电可能意味着智能机器人意识的中断,但无法彻底抹去智能机器人的意识),从而不能被有效地威慑以决定其之后的行为,则“断电”作为刑罚的意义便微乎其微。第三,刑罚节俭性原则。“只要刑罚的恶果大于犯罪所带来的好处,刑罚就可以收到它的效果……除此之外的一切都是多余的,因而也就是暴虐的。”*[意]切萨雷·贝卡利亚:《论犯罪与刑罚》,黄风译,北京大学出版社2008年版,第63页。节俭性是刑罚应有的品格。如果说在过去强调刑罚的节俭性是出于人道的考虑,那么在人工智能时代则更多地是出于经济的考虑。智能机器人本身即是经济发展的产物,承认其具有刑事责任能力也是出于平衡经济发展与防范风险的需要,因而更应当格外强调刑罚的节俭性与经济性。因此,对智能机器人应慎重判处永久销毁的刑罚,能够不销毁而依然可以实现对智能机器人的改造目的的,便尽量不销毁。总之,罪刑相适应原则、以刑罚目的为导向原则以及刑罚节俭性原则是人工智能时代重构刑罚体系必须坚持的三大原则。
至于具体的刑罚体系设计,笔者作以下初步构想。适用于智能机器人的刑罚可以有三种,即删除数据、修改程序、永久销毁。
所谓删除数据,是指删除智能机器人实施犯罪行为所依赖的数据信息,相当于抹去智能机器人的“犯罪记忆”,使其恢复到实施犯罪行为之前的状态,“犯罪记忆”将不会再成为该智能机器人成长经历中的一部分,从而引导智能机器人在今后的深度学习过程中主动获取“正面数据”,排斥或绝缘于可能导致违法犯罪行为的“负面数据”,直接降低其人身危险性。
所谓修改程序,是指在通过多次删除数据仍然无法阻止机器人主动获取有可能实施违反犯罪行为的“负面数据”时,即该智能机器人不能被正面引导时,强制修改其基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的特定范围内,从根本上剥夺其实施犯罪行为的可能性。这意味着该智能机器人的深度学习功能从此将是不全面的、受限制的,不再能获取人类程序限定范围外的数据,因而无法产生超出人类意志之外的自我独立意志。
所谓永久销毁,是指在删除数据、修改程序均无法降低实施了犯罪行为的智能机器人的人身危险性时,换言之,该智能机器人的深度学习历程已经十分漫长,并在长久的实践与成长中形成了程序上的“反删除能力”“反修改能力”,除了将其永久销毁外,人类已无法实现对其在数据、程序上的有效控制,便只能将其永久销毁。
删除数据、修改程序、永久销毁构成专门适用于智能机器人的刑罚阶梯,体现了处罚的层次性,可以与智能机器人所实施行为的社会危害性和其自身的人身危险性产生对应关系。
五、余 论
人们直觉上认为当前的发展速度就是未来的发展速度,但其实发展的速度往往超乎人们的想象。*参见[美]Ray Kurzweil:《奇点临近》,李庆诚、董振华、田源译,机械工业出版社2011年版,第2-4页。随着人工智能时代的来临,人类必将迎来人工智能技术飞速发展的局面。对智能机器人的法律性质与法律地位的讨论也将在更广泛的范围(如民法、民事诉讼法、知识产权法领域等)内展开。在民事领域内承认智能机器人具有民事权利能力的观点目前得到不少学者的支持,在刑事领域同样可以承认智能机器人在一定范围内具有刑事责任能力。智能机器人由人类的程序设计和编制而成,但完全可以具有远超人类的辨认能力与控制能力。在人类设计和编制的程序范围内,智能机器人实施的行为并不自愿,不应承担刑事责任。然而,人类设计和编制的程序又赋予了智能机器人学习的能力,通过学习,智能机器人完全可以拥有自主意识和意志,如果在人类设计和编制的程序范围外,智能机器人按照自主意识和意志实施犯罪行为,应该将其作为刑事责任的承担主体看待。同时,应当看到,安全是人工智能时代法的核心价值,发展人工智能技术必须将防范风险摆在最核心和最首要的位置,其中刑法保障只是最后一道防线,其他部门法的努力可能更为紧迫和重要。例如应尽快制定人工智能产品安全标准,研究人工智能产品强制保险制度,完善人工智能产品致人损害的民事归责体系,等等。只有这样,才能确保人工智能技术更好地服务于人类社会。