论人工智能时代智能机器人的刑事责任能力
2020-12-13彭景理
彭 景 理
(西南政法大学 法学院,重庆 401120)
一、问题的提出
2017年5月27日,AlphaGo战胜柯洁;2017年10月26日,索菲亚获得公民身份,成为历史上首位获得公民身份的机器人;2017年12月4日,无人驾驶客运巴士正式在深圳福田保税区开放道路上试运行。智能机器人正逐渐深度融入社会生活的方方面面,人工智能时代正在来临。由于高度智能的程序和算法,智能机器人既可以在规定程序范围内实施正向积极的行为,也完全可能基于自身的深度学习而“自主决定”实施某种危害行为。
本文关注的问题在于,当高度智能化、类人化的智能机器人造成严重的危害后果时,能否如自然人一般承担刑事责任?因为此时的行为已经超出初始程序预设的范畴,完全由智能机器人“自主决定”而做出,在行为判断和执行方面甚至比自然人更为周全。学界有一种观点认为,“在人类设计和编制的程序之外,智能机器人完全可能产生自主的意识和意志”[1],因此“在设计和编制程序范围外实施行为时,智能机器人需要承担刑事责任”。[1]40-47然而本文认为,智能机器人本身是否具有刑事责任能力,以及能否赋予其刑事责任能力,还需要从不同角度综合考虑、慎重对待。本文将从自由意志、刑法意义上的行为以及可罚性方面展开分析,并结合处罚单位的理论根据,来探讨智能机器人是否可能具有刑事责任能力。
二、智能机器人自由意志有无之辨析
近代刑法理论以对“人的意志是否自由”这一问题的回答为起点延伸出各种类型的刑事责任理论。如果坚持既有刑事责任理论的讨论路径来考量智能机器人是否具有刑事责任能力,那么对智能机器人是否具有自由意志的讨论便不可避免。然而,在对智能机器人是否具有自由意志讨论之前,必须要解决的前提性问题是:其一,何为刑法意义上的意志;其二,刑法意义上的意志是否真的自由,以及如何实现自由。在此基础上,才可能讨论智能机器人基于算法做出的判断与行为是否属于自由意志的结果。
1.刑法意义上的意志
意志是抽象的,不存在直接的意志实体。如维特根斯坦所言:“作为伦理主体的意志是不可说的,而作为一种现象的意志只有心理学才感到兴趣。”[2]本体的意志是不可说的,因而也是不可描述的,但作为现象的意志却是可说的、可描述的。我们所界说与描述的并非意志本身,而是对由本体的、不可说的意志所引起的现象并进而对这种现象发生时行为人内心状态的揣度和推定。刑法意义上的意志正是对不法行为背后行为主体内心状态的描述。即意志“就是人自觉确定自己的目的,并支配自己的行动,以实现预定目的的心理过程”[3]。但可以发现,这只是指出意志是一种心理过程,至于到底是一种什么样的过程,它是如何发生的,如何结束的,包含哪些内容,依然语焉不详。
正是由于本体意志的不可说性,刑法上更多关注的是作为现象的意志,譬如希望、放任、疏忽和轻信。然而作为现象的意志亦非意志实体,而是通过行为人本身的状态和一系列客观行为相结合而做出的推定,亦即是对行为人对整个事件所具有的心理过程的描述。事实上,这种推定已经降低了对意志的理解维度。意志产生于人脑这个黑箱,我们不知道黑箱内部到底经历了怎样的过程而产生了意志。自然人一个决定的做出,究竟包含几分理性、几分情感、几分冲动,甚至还有其他各种因素,没有科学技术或量化标准可以明确。当一系列行为发生时,结合一定的条件,我们推定这就是行为人自我意志实现的结果,此时行为人具有的某种心理过程就是推定的意志。人脑运转的不可说性,使我们不得不降维理解什么是意志。但可以确定的是,意志包含了除理性算计之外其他非理性因素,它并非单纯的理性判断,更不能等同于纯粹的数理计算。
有学者认为:“人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为。”[4]事实上,所谓的深度学习是一种无监督、开放式的学习模式,依然是一种算法。简单来讲,就是通过模拟人脑神经网络的单个神经元或模拟一团神经元乃至一个精神单元的机制来解释数据。这种模拟依然是数理计算。譬如智能机器人的微笑,它根据既有算法将微笑拆分为一系列的符号和代码,当外界输入激活信息时,机器人的信息接收装置将信息传输到处理中心,由处理中心发出信号调动学习,并转化为符合代码的微笑,并做出相应的动作。但“运行正确的程序并不一定能产生理解”[5],机器人做出微笑的动作时并没有意识到自己在微笑,也不知道微笑背后的情感内容和意向所指,本质上是根据特定的算法运行特定的程序。所以,智能机器人的行为只是机械行为而非意志行为。
2.基于推定的自由意志
如前述,刑法意义上的意志是一种作为现象的意志而非本体的意志,那么这种意志是否自由便成了问题。近代刑法理论对该问题的解决产生了两种观点,由此出现了刑事古典学派与新派的理论之争。
古典学派认为人的意志是自由的,人基于理性的自由意志实施了犯罪行为,所以其应对犯罪行为负责。诽谤别人就等于诽谤自己,杀死杀伤别人就等于杀死杀伤自己[6]。总之,个体基于自由意志行为的结果就是自己的结果,实施了犯罪行为,就应当为该犯罪结果负责。这是古典学派对刑事责任根基的阐释。“所谓责任,就是意志形成的非难可能性。”[7]因此,行为主体实施不法行为的意志形成过程就是责任的来源。由于责任是行为主体实施行为后应当承担的后果,所以决定实施行为的意志也应当由行为主体本身产生。换言之,实施不法行为应当是行为主体自由选择和决定的结果,也就是自由意志的结果。“没有自由意志就没有选择,没有选择就没有责任。”[8]
新派则认为人之意志乃被决定而非自由。菲利意图将自由意志驱逐出刑法领域[9]。在菲利看来,自由意志只是我们内在意识的幻想[10]。在环境、人格等因素的影响下,人的意志是被决定的,自由意志并不存在。作为新派代表人物的李斯特,也认为罪责与自由意志的假设无关,“决定论完全适用于在罪责判断中适合的对行为人动机(如果有缺陷性,不应当为一定行为)和个性的法——社会指责……因为只有决定论能够将具体的行为与行为人的整个心理学上的个性联系在一起,只有决定论能够成为衡量罪责的增加和减轻尺度”[11]。按照李斯特的观点,自由意志并非刑罚的基础,犯罪是个人与社会的产物,个人性格以及与个人相关的社会关系决定了犯罪,被决定的意志才是刑罚处罚的根基。
还是由于本体意志的不可说性,两派之争最终走向一种折中的立场,出现了所谓柔软的决定论、相对的自由意志等观点。折中的结果就是都承认人的意志在被决定的同时也具有一定的自由,或者说人的意志在自由的同时也被决定着。某种意义上讲,出现折中的局面是意料之中的事情,因为到目前为止,人究竟是否具有自由意志依然是一个难以证明的命题,既无法自证,也没有哪种科技设备或量化技术可以他证。但是,“倘若不以行为人具有自由意志为前提,刑法学上恐怕难以存在当今的责任概念”[8]245,并且出于“承认人具有自由意志比否定人具有自由意志更好”的愿望[8]245,于是选择一种折中的立场。换言之,自然人作为刑法上的责任主体,我们推定自然人具有自由意志,因而也就具有了刑事责任能力和可罚性。
3.不能对智能机器人进行自由意志的推定
前述已经说明深度学习本质上是一种算法,基于这种算法做出的行为并不等于意志控制下的行为,智能机器人并不会因为算法和程序的革新而产生自由意志。但是,既然自然人的自由意志是一种推定,那么当智能机器人高度智能化,且外形和行为举止与自然人高度一致时,能否也推定其有自由意志?这无疑是极具吸引力和想象力的假设。笔者认为,不能对智能机器人进行这种推定。刑法上所理解的自然人的意志已经不是本体的意志,而是对本体的意志降维理解——推定的自由意志——的结果。如果对智能机器人继续适用推定,则是对推定的意志再次推定,是对意志的理解维度的再一次降低,这种情况下的意志已经彻底被简单化,不仅无法等同于对自然人所推定的自由意志,与本体的意志更是相去甚远。
首先,自然人的自由意志不等于理性判断,基于自由意志的行为与基于理性判断的行为不具有等同性。康德说:“人类意志确为感性的(arbitritim sensitivum),但非动物的,而为自由的。”[12]自然人的自由意志行为往往是感性的,它充满了各种非理性因素的影响,如喜欢、厌恶、恐惧、仇恨、好奇、道德、荣誉等。譬如自然人出于道德约束会将捡到的钱包归还失主,军人明知可能会被杀死但出于荣誉感依然向前冲锋。相反,智能机器人的“自由意志”并非如康德所言的感性的自由意志,它是不掺杂任何情绪与情感的“自由意志”。智能机器人也会把钱包还给失主,那是内置程序的要求;它们也会在战场上一往无前,也只是程序命令使然。因此,实在难以想象把只是基于算法和程序做出的行为选择视为自由意志的结果。
其次,理性判断不等于计算判断,基于理性判断的行为选择不等于基于计算判断的行为选择。自然人的理性判断不是基于单纯的数字大小和利益计算,相反,在更大程度上是一种价值判断。当面临电车难题或洞穴奇案时,基于不同的价值取向,自然人也许永远不会有所谓绝对正确的选择,甚至不会有统一的答案。但对于智能机器人而言,当算法和程序要求它必须做出选择时,它将会毫不犹豫地操控电车选择驶向只有1个工人的铁轨。因为既然一定要做出选择,那么死亡1个工人就一定比死亡5个工人更公正合理。但这只是数字的计算,而生命的价值和意义不可能简单地以数量为唯一衡量标准。
综上,从原本“不可说”的本体意志,到对自然人推定的自由意志,及至自由意志一方面的理性选择,最后是单纯的计算判断,智能机器人的“意志”仅停留在计算判断层面,不能认为智能机器人的行为选择是基于自由意志的结果。
三、智能机器人行为的刑法属性考察
刑法处罚行为而非思想,这是现代刑法理论所公认的基本理念。“刑法中的行为只能是人的行为。”[13]从公司、企业、单位也可以作为刑事责任主体的立法实践来看,刑法中的人并不仅限于自然人。因此,仅从刑法上“人”的概念并不能直接将智能机器人排除在刑法规制范围之外。进而,如果认为机器人也是人,那么机器人的行为就并不能排除具有刑法评价意义的可能。有学者认为,智能机器人在设计和编制的程序内的行为本质上是产品设计者和使用者行为的延伸,行为后果应归责于设计者或使用者;超出设计和编制程序的行为,属于智能机器人自主决策行为,行为后果应归责于智能机器人[14]。此种说法看似合理,实际上并不具有逻辑上的自洽性。更深层次原因在于,智能机器人不具有自由意志,其行为不具备刑法意义上的危害行为完整的要素,故而不具有刑法评价意义。
1.行为属于程序内还是外无法作为归责根据
以智能机器人的行为属于设计和编制的程序内或外来判断该行为是否应当受到刑法评价存在明显的逻辑问题。具体而言,如果承认智能机器人实施设计和编制程序外的行为属于自由意志支配的行为,也就意味着承认智能机器人具有了自由意志。由此带来的问题是,我们无法辨别智能机器人实施的设计和程序内的行为是否也是基于自由意志而实施。也就是说,一旦承认智能机器人具有自由意志,那么此时再去分辨行为属于设计和编制的程序内还是外就已经没有实际意义,因为我们无法判断此时的行为到底是单纯地基于程序设置还是智能机器人自己的自由意志。譬如,通常认为婴儿生来就会吃母乳是无意识的生理反应,但成年之后的饮食行为也还是无意识的生理反应?或者是有意识的自由意志行为?同理,智能机器人具有自由意志之后,一行为既可能属于程序内但却是基于自由意志作出的行为,也可能属于程序外但却是基于自由意志作出的行为,但不管行为属于程序内外,只要是基于自由意志的犯罪行为,均应当承担刑事责任。因此,智能机器人的行为也就没有必要再区分程序内外了。
另外,即使智能机器人实施了设计和编制程序外的行为也不能认为就是基于自由意志的行为。如果把自然人的大脑运作比作精致的算法和程序,那么自然人之所以要对自己行为负责,是因为该行为是基于自己的大脑也就是自由意志所支配的行为。当行为超出大脑支配的范畴时,譬如梦游,我们不可能认为该行为属于刑法意义上的行为,因为该行为并不是基于自由意志的行为。同理,对机器人而言,恰恰只有在设计和编制程序内的行为才是基于自由意志(假设智能机器人具有自由意志)的行为。超出设计和编制程序的行为亦如自然人的梦游,不仅不是自由意志的结果,反而是无责的意外事件。总而言之,行为是属于设计和编制的程序范围内还是外并不能作为归责的根据。对智能机器人行为的评价,还需要从行为理论以及智能机器人的行为本身出发加以分析。
2.刑法意义上的行为所需具备的要素
学界对刑法意义上的行为存在不同理论观点,譬如因果行为论、社会行为论、目的行为论和人格行为论等。因果行为论者认为,“行为是相对于外部世界的任意举止……每一个行为都是由人的思想所决定的,与机械的或生理的强制无关”[11]176-177;社会行为论者认为,“所谓行为,就是能够为人的意思所支配的、具有某种社会意义的外部态度,以及因此而引起的外界变化”[15];目的行为论者认为,人的行为是对目的活动的执行,因此,刑法规范以内的行为,不可能指向盲目的因果进程,而只能指向那些能够以目的为导向塑造未来的行为[16];人格行为论者认为,“作为犯罪概念的基底的行为是作为行为人人格的主体性表现的基于有意性的身体动静,是由一般人的认识性判断能够肯定其社会意义的东西”[17]。我国有学者指出:“刑法上的危害行为,是指由行为人的心理活动所支配的危害社会的身体动静。”[18]
不同的行为理论对刑法意义上的危害行为做出了不同描述。然而对比发现,虽然话语表达不同,但无论持何种行为理论,亦无论做出何种表述,对行为所需具备的基本要素却存在共识。即行为要具有刑法评价意义,至少需要具备有体性、危害性和有意性3要素[19]:
其一,有体性。有体性指的是危害行为是基于人的身体。刑法不处罚思想,任何犯罪意志必须外化为一定的不法行为才可能被刑法所关注。虽然通常认为行为人具有主观上的恶性,但此种主观恶性是以具象化的危害结果为边界。易言之,对行为人的恶的评价不应当超越危害结果的范围。相比于内心诅咒世界毁灭的人,那些在公交车上扒窃的行为人才是真正应受刑罚惩罚的对象。
其二,危害性。法谚有云:“法律不理会琐细之事。”[20]简言之,法律不会去干涉过于轻微的事情,事实上这也不可能实现。相反,如果法律事无巨细地干预所有事情,反而有损其权威性。刑法是作为补充法的存在,它是民事法律规范和行政法律规范的补充法。刑法本身的不完整性要求刑法不能直接介入公民生活的各个角落,只有其他法律规范无法规制的最严重的违法行为,才可能进入刑法规范的视野。没有任何危害性或者危害性显著轻微的行为不会纳入刑法的规制范围。
其三,有意性。行为必须是自由意志支配下的结果,超出行为人意志所及范围的行为不应归责于行为人。即此种行为是行为人在没有其他外界因素强迫的情形下决定并实施的;在整个过程中,行为实施与结果发生的因果链被行为人所支配控制,而不由其他因素决定。
3.智能机器人的行为不具有刑法评价意义
智能机器人的行为虽然可以具备有体性和有害性,但是由于缺乏有意性而无法满足刑法意义上的行为应当具备的完整要素,故而其行为不具有刑法评价意义。
关于有体性,虽然说“犯罪只能是人的一种活动”[18]149,但是当科技发展到一定的程度,智能机器人在外形上可以做到与自然人无异。高度人态化的智能机器人完全可以做到以假乱真的地步。此种高度类人化的智能机器人可以模仿自然人所有的身体动静,甚至自然人无法做出的行为,智能机器人亦可以实现。当然,此时智能机器人也完全可能实施危害人类的行为。因此,有体性这一要素并不能阻碍智能机器人的行为具有刑法评价意义。
关于危害性,从危害性的角度来看,自然人与智能机器人也不存在明显区分。危害性的大小取决于客观危害结果本身,无论是人还是动物均可能造成危害性大小不等的后果。在造成其他人死亡这一客观结果方面,二者并不存在本质差别。
关于有意性,即危害行为是在意志支配下所实施的。如前文所述,智能机器人不具备自由意志,这才是智能机器人的行为不能进入刑法评价视域的根本原因,所以其行为不能认为是刑法意义上的行为。事实上,是否具有自然生命体征并不影响行为性质的判断。除了人类之外,自然界成千上万种动物每时每刻都在实施着各种行为,它们同样具有自然生命体征,也可能造成严重危害后果,但是我们从来不会认为它们的行为是刑法意义上的行为。所以,能否被认定为刑法意义上的行为,根本在于该行为是否基于自由意志支配而产生,而不是其他。显然,智能机器人并不具备这一条件。
可见,从既有的行为理论出发,我们很难认为智能机器人的行为就是刑法意义上的行为。哪怕对行为的理解突破有体性的限制,认为行为并非为自然人所专有,也难以突破有意性的限制。当然,辩者亦可以认为,应当对行为理论加以更加彻底的改造,有意性也不应当作为行为的限定标准。果真如此,行为概念将完全丧失刑法意义上的定型性。如此一来,任何主体只要造成客观危害结果,其所谓的“行为”均可受刑法所规制,这才是真正的灾难。所以,对刑法意义上的行为的判断,不可能突破所有的限定条件,尤其是不可能突破现代刑法中行为理论基石——有意性——的限定。
四、处罚智能机器人的可罚性判断
刑罚意味着痛苦与剥夺。肉刑的核心在于痛苦,生命刑、自由刑、财产刑以及资格刑的要义在于剥夺。刑罚效果从痛苦向剥夺的转变,使得刑罚措施的着力点发生根本性改变。惩罚从制造痛苦的技术转变为剥夺权利的经济机制[21]。在当下的刑罚理念以及刑罚制度下,受刑主体必须具备为刑罚所能剥夺的权利或利益,刑罚才具有现实意义。智能机器人刑事责任主体赞同论者指出:“将智能机器人纳入刑罚处罚范围不仅能够充分体现刑罚的功能,还对刑罚目的的实现有重要推进作用。”[22]但本文认为,由于智能机器人缺乏自由意志,且不具备可供刑罚剥夺的内源性权利和利益(即生而为人与生俱来的权利和利益),因此,智能机器人不具有刑罚可罚性。
1.对智能机器人的处罚难以实现刑罚的预防目的
(1)智能机器人不具有感刑力,刑罚难以对其产生特殊预防效果。所谓感刑力,即“某一法域的人认知刑罚功能、感受刑罚强度的客观能力”[23]。感刑力越强,对刑罚所引起的痛苦感触就越深、越敏感。自然人的身体和认知是产生感刑力不可或缺的条件。刑罚实现的基础在于其剥夺性,生命与时间的不可逆性使得任何具有正常认知的自然人对剥夺生命或自由的措施避之不及。结合话语、符号的规训与引导,将痛苦、惩罚、羞耻、改造、矫正等价值评价赋予这些被称之为“刑罚”的特定措施,再通过知识对人的认知的塑造,刑法意义上的刑罚惩罚由此而诞生。对刑罚的畏惧、排斥和逃避,就是刑罚特殊预防效用的根源。但对于智能机器人而言,其生命恰恰是可逆的,物质的“身体”随时可以更新换代,数据可以在不同系统中保存,在合适的时机输入合适的“身体”就又是一次“生命的重生”。对于无限的生命而言,物质性的剥夺毫无意义。故而刑罚本身没有意义,无意义的刑罚自然也不会产生对自然人所具有的特殊预防效果。只要有相同的需求,在相同或类似的条件下智能机器人会毫不犹豫地选择继续实施犯罪行为。
也许会有这样一种反诘:既然智能机器人的数据和程序才是其“生命”延续的核心,那么消除这些数据或程序不正可以作为刑罚实现的方式吗?由此,对于智能机器人而言,“删除数据、修改程序和永久销毁能够实现刑罚的目的与功能”[24]。这看似很有道理,也具备可行性。事实上,这种做法背后隐藏了更为严重的伦理问题:其一,到底属于物质的身体是“我”,还是属于精神的意识是“我”?其二,删除数据和修改程序事实上相当于删除智能机器人的记忆,但如果把机器人当人看,那么删除一个人的记忆是否具有合伦理性?譬如我们摘除某个自然人大脑中的海马区,这种行为在伦理上是否可接受?这其中的悖论在于,当智能机器人不被认为是合乎道德伦理的人时,这种行为不具有刑罚意义;当我们认可智能机器人作为自主的道德主体而存在时,这种惩罚方式反而不能适用了。可见,删除数据或者修改程序在技术上不存在障碍,但如果上升为刑罚措施,首先在伦理上就面临着难以克服的困难和争议。那么随即而来的问题是,对智能机器人进行数据删除和程序修改在技术层面确实可以实现,但对于一般民众而言,是否会认为这就是刑罚?也即对智能机器人采取诸如数据删除或程序修改,能否产生刑罚的一般预防效果?
(2)处罚智能机器人不会产生一般预防效果。“一般预防的目的是要防止初犯,也就是通过对已然的犯罪人适用刑罚,震慑社会上的不稳定分子,安抚被害人,教育其他守法者,从而防止犯罪的发生。”[25]一般预防的实现,首先要求实施危害行为的主体是刑法意义上的犯罪人,也即犯罪主体的适正性。但如前述,智能机器人缺乏作为犯罪主体最基本的自由意志,因此,它并不是刑法意义上的“人”,其实施的危害行为也就无法为刑法所评价。其次,对危害主体采取的措施必须是能够为民众所能认识和认可的刑罚措施。所谓的删除数据或者修改程序在民众的观念里难以视为刑法意义上的刑罚手段。我们对肇事的智能车辆的内存数据和程序进行修改完善,到底是惩罚措施还是对器械的维修?恐怕后者更容易为人理解和接受。当主体与措施均与刑法要求相去甚远的时候,也就无法期待能产生被普遍认可的刑罚预防效果了。
2.对智能机器人的处罚难以实现刑罚的报应目的
(1)智能机器人不具有一般意义上的生命权。即使立法强制性赋予其生命权,对这种强制赋予的生命权的剥夺也不具有刑罚意义。我们可以想象这样一幅画面:法庭庄重地宣布判处某个高度人态化的智能机器人死刑。但我们知道,算法和程序具有相当强的可复制性。换言之,假使有一天科学家开发出了与人脑相差无几的算法和程序,只要内置的算法和程序相同,高度人态化的智能机器人与扫地机器人或者烤面包机器人并无本质区别。我们可以判处高度人态化的智能机器人死刑,那么是否可以判处扫地机器人与烤面包机死刑?这在理论上完全成立,因为扫地机器人的内置算法和程序与高度人态化的机器人等同,也即二者的“大脑”发育水平完全一致,没有理由在刑事责任能力上区别对待。就如我们不会因为肤色或高矮胖瘦而认为行为人具有不同的刑事责任能力。但根据当下约定俗成又根深蒂固的社会观念,我们会认为销毁一台扫地机器人或面包机是在执行刑罚?“即使是人形机器人,也不过是一个算法主导的硬件系统。”[26]对此种情形,我们更容易认为是对物品的销毁,而非刑罚的执行。
(2)智能机器人难以获得如自然人一般的人身自由权。其一,人身自由之所以弥足珍贵,就在于其有限性与不可逆性。当自然人的人身自由遭受剥夺时,其中耗费的生命时间是不可逆转的流逝,故而自由刑能给自然人以痛苦和威慑。但智能机器人相反,其各种部件乃至大脑可随时更换。换言之,智能机器人生命无限,剥夺人身自由对其没有任何现实意义。对智能机器人而言,只要程序和数据保存完整,百年光阴不过是弹指瞬间。对其而言,自由刑毫无意义。其二,剥夺自然人的人身自由的同时,会对其进行教育感化,通过习惯养成、技能培训、劳动参与、文化学习等方式使其回归到一般社会人的状态。但对于智能机器人而言,无论是习惯养成还是技能培训,都是对机器人软件系统和硬件系统的维修和保养,无法等同于对自然人的作用和影响。至少在一般观念上,对机器的维修保养不可能等同于劳动改造。
(3)是否可以考虑赋予人工智能主体独立的财产权利,然后对其判处财产刑,我们对单位的刑罚处罚不正是如此?然而需要注意的是,虽然单位有自己独立的财产,以自己的名义参与社会经济活动并承担相应的后果,但是单位的根本载体是自然人。单位的意志需要依靠自然人来表达,单位的行为需要依靠自然人来实现,单位经营获得的利益最终流向自然人。“即便有诸如公司或社会组织的其他法律主体存在,从最终意义上说仍是以伦理上的人为基础的。”[27]真正参与社会活动的直接主体只有自然人,社会一切活动最终还是自然人之间的交往关系。更重要的是,完整的社会参与绝不是仅仅依靠强大的算法就可以实现。人的任何社会行为,不仅是基于计算和理性的结果,其中还包含了情绪、情感、性格等各种非理性因素。基于纯粹的算法和理性所认为的人类特有的“缺陷”——情感、情怀、信念等——恰恰是除了人类以外其他任何主体难以习得和拥有的专有属性,也是人类与其他生命体本质的区别所在。在此意义上,人工智能不可能实现与自然人同质同量的社会参与。这也就意味着,人工智能主体不可能完全通过自己的活动实现真正意义上的社会参与并获得独立的财产,财产刑实际上难以实现。
五、与处罚单位的理论根据的比较分析
对非自然人刑事责任能力的讨论,不得不提到的是单位犯罪主体。“如果法律能够尊重单位的自由意志,那么便没有理由否认智能机器人的自由意志。”[1]45从形式上看确实如此,完全不具自然人形态的单位尚且能认可其具有自由意志,那么未来与自然人高度相似的智能机器人就更有理由承认其自由意志了。借鉴单位犯罪的可罚性理论根据和立法技术,国外立法已经有所行动。欧洲会议法律委员会在2016年5月31日发布的《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》中指出:“要为机器人创设特殊法律地位,确保至少为最精密的自动化机器人通过确立其电子人(electronic persons)法律地位的方式,来赋予其特定的法律权利和义务,包括有责任弥补自己所造成的任何损害,并且保障在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”[28]既然要求智能机器人对其所造成的“任何损害”都需独立地负责,刑事责任自然亦包含其中。
但笔者认为,智能机器人与单位之间不具有等同性,不能以单位具有自由意志来类推智能机器人也可以有自由意志,并以此作为智能机器人具有刑事责任能力的根据。更重要的是,单位承担刑事责任的根据不在于其自由意志的有无,而是社会控制和社会治理的需要。以单位具有自由意志为根据进而类比智能机器人也应当具有自由意志从而可以独立承担刑事责任的观点,源于对单位承担刑事责任根据的误读。
1.单位不具有自由意志
(1)我们通过法律规则认可单位具有意志,但并不意味着这是自由意志。单位是否有自由意志,存在着不同的看法。单位意志否定论者认为,单位犯罪行为实质上是股东犯罪意志支配下的股东个人行为[29]。单位意志肯定论者则认为,单位是有意志的,且这种意志是自由的[30]。无论持何种观点,至少目前我国的刑法立法已经认可了单位犯罪主体。然而,这并不意味认可单位具有自由意志。单位注册资本的多少、营业范围的选择、存续时间的长短、活动章程的内容等全部由自然人决定。从某种意义上讲,单位仅仅是自然人所操控的参与社会经济活动的组织,它的一言一行完全取决于自然人。从单位设立之日起,它的一切行为已经被决定,不仅被章程在字面上决定,还被自然人在现实中决定。即使认为单位章程、经营规则等体现了单位的独立意志,但其中的章程、经营规则等均为自然人所拟定。单位的独立意志早在单位成立之初就已经被自然人所决定,是一种被决定的意志而非自由的意志。
(2)单位经营目的不等于犯罪意志,不能将单位正当合法的经营目的等同于犯罪意志,且单位经营目的中不可能包含犯罪意志。经营目的是在单位设立之初由单位性质和章程所决定,其必然是正当合法的。有学者指出,单位的章程或宗旨包含了实施犯罪行为的目的或精神[31]。果真如此,那么单位本身就只是自然人的犯罪工具,也就无所谓单位犯罪了。也有学者认为,“单位决策机构按照单位议事规则、规章制度等经集体研究后决定实施单位犯罪的情形”[32]就是单位犯罪意志的体现。事实上,这种观点恰恰混淆了合法经营目的和犯罪意志。单位的经营目的也就是设立单位的自然人所欲通过单位实现的目的。任何单位在设立之初,不可能在章程中规定本单位运营目的之一就是实施某种犯罪行为。换言之,单位章程恰恰是为了保证单位在法律允许的范围内从事特定的经营活动。如果严格按照单位议事规则或章程制度决定单位的行为,不可能得出实施犯罪行为的结论。质言之,所谓的单位犯罪意志,本质上是自然人犯罪意志转嫁于单位主体的表现。
2.社会控制:处罚单位的合理性根据
自然人设置公司的初衷在于获取更多利益、分担市场风险。单个自然人主体的资金财力有限,进入市场的获利能力不强,风险承受能力弱。集合多人资金为一个整体参与市场经济活动,以期获得更大的收益,这是公司产生的直接原因。当古巴比伦的自由民之间合伙经营谋利时,注定了公司企业存在的目的就是为获取更大的利润。同时,对单个自然人主体而言,市场抗风险能力明显较弱,轻微波动都可能使其倾家荡产。这就需要通过有效方式分散风险,使自然人有足够的动力和激情参与市场经济活动。此时急需其他主体来分担自然人的市场经济风险与责任。于是,单位作为一种拟制的法人主体应运而生。它不仅分担了自然人在市场经济中的风险,而且凭借其雄厚的财力、充足的人力资源、多样的参与方式,极大地激发了市场经济的活力。然而,在单位带来各种好处的同时,也产生了诸多问题。如自然人借助单位的名义来实施犯罪行为,甚至有些单位本身也积极主动参与犯罪行为,这反而给市场经济带来严重危害后果。既然单位以自己名义实施犯罪行为,能否顺势将单位也作为犯罪人来加以处置?
基于实用主义的英美法系对此问题的解决不存在太大障碍,但深受大陆法系影响的我国的刑法立法却面临着难题。单位不具有自由意志,那么处罚单位的合理性根据何在?现实来看,单位作为社会参与主体在经济领域愈发活跃,并逐渐取得了举足轻重的地位。单位强大的社会参与能力冲击着传统的法律秩序,立法上亟需建构新型的法律制度来重新界定法律行为、法律关系和法律责任,从而保证法律体系能够获得持续运转[33]。单位内部通过形式合法的表决程序作出犯罪决议,以单位名义实施的犯罪行为冲击着传统的刑法理论与刑法制度。单位虽然不是传统意义上的“人”,但以单位名义实施的犯罪行为确实存在,且造成了严重的危害结果。我们对单位予以刑法处罚,需要一个合理的根据。
笔者认为,处罚单位的根据不在于其是否具有自由意志,而仅仅是国家权力对于社会控制和社会治理的需要。如果说权力是一种策略,惩罚方式的进化就是权力策略的后果[18]24-28。“从根本上说,刑罚是一种社会控制的工具。”[34]将单位作为刑事责任的主体,实质上是国家权力进行社会管理和控制的战略选择。为了实现有效的社会治理,国家权力在技术设计上必须既要抑制犯罪行为的发生,又要保障社会经济发展的活力。一方面,将单位作为独立的刑事责任主体,刑法得以直接对单位实施处罚,避免单位成为法外之地。同时,单位犯罪的刑罚设置通常是双罚制,即惩罚单位的同时,也惩罚自然人,防止自然人通过单位的名义来规避刑事责任,实现对犯罪行为的有效控制。另一方面,借助单位主体,在一定程度上分担财产刑对自然人的压力,通过主体类型的多样化来分散、削减刑罚力度,使得社会经济参与主体的数量和能力不至于被过度压制。
3.单位与智能机器人刑事责任能力根据的异质性
单位的财产来源和去向最终归于自然人,单位的创设目的需要依靠自然人加以实现,单位的业务范围和存续期间的长短完全由自然人决定。对单位加以刑罚处罚是出于社会控制和社会治理的需要,这种控制效果通过单位传导至单位背后的自然人,并实现刑罚的社会控制作用。所以,形式上处罚的是单位,最终承担刑罚后果的却是自然人。但对于智能机器人而言,尤其是形态上高度人类化的智能机器人,现在的理论倾向是承认其自由意志而作为完全独立的刑事责任主体。从理论上看,赋予单位刑事责任能力是出于社会治理与社会控制的需要,智能机器人的刑事责任能力则是基于自由意志的使然,二者的刑事责任根基具有本质上的不同。由于刑事责任根基的不同,我们不可能以单位作为类比对象来承认智能机器人的刑事责任能力。如前所述,智能机器人本身并不具有自由意志,故刑事责任能力自然也无从存在。
既然智能机器人与单位均不具备自由意志,且处罚单位有着单独的根据,那么能否将单位的刑事责任能力根基同样地适用于智能机器人,赋予智能机器人独立的电子人格?这看似具有可操作性,但实际上将产生一系列更为严重的法律问题和伦理问题。首先,如果认可智能机器人也是人,具有独立的刑事责任能力,那么特定的机构就是在批量“制造人口”,这彻底违背了人类生存繁育的自然法则。其次,智能机器人被“生产”出来之后,是否可以沿用自然人父母子女关系以及相关的权利义务关系?目前没有合理的解决方案。再次,既然智能机器人具有独立人格,那么其可以依照自己的“意志”从事一切行为并为其负责。但如前述,智能机器人不具备一般意义上的生命权与自由权,亦难以获得独立的财产,这种情况下无法期待其能独立地承担刑事责任。最后,单位的存续期间可根据自然人的意志随时终止,如果我们赋予智能机器人以独立的人格,那么我们有何权利决定一个具有独立人格的主体的寿命长短?当这一系列的法律问题和伦理问题尚未解决之前,谈智能机器人的独立人格或刑事责任能力未免为时过早。
六、结 语
智能机器人虽然不具备刑事责任能力,但不可否认的是,在可预期的未来,智能程度不同、形态各异的智能机器人将逐渐融入社会的方方面面。毫无疑问,加强对智能机器人及相关事物的监管极有必要,既有的法律体系需要对这一系列新事物做出妥当回应。本文认为,就人工智能机器人的法律监管而言,学者们提出的合理分配研发者、使用者等各方主体责任的观点具有现实意义[35]。近期较为切实可行的做法是加强对智能机器人开发者、制造者、所有者以及使用者等相关人员的规制。从长远来看,当智能机器人程序高度智能化、形态高度类人化的时候,可专门设立《机器人管理法》,将智能机器人作为一种“仿生人”单独对待。对造成危害后果的智能机器人可以采取删除数据、修改程序乃至彻底销毁等手段,以防止其继续造成危害后果。但需要注意的是,“仿生人”依然不能等同于自然人,对“仿生人”采取的任何措施和手段也不能等同于刑罚,其本质上只是对机器的管理和处置。