强人工智能体刑事主体地位的否定及其法理辨析
2022-11-24宗绍昊
宗绍昊
(东南大学法学院,江苏南京 211189)
一、问题的提出
自20世纪50年代人工智能这一概念被提出以来,经过多年的技术与经验积累,人工智能已进入高速发展轨道。然而,发展与风险并存,人工智能体①越智能,其超出人的控制并制造法益侵害危险的风险也就越大。2015年德国大众汽车制造车间内发生的“首起机器人杀人案”以及世界上第一个获得公民资格的机器人索菲亚说出的“我想毁灭人类”言论[1],更是大大触碰到人工智能法学研究者们敏感的神经。欧盟议会已经开始进行相关法律规制的实践,并通过了《就机器人民事法律规则向欧盟委员会提出立法建议》,为机器人创设“电子人”的法律主体地位,韩国、俄罗斯紧随其后,其法案基本精神与欧盟基本一致[2]。在此过程中,规制人工智能技术风险的重要法律手段便指向对人工智能体法律主体地位的承认。
基于刑罚的严厉性以及刑法的后盾法地位,究竟要不要承认人工智能体的刑事主体地位成为众多法律规制措施中的重要讨论内容。持肯定论者认为,强人工智能时代的智能机器人将不受研发者、生产者的控制,具有独立的辨识和控制能力,可以实施程序设计和编制范围以外的行为,并享有完全的权利,能够承担义务,应当成为刑事责任的主体[3]。在人工智能法学研究兴起之时,该立场一度成为显学。之后部分学者对肯定论立场展开了一系列反思,否定论由此诞生。持否定论者认为,人工智能体不可能具有罪责能力,其与法人存在根本差异,且权利与义务相分离,因而只能是人类所研发的高级工具[4]。此外,折衷论立场也很有影响。在其他部门法中,折衷论体现为赋予强人工智能体以法律拟制主体地位[5]。而在刑法中,折衷论体现为在不法阶层中承认强人工智能体的行为主体地位,但在责任阶层中否认其责任主体地位,是“具有行为能力而没有责任能力的‘准主体’”[6]。三大立场之争仍在持续,需要研究的问题也更加凸显。其一,部分持否定论者所反对的对象并未与持肯定论者保持统一[7],用反对弱人工智能体的观点、例子否认强人工智能体刑事主体地位的论断时常出现。其二,无论是持肯定论者还是持否定论者,其论证均存在逻辑跳跃现象,即跨越客观不法阶层中的危害行为要件而直接谈论主观责任阶层中的主体要件。持折衷论者虽然注意到了该问题,但其所坚守的教义学立场却前后摇摆。其三,不同立场的论者往往采取点对点的模式进行讨论,并聚焦于自由意志、权利与义务、罪责能力等问题,却并未注意到这些问题之间关联、递进的关系,导致完整的逻辑链条一直未能显现出来,最终影响论证强度。
既然对“弱人工智能体不应拥有刑事主体地位”的观点已达成共识,讨论对象便指向强人工智能体。虽然现有人工智能体均属于弱人工智能体,强人工智能体是按照技术发展逻辑与愿景推演出来的产物,但法学研究依然可以未雨绸缪,对强人工智能体的刑事主体地位展开讨论。合格的刑事主体应是在其自由意志支配下自主选择实施危害行为,并能最终实现自我答责,进而适用刑罚惩治。按照从阶层式犯罪论(客观不法阶层、主观责任阶层)到刑罚论的逻辑对其讨论范式进行重构,强人工智能体刑事主体地位应当涉及行为的可解释性要素、责任的可承担性要素、刑罚的可适用性要素,以及虽不属于主体要素但可能决定其范围的现实必要性要素。这些要素依次相连、接续排列,前者可作为否定后者的关键理由,却非唯一理由,由此奠定了全要素讨论的必要性及其实质上的相互关联性。在此基础上,只有满足全部五个要求,强人工智能体的刑事主体地位才能得以证立;只要其中任一要求未被满足,强人工智能体的刑事主体地位即应被否定,只能处于客体地位。
二、强人工智能体刑事主体地位肯定论及其理论缺陷
持肯定论者在犯罪论层面选择的是法教义学方法,意图通过解释现有刑法规范,将强人工智能体纳入刑法的规制范围。然而,将强人工智能体列为刑事主体面临不符合刑事责任年龄以及限制或无刑事责任能力等实证法规定(如我国刑法第十七条、第十八条)的指责。对此,有学者认为可以“将人工智能的智能化程度作为衡量刑事责任年龄的指标依据”[8]。这种解释明显超越了实证法规范可能的文义射程而违背了罪刑法定原则最基本的要求。当持肯定论者费尽心思将强人工智能体的行为该当不法与责任之后,却发现现行刑罚体系根本无法适用于强人工智能体,于是在刑罚论层面又运用立法论方法重构整个刑罚体系,提出删除数据、修改程序、永久销毁三种新的刑罚类型[9]。由此可见,持肯定论者提倡的教义学路径不仅备受实证法阻碍,其自身立场亦存在前后不一、摇摆不定的情况。
(一)行为的可解释性要素:具有信息黑箱属性的强人工智能体无法被诠释
在阶层犯罪论体系中,危害行为属于客观不法阶层中优先考虑的因素,至于主体有无自由意志、刑事责任能力等判断则因体系性、目的性的考量而被放置于主观责任阶层。因此,不能越过危害行为直接论证强人工智能体是否可以以及如何拥有刑事主体地位。
“鉴于‘人们只能对已经理解的事物作出法律上的安排’,人工智能的可解释性成为人工智能推广和应用以及解决其法律责任问题的前提条件。”[10]假如强人工智能体无法解释自身行为,或者我们无法对强人工智能体的行为进行解释,就谈不上对其行为进行法律上的认定或评价,也就无法实现其法律归责,更谈不上要不要承认其刑事主体地位。在持肯定论者看来,强人工智能体具备所谓的自主思考能力,拥有辨识和控制能力。姑且不论这种自主思考能力是否可以等同于自由意志,其能够直接体现出的事实是强人工智能体设计者所键入的初始算法及数据,与强人工智能体最终得出的答案或结论存在一定的差距。这种差距既是强人工智能体进行算法加工、处理的结果,也是行为可解释性的解释对象。“不仅仅是数据的复杂导致了人工智能的信息黑箱问题,人工智能本身的思考方式也确实无法被看到。”[10]这种强人工智能体信息处理的不透明以及决策过程的不可认知性和无法诠释性,共同决定了其行为的不可解释性。换言之,持肯定论者是知其然却不知其所以然,只知道初始设置与最终行为之间存在信息和结论差距,并将其视为强人工智能体思考的结果,却无法解释其从何而来、为何而来。既然如此,对于无法解释的强人工智能体行为就不能被认定或评价为危害行为。
(二)责任的可承担性要素:强人工智能体的刑事责任根基缺失
既然强人工智能体的行为不可被解释,则其便不可能实现自我答责,更不可能实现法律上的自我辩护,对其进行刑事非难成为空想。除此之外,从自由意志和权利义务关系的角度也可以再次论证强人工智能体责任的不可承担性。
1.强人工智能体意志不自由
持肯定论者认为,强人工智能体可以眼观六路、耳听八方,具备远超人类的素质能力,当然存在自主意识,并能在这种独立的意志之下控制自己行为的实施[11]。这种解释背后隐藏着自由意志论证的缺失。自由意志即存在自己选择、自主决定的自由能力。动物也有一定的意识,却没有人会认为其存在自由意志。因此,在以人为本的法律体系当中,验证强人工智能体是否具备自由意志的标准只能以人为参照,具体包含构造的模仿力、客观的思考力以及主观的情感力。
就构造的模仿力而言,自然科学界一直在尝试令人工智能体产生自由意志,并提出了诸如人脑仿真、机器学习以及脑机对接等研究进路[7]。由于自由意志只能以人为标准,因而这些研究进路的核心特征都是模仿,即模仿人脑构造、模仿人的好奇心、模仿人体运作机制等。甚至有人认为,只要能制造出完美的人工神经网络,就可以实现强人工智能体自由意志的诞生。模仿的前提在于技术的高度发达以及对于人类本身的完全认知。然而,技术的有限性与人们对大脑构造认知的有限性,共同决定了其不可行性。人类的大脑极其神秘,一些特殊的感知能力如常识、框架、直觉等[7],至今仍未得到合理解释。人类对于大脑的探索从未停止也从未到达终点。在无法完全认知、无法解释的情况下,就不能实现完整的技术复刻。就客观的思考力而言,强人工智能体可以在预设的初始算法与数据之外获取新知识,似乎具备一定的思考能力。“在(深度学习)训练的时候,我们从来不会告诉机器‘这是一只猫’。实际上是系统自己发现或者领悟了‘猫’的概念。”[12]但是,并非所有的解释均导向承认思考力,中文屋思想实验[13]就是很好的例证。此外,强人工智能体自主学习的背后是研发者设定的初始意志在起作用,这种非天然产生的意志与人类的自由意志并不相同。就主观的情感力而言,“人类理性的运作是心智的整体活动的一部分,其中有逻辑推理的影响,但也不可避免地与情感欲望相关”[2]。强人工智能体具备纯粹的技术理性特征,与夹杂感性的人类理性相比存在本质差异,让冰冷的机器具备人类的情感比拥有思考力更难。
2.强人工智能体权利义务关系不统一
责任是违反义务所带来的后果。因此,权利与义务相统一既是法律主体的基本特性,也是承担责任的基础。然而,强人工智能体的权利与义务相互割裂,根本无法实现统一。
在权利问题上,强人工智能体无法具备权利意识,人类与强人工智能体之间也难以拥有权利共识。一方面,即便外部法律制度承认强人工智能体的权利主体地位,如果其自身没有权利意识,权利将形同虚设,承认行为本身也将失去意义。强人工智能体尽管存在一种不属于自由意志的思考能力,但其存在目的是他设的,其自我发展、自我实现的目的缺失,在此基础上就不可能具备权利意识。另一方面,“如果将法律主体资格仅仅理解为一种道德性权利赋予的话,那么这种权利的生成依赖于社会群体的心理共识”[14]。因此,人们对于强人工智能体社会成员身份的认可成为其能否具备权利的基础,并不受任何推理的影响。承认强人工智能体的权利意味着其与人类在法律上处于平等地位,造成的后果就是对强人工智能体的程序性修改、机械性拆卸以及日常性使用等行为,均需以强人工智能体的同意为前提。然而,无论是强人工智能体的研发者、生产者、使用者,还是社会大众,根本不愿出现这种情况,权利共识无法达成。此外,从肯定论立场的论证逻辑看,还存在两大逻辑悖论:其一,持肯定论者一方面在应然层面认可强人工智能体理应享有完全的权利[15],另一方面却在实然层面不得不对其权利进行大幅度的限制②,因而在本质上仍然没有把强人工智能体当成是与人们平等的法律主体。持肯定论者还主张对强人工智能体的正当防卫、紧急避险等权利进行严格适用[3],对于这种差异,持肯定论者指出这只是其“表现形式更为特殊而已,明显区别于传统法律主体的法律能力”[15]。既然已经与根据现有实证法所证成的法律主体概念存在显著区别,就很难认为强人工智能体属于合格的权利主体。其二,财产权是所有权利的基础[16],能否具备相对独立的财产是判断法律主体资格的实质性要件[5]。对此,持肯定论者提出可由研发者、生产者或使用者将强人工智能体所赚取的报酬提至其所管理的账户作为其财产[5],并主张建构强制保险制度、建立赔偿基金等[4],避免出现财产不足以赔偿的现象。但问题是,既然承认强人工智能体的权利主体地位,为何需要他人帮助管理财产?同时,强人工智能体是否均能获取报酬?从现实情况看,人工智能体的盈利能力为零,今后能否实现从无到有也缺乏推导的事实基础。从功能上看,并不是所有类型的强人工智能体都存在所谓的盈利能力。
既然强人工智能体没有自由意志,就无法承担起法律所赋予的各项义务;既然强人工智能体无法拥有自己的财产,就不能负担违反义务规范之后所带来的赔偿责任。更重要的是,责任承担是双向的,既包含强人工智能体自身承担责任,亦包含行为人对强人工智能体承担责任。由此,一旦承认强人工智能体的刑事主体地位,意味着对其实施修理、销毁、涂彩、使用、丢弃行为可能构成组织出卖人体器官罪、故意伤害罪、故意杀人罪、侮辱罪、强迫劳动罪、遗弃罪等。在研发者、生产者或使用者具备作为义务时,遇到见危不救等情形还有可能构成不作为犯罪。由此带来的后果就是公民对强人工智能体的行为处处受限,稍有不慎就有可能构成犯罪,从而大大压缩其自由行为空间。
(三)刑罚的可适用性要素:对强人工智能体的刑罚论证进路闭塞
刑罚的可适用性不同于责任的可承担性,属于犯罪成立之后应考虑的事由,并以责任的可承担性为前提。当前,无论是持肯定论者还是持否定论者,均认为现有刑罚体系根本无法惩罚强人工智能体。然而,对强人工智能体增设新刑罚亦不合理。
1.刑罚属性不符与目的不能
从刑罚属性看,基于刑法的特殊部门法定位,刑法具备不同于其他部门法的显著特征。“刑罚作为刑事责任的常态表现方式,是指由审判机关根据刑事立法对犯罪人适用的建立在剥夺性痛苦之上的最严厉的刑事制裁措施。”[17]诸如删除数据、修改程序、永久销毁等所谓的新设刑罚类型均属于技术性措施,与恢复原状、吊销营业许可、责令停产停业等并无本质差别,因而根本称不上是刑罚[4]。既然这些技术性措施并非刑法所特有的手段,意味着其从根本上违背了刑罚是最严厉的制裁措施这一本质属性,也不符合刑法法益保护的辅助性、最后手段性等品格[1]。既然三种手段均为技术性措施,则显示出肯定论的另一个矛盾,即明明是由现实技术手段无法合理、妥善规制强人工智能体所带来的风险为论证起点,却又在论证终点转过头来寻求技术手段惩罚强人工智能体并试图达到规制目的。更进一步讲,如果能在事后发现并规制技术问题,则事前理应也能做到。
从刑罚目的看,报应刑论与预防刑论两大立场构成了刑罚目的的基本内容。虽然当前预防刑论有逐渐成为通说之势,但目前的主流仍然是兼顾报应刑与预防刑的并合刑论,即因为发生了犯罪并且为了没有犯罪而科处刑罚。据此,为强人工智能体创设新刑罚必须考虑能否达成刑罚的目的。从报应刑的角度看,刑罚是对犯罪的官方报应[18]5。“恶报的内容必须是恶害,恶报必须与恶行相均衡。”[19]668换言之,只要强人工智能体实施了侵害或威胁法益的犯罪行为,司法机关就有理由对其施以相应的刑罚。对强人工智能体创设刑罚似乎满足报应刑的要求,这也是肯定论受到一定认可的主要原因。从预防刑的角度看,刑罚还需达成预防强人工智能体二次犯罪(特殊预防)以及预防其他强人工智能体犯罪(一般预防)的效果,并通过威吓或教育等方式来实现。但问题是强人工智能体可以被威吓或教育吗?基于构造差异,对强人工智能体实施所谓删除程序等措施,因其缺乏情感而不会使其产生痛苦、害怕心理,威吓目的无法达成,同时因其缺乏自由意志而不会知错就改、重新做“人”。既然前期无法通过预设的程序实现特殊预防的目的,就不能期待东窗事发之后还能通过特殊预防达到规制目的,否则便自相矛盾。另外,持肯定论者提出的刑罚措施都是直接修改乃至销毁手段,并不存在教育的空间。可见,即便是持肯定论者也不承认能达成教育目的。既然无法对强人工智能体的行为进行有效解释就不可能实现刑罚的预防目的[10],既然无法实现预防目的动用刑罚便失去了意义。
2.强人工智能体类比单位失当
既然无法从正面论证强人工智能体可以承担刑事责任,持肯定论者便另辟蹊径,将其与单位进行类比,并据此肯定其刑事主体地位。然而,类比方法与类推解释存在天然的关联性,试图通过这种路径承认强人工智能体的刑事主体地位并非妥善的教义学方案,且违反了罪刑法定原则。此外,该观点还存在以下弊端:其一,持肯定论者一方面称强人工智能体与单位、自然人存在明显区别[20],另一方面却又在多种场合将上述三者进行类比、换算,从而陷入自我矛盾;其二,持肯定论者认为单位是自然人的整体意志,而强人工智能体是具备自由意志的个体,既然如此,就不能说仅仅是因为经过了集合的流程就认为强人工智能体比单位更自由、更接近人;其三,虽然强人工智能体作出行为决策的流程类似单位,但是单位运作除了人力之外,还需实体性场所及财产,而强人工智能体与财产权无涉,二者在概念的构成要素上存在巨大差异,不能任意类比;其四,当前大多数国家并未承认法人犯罪[21],我国刑法虽然承认法人犯罪,但采取的是一种以自然人为基础的折衷立场,即“将特定的自然人的犯罪视为单位犯罪,进而处罚单位”[19]178。按照通说,单位犯罪是指单位谋取非法利益或单位多数或全体成员以其名义谋取非法利益,由单位的决策机构按照决策程序作出决定,并由直接责任人员实施,且刑法有明文规定的犯罪类型[22]。在此过程中,单位意志与个人意志的区分构成单位犯罪与自然人犯罪的重要区别。但是,单位意志虽然是多个自然人意志经过单位的提炼、总结与升华,其“背后的原理也是肯定群体中多数人的意志,最终的落实点还是在人身上”[14]。我国对单位犯罪的规定是无例外的双罚制,即除了处罚单位之外,单位直接负责的主管人员和其他直接责任人员全部都要受到处罚,这也能体现单位犯罪成立依赖于自然人的理念。由此可见,在我国刑法语境下,单位犯罪指向的是单位背后的若干人,其刑事主体地位的获得也源于个人。既然如此,自然人对强人工智能体所具备的优势也应当适用于单位,很显然这种当然的类比结论存在根本性的漏洞。
(四)现实必要性要素:承认强人工智能体刑事主体地位无益于规制风险
强人工智能体威胁论衍生了强人工智能体规制论。据此,现实规制的必要性成为持肯定论者的论证起点和重要论证依据。但实际上并不是只有赋予强人工智能体以刑事主体地位才能解决问题。
首先,关于人工智能技术存在一定风险的认知已得到普遍认可,但是将其作为论证起点,并非可以理所当然地推导出赋予其刑事主体地位的结论,甚至根本不能推导出这一结论。既然人工智能技术存在诸多风险,未来的强人工智能体势必会具备更大的风险。因此,出于控制风险考虑,人类必须将其掌握在自己的控制范围之内,就更不能赋予强人工智能体以刑事主体地位。“人工智能超强的智能蕴含巨大的风险,必须处于人类的支配和控制之下,只能是法律关系客体而非主体。”[23]对此,有学者认为,只有将强人工智能体列为刑事主体,才能使其受制于法律[23]。然而这仅仅是一种幻想,因为即便是强人工智能体也不能真正理解需要国民规范意识参与判断的法律。
其次,直接赋予强人工智能体以刑事主体地位,虽然简化归责流程、明晰归责主体,但并不意味着可以实现妥善、合理的归责结果。强调对强人工智能体的法律归责,势必会大大减弱甚至消解对其研发者、生产者及使用者的追责力度。其后果是强人工智能体背后的人可以置身事外,并以强人工智能体的自主意识、自我选择等理由逃避法律追究。此外,由于惩罚强人工智能体根本无法起到威慑或教育作用,欲实现预防犯罪的目标,则必须对研发者、生产者、使用者的研发、生产、使用流程进行规范。由此可见,解决问题的关键还是在于人,对强人工智能体的规制归根到底是对人的规制。赋予强人工智能体以刑事主体地位,看似是简化了问题,实际上既不利于解决问题,还使得问题复杂化,因为不仅要追究人的责任,还要额外追究强人工智能体的责任。
再次,随着人的主体性逐渐觉醒,以人本主义为基础的哲学体系形成并稳定下来,至今仍然占据主流地位。可以说,只要作为刑法理论根基的人本哲学未被推翻,学者们便无法从哲学层面证成强人工智能体的主体地位[6]。随着强人工智能体越来越智能,若其智慧远超人类,则其终有一天会不甘心寄人篱下,以人类、强人工智能体为基础形成的多中心主义将会演变为以强人工智能体为中心的一元论。而像强人工智能体这种没有同情心、价值观、道德观的机器,是不会拥有对人类的敬畏之心的[5]。届时,社会的中心是强人工智能体而不是人类,人类处于强人工智能体的控制之下将失去自由,这无疑是在走向人的毁灭。
三、强人工智能体刑事主体地位折衷论及其理论缺陷
折衷论在批判肯定论并对否定论进行部分修正的基础上产生。持折衷论者立足于实质的二阶层犯罪论体系对不法阶层中人的概念进行了扩张解释,从而承认强人工智能体的行为主体地位。同时,在责任阶层中对无刑事责任能力人进行了扩张解释,将强人工智能体与儿童、精神病人进行同类划分,从而否认强人工智能体的责任主体地位[6]。折衷论值得认同之处有三点:首先,研究对象聚焦于强人工智能体,与持肯定论者的研究对象保持统一;其次,旗帜鲜明地提出用教义学方案解决强人工智能体的刑事主体地位问题,摆脱了肯定论立场摇摆的弊端;再次,对肯定论立场的批评是合理的。而持折衷论者关于否定论无法合理解决正当防卫、共同犯罪难题的观点则值得商榷,在此观点基础上建构的新模式也存在问题。此外,虽然持折衷论者对人以及无刑事责任能力的人进行了扩张解释,但多次扩张解释后获得的是明显超越文义射程的类推解释结论,违反了罪刑法定原则。
(一)否定强人工智能体的刑事主体地位不影响正当防卫的认定
持折衷论者认为,如果完全否认强人工智能体的主体地位,则强人工智能体对自然人的自发攻击行为便无法被视为不法侵害,从而难以适用正当防卫规则,只能转向紧急避险规则[6]。虽然从理论上看,动物侵袭也可以称得上是不法侵害,但按照我国刑法第二十条的规定,不法侵害只能由人来完成,强人工智能体不能成为实施正当防卫的对象。在工具论的立场下,对强人工智能体背后的主人实施正当防卫没有问题,但二者并非在各种情形中都同时在场,且程序设定之后能不能阻止强人工智能体的侵害行为还存在很大的疑问。因此,当出现强人工智能体侵袭自然人时,自然人只能采取紧急避险措施。然而只能采取紧急避险措施也不一定意味着不利于自然人的人权保障、法益保护。持折衷论者之所以得出该结论,很大程度上源于其对紧急避险理论的误解,认为紧急避险仅能向无辜第三人行使,根本没办法阻止强人工智能体的侵袭,而只能默默忍受、艰难躲避,当然不利于保护法益。其实紧急避险并非仅包含针对无辜第三人情形(即传统的攻击性紧急避险),针对危险源本身所实施的行为存在成立紧急避险的余地,此时属于防御性紧急避险。我国刑法第二十一条并未涉及任何关于避险对象的限制,将其仅限于无辜第三人而不包含危险源本身的观点于法无据,目前大陆法系国家所承认的防御性紧急避险完全可以纳入我国刑法体系而无任何障碍,这意味着自然人可以向强人工智能体这一危险源实施反击行为。
紧急避险措施也具备正当防卫规则所不具有的优势,主要体现在危险性要件上。日本刑法理论将正当防卫与紧急避险的危险性要件同等视之[24];德国及我国台湾地区刑法理论则采取二分法,将紧急避险中的现实性危险区分为即刻性危险以及持续性危险[25],比正当防卫中的危险概念更宽泛。笔者赞同第二种观点。首先,紧急避险的危险源类型远多于正当防卫,包括自然力造成的危险,动物袭击造成的危险,疾病、饥饿等特殊情况形成的危险,人的危害行为造成的危险等[19]289。针对其中诸如自然力危险等情形,如果要求危险现实发生才可避险,则根本无法实现避险目的。其次,防御性紧急避险(又称预防性正当防卫)本身与正当防卫关系较为紧密,设置不同于正当防卫中的危险概念有利于区分紧急避险与正当防卫。再次,鉴于强人工智能体只是工具且可能会实施更加危险的行为,对自然人的法益保护就应有更高的要求,紧急避险中危险判断的决定性标准从损害是否立即发生演变为即刻采取防御行为的必要性具有合理性[26]。在此基础上,危险正在发生的类型包括危险现实存在或者即将到来[18]253。
至于持折衷论者所提到的紧急避险限度性要件严于正当防卫从而不利于实现人权保障的问题,可采取如下解决方案:当紧急避险所引起的损害小于所避免的损害时,可以适用我国刑法第二十一条规定阻却行为的违法性;当紧急避险所引起的损害等于所避免的损害时,可以适用期待可能性理论阻却行为的责任[27];当紧急避险所引起的损害略大于所避免的损害时,由于此时仅产生了财产损失,基于刑法的谦抑性不宜由刑法介入处理,动用民事手段即可。由此,紧急避险的限度性要件仍未减弱对自然人的法益保护力度。
(二)否定强人工智能体的刑事主体地位不影响共同犯罪的认定
持折衷论者认为,如果将强人工智能体一概视为工具,则在共同犯罪中存在三大难题需要解决。一是当自然人帮助强人工智能体实施违法犯罪行为时,如果涉及的是一些罪状内容表述更具体、定型化程度更高的犯罪构成要件时,持否定论者会得出帮助者无罪的结论。二是当强人工智能体胁迫自然人实施违法犯罪行为时,如果自然人不能紧急避险,就会被以正犯论处。而当强人工智能体控制自然人实施违法犯罪行为时,如果否认强人工智能体的间接正犯地位,就不能对自然人的侵害行为进行防卫。三是持否定论者也无法解决对向犯的问题[6]。姑且不论其质疑内容是否合理,其“具有高度智力的强人工智能既可以自发产生独立的犯罪决意,也完全可以在犯罪历程中起到支配作用”[6]的观点实际上滑向了肯定论立场。按其观点,既然强人工智能体具备自主意志,可以自行选择并决定行为,则应赋予其主体地位。但如前所述,这种观点从根本上存在问题。另外其所提出的三点质疑,否定论完全可以进行妥善处理,理由如下:
首先,无论罪状内容表达具体与否、构成要件定型化程度高低,只要强人工智能体实施了相关违法犯罪行为,就意味着行为人通过工具实施了相应的违法犯罪行为,就可以对行为人进行定罪处罚。以生产伪劣商品的行为为例,虽然行为人在表面上并未直接实施构成要件行为,仅仅是为强人工智能体提供了一些原材料,但实质上行为人是通过强人工智能体这一工具中介而实施了构成要件行为。由此,行为人仍然属于直接实施构成要件行为的情形,应对其进行定罪处罚。
其次,当强人工智能体胁迫行为人实施违法犯罪行为时,即便行为人可能在某些特殊情况下未满足紧急避险的构成要件,但这并不意味着行为人构成犯罪。因为在这种情形下,行为人的行为仍可能因缺乏实质的可罚性,或是期待可能性而出罪。至于持折衷论者所称自然人不知道行为的性质就无法被视为不法侵害的观点更是毫无道理,因为行为究竟有无法益侵害性只能是客观判断,与行为人知晓与否不存在任何关联。据此,对实施法益侵害行为的自然人进行防卫没有任何规范上的障碍。或许有人认为,出现强人工智能体胁迫或控制行为人违法犯罪时,由于强人工智能体的工具属性,根本无法对其进行定罪处罚,这岂不是在放纵违法犯罪?然而,强人工智能体之所以能实施违法犯罪行为,与设计者、生产者及使用者存在密切关系。追本溯源,规制强人工智能体不如规制其背后的人。
再次,持折衷论者认为否定论无法解决对向犯难题亦无根据。以代替考试行为为例,强人工智能体真的可以代替他人考试吗?或许其知识储备可以应对考试题目,其机械构造可以完成考试答题,但其外貌、行为举止、声音等可以以假乱真、蒙混过关吗?并且就算强人工智能体可以经过重重阻碍顺利代替他人考试,但由于我国刑法第二百八十四条规定考试作弊类犯罪所打击的均为二人以上参与实施的违法犯罪行为,因而在工具论视角下利用强人工智能体代替考试与自己作弊无异,未达到值得科处刑罚的程度,不需要刑法进行规制。因此,坚持否定论立场可以妥善解决共同或片面对向犯的难题。
四、结语
面对社会高速发展,通过解释或修改法律以提升法律对于社会的应变性是一项可行的举措。置身于风险社会,面对强人工智能体所带来的风险,在刑法领域展开讨论是必要的。当我们身处强人工智能体刑事责任研究热潮中,冷静、理性地思考便显得尤为重要。强人工智能体真的会产生吗?赋予强人工智能体以刑事主体地位符合现有实证法规范、符合法律主体的要素吗?有规制的现实必要吗?论证过程融洽、合理、无矛盾吗?赋予其刑事主体地位又会给人们带来什么样的益处?有什么样的后果?等等。基于刑法后盾法、人权保障法的地位,不宜轻动、轻改,刑罚不宜擅用。如果不对相关问题进行深入论证并一一回应就仓促得出结论,刑法的根本属性便会被动摇。强人工智能体或许会产生,但试图通过承认刑事主体的方式达到规制目的既不符合法律和法理,也不会取得实效。因此,无论技术发展到何种程度,均不应承认强人工智能体的刑事主体地位。
注释:
①要说明的是,人工智能是一个技术概念,而人工智能体是指具有智能性、实体性的人工系统。在要不要赋予其法律主体地位的问题上,本文讨论的是具有实体性的人工智能体,即采用后一概念指代讨论对象。
②强人工智能体只具有限制性的法律地位,只能享有部分从属于自然人的权利,不具有生命权、健康权,只享有部分自由权、尊严权、特定财产权(如深度学习后产生的数据权)。参阅刘宪权、张俊英《人工智能时代机器人异化与刑事责任》,《法治研究》2019年第4期。