APP下载

人工智能的刑法主体地位反思
——自我意思决定、平等主义与刑法技术措施

2019-02-19

上海政法学院学报 2019年3期
关键词:刑罚刑法主体

袁 彬

一、问题的缘起

作为现代科技的集大成者,人工智能近年来取得了快速的发展。2015年,一系列旨在测试世界上最好的人工智能(AI)系统和人类智商(IQ)之间的胜负关系的试验表明,人工智能的智力目前已经达到了4岁儿童的水平。①参见《目前人工智能的水平相当于4岁儿童》,https://www.qianzhan.com,前瞻网,2018年10月10日访问。2016年Google公司的智能机器人——阿尔法狗(Alpha Go)与围棋世界冠军柯洁的对决(4:1),让人们见识了智能机器人缜密的思维能力。而令人更为震惊的是,2017年Google公司推出的AlphaGo升级版AlphaGo Zero能够从零开始,自主学习,并用40天时间完虐打败了柯洁的AlphaGo。②参见开明:《从零开始,全凭自学,它用40天完虐AlphaGo!》,https://www.guokr.com/article/442444/,果壳网,2018年2月10日访问。与此同时,以人工智能技术为基础的汽车自动驾驶技术也取得了快速发展,并将在可预见的未来代替人工驾驶。2017年,国务院发布了《新一代人工智能发展规划》,不仅将人工智能的发展提高到了战略发展的高度,而且对人工智能的发展做了详细规划和布局,并提出要“明确人工智能法律主体以及相关权利、义务和责任”。从刑法的角度看,随着人工智能的技术提升和运用推广,涉人工智能的犯罪将不断呈现,并主要体现为3类:一是人工智能因研发、设计存在技术缺陷而引发的犯罪,如将技术不成熟、存在设计缺陷的人工智能投入使用而导致了他人人身、财产损害等;二是人工智能被他人作为工具使用而实施的犯罪,如利用人工智能窃取电子数据、财物等;三是人工智能独立实施的犯罪。按照我国现行刑法规定,对前2类犯罪可追究人工智能背后的自然人或者单位的刑事责任,实现刑法的秩序维护功能;但对于第3类犯罪,因为人工智能本身符合设计规范且人工智能实施的行为独立于其背后的自然人或者单位,因此,按照现代刑法责任主义原理无法追究人工智能背后的自然人或者单位的刑事责任,刑事责任面临落空的危险。①当然,从民事责任承担的角度看,对于人工智能独立实施的行为,不排除可以追究其背后自然人或者单位的民事赔偿责任。这就引发一个问题,在人工智能技术足够先进、成熟的人工智能时代,具有自主意识的人工智能能否成为刑法上的独立主体并对其危害社会的行为承担独立的刑事责任?对此,我国刑法理论上存在2种截然对立的观点:一是否定论。这是当前多数论者的观点,认为人工智能不能成为刑法上的主体。其基本理由是:自主意识不等于意志自由,人工智能不具有独立的意志自由,欠缺法规范遵从能力的意志性,即使客观上造成法益侵害后果,同样不具有刑法上的可归责性②参见时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第4期。;具有“辨认能力和控制能力”的不止是人类,如家养和野生动物虽有以上能力,但都不是犯罪主体。③参见皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。人工智能所实际具有的辨认和控制能力离刑事责任能力的要求相去甚远,惩罚人工智能既不能实现刑罚的特殊预防目的,也无法实现其一般预防目的。④参见阴建峰、刘雪丹:《人工智能犯罪主体地位之否定》,载赵秉志、陈泽宪、陈忠林主编:《改革开放新时代刑事法治热点聚焦》,中国人民公安大学出版社2018年版,第765页。二是肯定论。这是当前少数论者的观点,认为人工智能可以成为刑法上的主体。其基本理由是:在设计和编制的程序范围外实施行为时,智能机器人的行为实现的是自主意志而非他人意志,因而可以成为刑事责任主体。⑤参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。在人工智能时代,智能机器人有可能具有辨认能力和控制能力。⑥参见刘宪权:《人工智能时代我国刑罚体系重构的法理基础》,《法律科学》2018年第3期。

上述争论,不仅涉及人工智能的刑法主体地位问题,更涉及对刑法上主体基本问题的认识。换言之,在我们通常阐述的辨认能力和控制能力(刑事责任能力)、意志自由(刑事责任的哲学根据)、特殊预防和一般预防(刑罚目的)等领域,什么才是作为刑法主体的根据或者本质?这个问题不仅是人工智能能否成为刑法主体所需要解决的问题,而且也是未来其他智能生物或者机器等更多类型主体能否成为刑法上的主体所需要解决的问题,同时也关系到刑法主体的自我定位。笔者认为,该问题的解决关系到3个方面:一是事实问题,即人工智能的自主意识及其程度,即这些智能生物或机器是否具有自主意识以及其自主意识能否达到刑法所要求的程度;二是政策问题,即人类能否放弃人类中心主义的立场,将这些智能生物或机器视为与人类平等的存在;三是技术问题,即对这些智能生物或机器的处置措施是否具有技术上的可分割性,能否针对人工智能的自主意识进行设置并对这些处置措施作不同法律意义上的区分。笔者认为,技术问题是解决人工智能法律问题的关键所在。这是因为,技术问题不仅决定其能否区分刑事责任与其他法律责任,而且决定其能否影响人工智能的自我意思决定以及能否实现人工智能与人类的平等。

美国心理学家马斯洛将人的需求分成生理需求、安全需求、爱和归属感、尊重和自我实现5类,依次由较低层次到较高层次排列。⑦参见杨英法:《马斯洛需要层次论的不足及其完善》,《哈尔滨师范大学学报(社会科学版)》2015年第5期。刑法制裁措施的设计主要是针对人的需求进行的,生命刑、自由刑、财产刑和资格刑分别针对不同层次的人类需求。一般而言,刑法制裁措施针对的人类需求层次越低,其制裁严厉性越高;反之,刑法制裁措施针对的人类需求层次越高,其制裁的严厉性越低。与人类不同,人工智能没有人类的需求,这决定了传统的刑法制裁措施对人工智能是无效的。在此基础上,有学者提出应当以人工智能为视角对我国刑罚体系进行重构,建议在刑法中针对智能机器人增设删除数据、修改程序、永久销毁等刑罚处罚方式。另外,如果将来相关法律赋予智能机器人财产权或者政治权利,也可以对智能机器人单处或并处财产刑或者权利刑。①参见刘宪权:《人工智能时代我国刑罚体系重构的法理基础》,《法律科学》2018年第3期。但与人类不同,财产权、政治权利并非人工智能的天然权利(需要法律赋予其这些权利后再剥夺),也与人工智能的需求无关,因此,这些权利不具备作为刑罚剥夺对象的基础,只有删除数据、修改程序、永久销毁等技术措施才是人工智能的专有处理措施,也是人工智能有朝一日成为刑法主体后承担刑事责任的基本方式。

二、自我意思决定:刑法技术措施与人工智能的主观构造偏离

关于人工智能的发展,科技界一般根据人工智能与人类智能的对比差异,将人工智能分为弱人工智能和强人工智能。刑法理论上探讨的人工智能则主要集中在强人工智能,这类人工智能是达到人类水平的、能够自主地应对外界环境挑战的、具有自我意识的人工智能,又可称为“通用人工智能”“类人智能”等,其本质在于智能机器人处理不同事务时拥有进行自主思考的能力,具有作为独立主体的自我意识与身份认同。②参见时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第4期。论者们主要从与人类类比的角度分析强人工智能能否具备刑法上的主体资格,各方争论的焦点是强人工智能的“自主意识”能否成为人工智能具有刑法主体地位的依据。③肯定论者认为,人工智能的自主意识具备刑法上的辨认和控制能力,具备成为刑法主体的基础;否定论者认为,人工智能的自主意识与刑法上的意志自由存在较大差异,也与刑事责任能力的辨认能力、控制能力存在明显差异,不能因此赋予人工智能刑法主体地位。因此,要解决人工智能的刑法主体地位问题,首先必须解决人工智能的自主意识及其在刑法上的价值。

(一)“自主意识”的刑法意蕴及其价值

人工智能的“自主意识”是人工智能处理不同事务时拥有的进行自主思考的能力,具有作为独立主体的自我意识与身份认同。这种“意识”的独立性是相对于人工智能的设计和编制的程序而言的,这就涉及“自主意识”在刑法上的意蕴问题。对此,可以从以下3个方面进行理解:

第一,“自主意识”是刑法的重要基础。“自主意识”在刑法上可与4个方面的因素相关联。这包括:一是刑事责任能力,即行为人辨认、控制自己行为的能力。“自主意识”可视为刑事责任能力的基础,没有“自主意识”的人或者人工智能,必然没有辨认和控制能力,因而不具有刑事责任能力。二是主观罪过,即故意和过失。主观罪过要求行为人的认识、意志参与,包括能否认识到自己行为的社会危害性和能否用意志控制自己行为的实施。“自主意识”是主观罪过的认识因素和意志因素的基础,无自主意识则无主观罪过。三是刑事责任的根据。现代刑法理论上一般认为,相对的意志自由是行为人对自己实施的犯罪行为负刑事责任的哲学根据。对于这一点,道义责任论、社会责任论和规范责任论基本都认可,“自主意识”是相对意志自由的基础。四是刑罚的目的。国内外刑法理论上大多将“报应”“预防”作为刑罚的目的,其中预防包括一般预防和特殊预防。不过,无论是报应、一般预防还是特殊预防,其背后的基本逻辑都是犯罪人或者社会上的一般人会根据刑罚处罚调整自己的行为,以使其未来会采取合法行动。在这个前提下,“自主意识”是基础。

第二,“自主意识”不是刑法的唯一基础。“自主意识”是刑法的重要基础,但在刑法上,没有“自主意识”是不是就不能成为刑法的主体呢?对此,我们需要考察刑法自身的定位。更进一步地讲,这涉及刑法上的刑罚与保安处分二元主义。刑罚与保安处分的二元主义立足于人的行为危害性和社会危险性,认为刑罚与保安处分是刑法上的两种不同存在但可以共存互补。保安处分可以适用于刑罚无法适用的犯人,按照二元主义,刑法上的犯人包括“心神状况完全正常的偶发犯”“神志清楚的常态犯”和“心神丧失犯”。其中,“心神丧失犯”是因精神障碍,对外部事物全然缺乏知觉、理会和判断能力的人。这类人的行为具备刑事违法性但不具有刑事责任能力。①参见胡桥:《20世纪西方刑事法律的基本价值取向》,《外国法制史研究》2006年第3期。按照刑罚与保安处分的二元主义立场,不具有“自主意识”的“心神丧失犯”也是刑法的主体和规制的对象。“自主意识”不是刑法的唯一基础,没有“自主意识”但具有社会危险性的人,也可以成为刑法上的主体。

第三,“自主意识”只是为他人具备刑法主体地位提供可能。“自主意识”既是一种能力,也是一种状态:作为一种能力,“自主意识”赋予了人工智能接受外界信息并作出自主反应、启动并控制自己行为的可能性;作为一种状态,“自主意识”能让人工智能实际地接受外界信息,然后进行加工并作出决策,进行反应。也正因为如此,现代刑法理论上的刑事责任能力、罪过、意志自由和预防目的主要都是建立在“自主意识”基础之上,没有“自主意识”就不可能具有或者符合刑法意义上的刑事责任能力、罪过、意志自由和预防目的。强人工智能的这种“自主意识”为人工智能成为刑法上的主体提供了一种可能性,但刑法上的刑事责任能力、罪过、意志自由和预防目的毕竟不等同于“自主意识”,不是有“自主意识”就一定具备刑法上的刑事责任能力、罪过、意志自由和预防目的。对于刑法主体,更重要的是刑法上的自我意思决定能力,即在充分认识个人需要和环境信息的基础上,个体对自己的行动做出自由选择的能力。这是一种更高层次、更高水平的自主意识形态,因此,自主意识只是为人工智能具备刑法主体身份提供了一种可能性。

(二)“自主意识”并非人工智能具备刑法主体地位的决定性因素

弱人工智能与强人工智能的根本差异在于其是否具有“自主意识”。一般认为,弱人工智能没有自主意识,但强人工智能具有自主意识。赞成者认为,强人工智能的自主意识可使其成为刑法上的行为主体。“智能机器人与普通机器人的差异在于其可能超越人类设计和编制的程序产生独立的意识和意志。其按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。”②刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。但“自主意识”能否成为人工智能具有刑法主体地位的根据呢?笔者认为,答案是否定的。这是因为:

第一,刑法对“自主意识”的程度要求决定了人工智能难以因为其有自主意识而成为刑法上的行为主体。正如德国刑法学者所言,刑法对于行为主体的责难,应当以其具有自由且能正确地在合法和非法之间作出决定的能力为基础,如此才具有意义。③参见[德]托马斯·希伦坎普:《没有意志自由的刑法?——一个对脑科学研究的回答》,刘家汝译,载赵秉志主编:《刑法论丛》(第3卷),法律出版社2011年版,第245页。换言之,刑法上的“自主意识”在内容和强度上有着特殊的要求:一方面,在内容上,刑法上的“自主意识”要求行为人能在合法和非法之间作出决定,这要求人工智能在“自主意识”的内容上具有自主地遵守法规范的意识。而现代社会的法规范大都是建立在习惯、道德等自然法基础之上,这给人工智能的“法规范意识”提出了很高的要求,并非只要有“自主意识”就能实现。另一方面,在强度上,刑法上的“自主意识”要求“自由而正确地”作出决定,即能够做出正确的自我意思决定。人工智能的“自主意识”虽然能在一定程度上独立于“人类设计和编制的程序”,但是否能达到完全脱离程序设计者的自由状态并且正确作出决定,显然是存疑的,且目前无法做到,未来也不一定能做到。

第二,刑法“自主意识”的推定性决定了人工智能的“自主意识”不是其成为刑法主体的条件。按照现代刑法理念,一个人在刑法上是否具有自主意识不仅是一个事实问题,更是一个规范问题。以最低刑事责任年龄为例,我国刑法规定的最低刑事责任年龄是14周岁。不满14周岁的人被认为不具有刑法上的辨认能力和控制能力,包括不具有刑法上的“自我意思决定能力”。但在许多国家,最低刑事责任年龄被规定为10周岁、7周岁甚至更低,同是现代社会中的“人”,为什么最低刑事责任年龄的标准会在刑法上存在这么大的差异,其根本在于刑法上的“自主意识”及其程度是一个法规范概念,其对“自主意识”的事实状态是推定性的。刑法立法者认为某个年龄段的人具有“自主意识”即可让其成为行为主体,即便其“自主意识”在客观上并未达到通常所要求的程度。对于人工智能而言,人工智能所具有的“自主意识”能否得到刑法上的认可,这与其是否具有“自主意识”相关,但并不具有必然联系。因为刑法完全可能基于法律政策的原因,规定无论具有何种程度的自主意识的人工智能均不能成为刑法上的主体,或者相反。

第三,刑法“自主意识”的功能性决定了人工智能的“自主意识”不是其成为刑法主体的条件。现代刑法的历史虽然短暂,但线条并不单一。关于行为刑法与行为人刑法的历史争议在当代并没有停息。通过《刑法修正案(八)》《刑法修正案(九)》的立法,我国刑法正逐步强化行为人刑法的色彩和因素,社区矫正、禁止令、职业禁止、终身监禁等带有相当强的保安处分性质的措施不断涌入立法,可以想见,行为刑法虽然仍是我国刑法立法和司法的主导,但以危险性为主要依据的保安处分措施必然会进一步增加。其对刑法上的行为主体的直接影响是淡化“自主意识”“意志自由”,强调“危险性”。这意味着,对于人工智能而言,其是否具有“自主意识”并不是其能否成为刑法主体的决定性条件,而是需要综合考虑立法的取向和价值选择。

第四,人工智能“自主意识”的人类意识延伸性与变异性决定了人工智能的“自主意识”不是其成为刑法主体的条件。这主要涉及2个方面:一是人工智能“自主意识”具有人类意识延伸性特点。强人工智能的“自主意识”看起来独立于“人类”,但实际上并非如此。人工智能的“自主意识”依赖于人类的设计和编制的程序,这些“人类的设计和编制的程序”体现的是人类意识,包括人类的思维、经验、道德、文化等意识内容。人工智能在“人类意识”之上产生的“自主意识”是人类意识的延伸。在这个意义上,人工智能的设计者对人工智能的行为及其后果应该是有预见性的。刑法如对“犯错”的人工智能进行惩治,如删除数据、修改程序等,调整的到底是人工智能的“行为”,还是人工智能设计者的“行为”,显然也是存在疑问的。二是人工智能“自主意识”的人类意识变异性。如前所述,人工智能的“自主意识”是建立在人类的意识之上,是人类意识的延伸。但人工智能的“自主意识”也可以出现变异,变成完全不同于人类意识的“自主意识”。在人工智能领域,一般认为强人工智能包括2种类型,即“类人的人工智能”(即机器的思考和推理就像人的思维一样)和“非类人的人工智能”(即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式)。“类人的人工智能”所产生的“自主意识”与人类意识具有相通性,但“非类人的人工智能”的“自主意识”则完全不是按照人类的思维方式进行推理。将这类人工智能作为刑法主体,要求其按照人类的思维方式调整自己的行为,显然是无法实现的。

(三)刑法技术措施与人工智能“自主意识”的偏离

人工智能“自主意识”的发展结果是自我意思决定能力,对于刑法而言,自我意思决定要求行为人将自身的需求与行为的后果进行联结,即行为人能够将行为所可能面临的法律后果纳入自我意思决定之中,进而作出抑制自我需求并实施符合法律要求的行为。不过,作为人工智能独立承担刑事责任的形式,删除数据、修改程序、永久销毁等技术措施与人工智能的“自主意识”并不具有对应性。这主要体现在:

第一,刑法技术措施与人工智能的需求无关。如前所述,人工智能不具有人类的基本需求,没有生理、安全等低层次的需求,也没有自我实现等高层次需求。而且,在可以想见的未来,人工智能是否会产生某种需求仍不可知。而无论人工智能未来是否会产生某种需求,删除数据、修改程序、永久销毁等技术措施都难以与人工智能的需求建立起直接联系。这是因为,人工智能是通过技术方式设计、制造出来的,通过技术方式对人工智能进行行为矫正乃至销毁,仍可归结为人工智能的设计领域,无法与人工智能的需求建立联系。不过,人工智能的自我意思决定是建立在人工智能的特定需求之上,这意味着,删除数据、修改程序、永久销毁等技术措施难以介入人工智能的自我意思决定,进而表明其与人工智能的“自主意识”不具有对应关系。

第二,刑法技术措施与人工智能的决策无关。现代刑罚之所以能对人的行为产生影响、能够影响人的自我意思决定,是因为刑罚的严重后果具有对人的威吓性,人们惧怕刑罚的后果进而会通过调整自己的行为避免刑罚后果的出现。但是,对于人工智能而言,删除数据、修改程序、永久销毁等技术措施很难对具有“自主意识”的人工智能产生威吓作用。这是因为,一方面,人工智能的永久销毁是一个相对的概念,其销毁的通常是人工智能的物理载体,作为人工智能核心的内核可能通过技术革新转移到其他物理载体上,这可能导致其形式上是一个新的人工智能,但实质上仍是原有人工智能的延续。因此,真正的人工智能只有技术淘汰问题,而无真正的销毁问题。另一方面,删除数据、修改程序对人工智能不具有威吓性,它是人工智能的技术要求,如同人类看病一样,不会对人工智能形成威吓,进而无法参与到人工智能的决策之中。

第三,刑法技术措施与人工智能的自主意识无关。针对人工智能的删除数据、修改程序、永久销毁等技术措施客观上能够调整人工智能的“自主意识”,以防止其作出不适格的行为。但这些技术措施并不以人工智能的“自主意识”为中介,即它不是通过刑法立法规定的删除数据、修改程序、永久销毁等技术措施让人工智能运用“自主意识”进行自我调整,不会形成以这些技术措施迫使人工智能进行自我行为调整的格局和结果。刑法技术措施对人工智能“自主意识”的调整是直接的、简单的、粗暴的,具有明显的物理属性,不需要人工智能“自主意识”的参与。从这个角度看,刑法技术措施与人工智能的自主意识并无直接关系。

可见,删除数据、修改程序、永久销毁等技术措施与人工智能的“自我意识”之间存在一种疏离关系,这表明,人工智能能否成为刑法上的独立主体,决定性因素不在于人工智能是否具有自主意识(自主意识只是前提和基础),而在于刑法针对人工智能的技术措施能否让人工智能发挥其自主意识进行自我的行为调整。但目前来看,人工智能是否能做到这一点仍然是无法预见的。

三、平等主义:刑法技术措施与人工智能的行为限制

在人类与动物的关系上,刑法理论界一直以来都存在人类中心主义与非人类中心主义之争。其中,非人类中心主义也即平等主义,倡导动物与人类享有平等的权利、处于平等地位,人类中心主义与非人类中心主义(平等主义)分歧的焦点在于刑法的制度设计是否以人类的利益作为思考的中心并以此调整人与自然等方面的关系。人类中心主义认为:“在人与自然的关系中,人是主体,自然是客体,一切应当以人类的利益为中心和尺度,应当贯彻人是目的的思想。”①余谋昌:《走出人类中心主义》,《自然辩证法研究》1994年第7期。非人类中心主义则强调动物与人具有平等的地位、平等地享有权利承担义务。②参见孟伟:《环境刑法的伦理基础》,《法商研究》2004年第6期。人类中心主义与非人类中心主义之争可延伸到人类与人工智能的关系上,其分歧将主要体现为人工智能与人类是否拥有平等的权利,能否作为与人类平等的权利主体,而这将影响到人工智能能否具有独立的刑法地位。

(一)平等主义是人工智能的“人化”关键

从含义上看,人工智能的“智能”核心是认知决策能力,这决定了人工智能的技术属性。由于人工智能的设计和程序编制是由人类掌握,因此人工智能的“人工”使得其在本质上具有“物化”的属性,被普遍认为是人类的工具。人工智能要成为刑法主体,意味着其必须“人化”。对此,在人工智能与人类关系上坚持“平等主义”就十分关键。这具体体现在:

第一,法律评价的平等性是人工智能具有独立刑法地位的基本前提。按照平等主义的视角,在人工智能与人类的关系上不是以人类的利益为核心,人工智能具有独立于人类的平等利益,是独立的法律主体。不过,从刑法的角度看,刑法赋予人工智能独立的主体地位,即意味着人工智能与人类在刑法上是平等的。这涉及法律评价的2个方面:一是人工智能与人类在犯罪的认定上平等。人工智能实施了与人类相同或者相似的违法行为,如窃取了他人的个人信息、故意或者过失地导致他人死亡,都应当被认定为犯罪。当然,这并不意味着人工智能在犯罪的类型上与人类完全一致,两者的犯罪类型可以有所区别,但它们在法律上受到的否定评价应当是一致的。二是人工智能与人类在责任的追究上平等。人工智能与人类的平等要求其在实施了违法犯罪行为后都应当受到责任的追究,当然,两者在责任的实现方式上可能完全不同。而无论是犯罪认定上的平等还是责任追究上的平等,都意味着我们要将人工智能当人看待,人工智能与人类在法律价值上具有平等性。

第二,权利义务的对等性是人工智能具有独立刑法地位的必要内容。将人工智能确立为刑法主体后,人工智能将对其实施的犯罪行为独立承担刑事责任,其中特别是不能实施针对人类权益的犯罪。但权利义务的对等性原理决定了,人类也不能针对人工智能实施犯罪。例如,刑法禁止人工智能伤害人类,那么刑法反过来也应该禁止人类伤害人工智能,这是权利义务对等性的要求。否则,人工智能在犯罪和责任上与人类一样是刑法上的平等主体,但在保护对象上却处于与人类不同的地位,则必然违反现代刑法的基本原理。从这个角度看,人工智能要具有独立的刑法地位就意味着人工智能与人类处于平等地位。

第三,罪刑的法定性是人工智能具有独立刑法地位的重要保障。赞成人工智能具有独立刑法地位的论者主张围绕人工智能构成专门的刑罚体系,包括删除数据、修改程序、永久销毁等刑罚处罚方式。③参见刘宪权:《人工智能时代我国刑罚体系重构的法理基础》,《法律科学》2018年第3期。这些措施专门适用于实施了“犯罪”的人工智能,不过,根据我国刑法规定的罪刑法定原则,其潜在意思是在没有实施犯罪行为的情况下,将不能对人工智能实施删除数据、修改程序、永久销毁等刑罚处罚,人工智能的相关权利要受到刑法的保护。这一方面意味着人工智能可以在刑法规定的犯罪行为之外“自由”地实施其他合法行为,人工智能的发展会不会面临不可控的危机仍不可知;另一方面,一旦人类的发展与人工智能的发展形成了竞争关系,人类要对人工智能的发展进行控制,将可能无计可施。从这个角度看,人类一旦赋予了人工智能独立的刑法地位,就意味着人类必须承认人工智能与人类的平等性。

(二)人工智能与人类的完全平等主义不可行

尽管在浩瀚的宇宙中人类只是短暂的存在,但笔者认为,在人类漫长的过去和长久的未来发展之中,人工智能与人类成为完全平等意义上的法律主体是难以实现的。完全的平等主义在目前及可预见的未来面临着不可行的局面,这是因为:

第一,完全平等不符合人工智能的设计目的。从根本上看,人类设计人工智能,目的是为了更好地服务于人类的社会生活。换言之,人工智能从其产生之日起,它就是一种工具,而不是目的,它不是作为一种目的而存在和出现的。完全的平等主义要求对人工智能和人类平等对待,人工智能将因此成为与人类一样的存在,人工智能必将要摆脱其工具属性而走向目的。但从逻辑上看,人类设计人工智能的初衷与人工智能的实际状况将发生分离、冲突。国务院2017年制定的《新一代人工智能发展规划》明确提出了人工智能要在人类的控制下发展,目的是“推动以人类可持续发展为中心的智能化,全面提升社会生产力、综合国力和国家竞争力,为加快建设创新型国家和世界科技强国”。从这个角度看,人工智能不符合当前我国刑法的主体本质,难以成为刑法上的独立行为和责任主体。

第二,完全平等不符合人工智能的法律定位需要。如前所述,国务院2017年《新一代人工智能发展规划》提出了要“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”。而且,在此之前,日本、美国和沙特都进行过这方面的实践。2010年11月7日,日本为宠物机器人帕罗登记户籍;2016年2月4日,美国国家公路交通安全管理局在其法律文件中将谷歌自动驾驶汽车中的自动驾驶系统视为“驾驶员”;2017年10月25日,沙特政府宣布授予机器人索菲亚公民身份等。这期间,欧盟法律事务委员会2016年5月提交了一项动议,建议至少考虑将最先进的自动化机器人的身份定位为“电子人”(Electronic Persons),赋予它们“特定的权利与义务”①百度公共政策研究院:《人工智能法律前沿问题探讨——机器人是“人”吗?》,http://www.idataapi.com/news/1245.html,大数据共享交易平台,2017年11月11日访问。。但这并不表明各国和欧盟对人工智能采取了与人类完全平等的立场,也并不表明我们应当坚持人工智能与人类完全平等的立场,要将人工智能与人类作为平等的法律主体同等对待。实际上,人工智能的法律主体地位的明确可以在民法、行政法等多个领域展开,刑法作为最后法,在民法、行政法等部门法均未明确人工智能的独立法律定位的情况下探讨其作为独立刑法主体问题,并不可行。

第三,完全平等意味着要人类主动放弃对人工智能的支配地位,难以实现。人工智能的出现是人类智慧的结晶,无论人工智能是人类基于何种目的推出,但其推广一定是为了人类自身的利益而进行的。“完全平等主义”要求将人工智能与人类放在同等重要的刑法地位上,实际上就是要求人类与人工智能各自独立、各行其道,其在根本上是要求人类放弃对人工智能的支配权。可以想象,一旦人类放弃了对人工智能的支配权,人工智能可以无限地自我设计、自我制造、自我繁殖,人类在地球上的生存空间将被极大地压缩,最终必将处于无立足之地的境地。而这种情况一旦出现,人类必定要进行反击,届时人工智能在刑法上的地位将毫无意义。正因为如此,国务院2017年发布的《新一代人工智能发展规划》明确提出“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。

(三)刑法技术措施与人工智能的行为限制

现代刑法强调犯罪是刑法的基础和起点,刑法上所有的措施(包括技术措施)都是针对犯罪行为的。对于人工智能而言,将删除数据、修改程序、永久销毁等技术措施上升为刑罚,将限制人类对人工智能的行为调整。这主要体现在:

第一,罪之法定限制了人工智能的行为规制范围。一旦赋予人工智能独立的刑法主体地位,即意味着人工智能与人类在刑法上的平等地位。对人工智能的刑法治理也必须遵循罪刑法定、刑法谦抑等现代刑法原则。这势必对人工智能的入罪范围产生两个方面的限制:一是行为类型限制,即只有刑法明确规定为犯罪的行为才是犯罪,才能对其适用刑罚。而在任何一个国家,罪行的设置总是具有很强的有限性和滞后性。刑法难以将人工智能实施的所有危害行为都规定为犯罪,这必将对人工智能的犯罪行为类型产生很大的限制作用。二是行为程度限制,即根据《刑法》第13条但书的规定,只有严重危害社会的行为才能入罪。根据该规定,对于人工智能实施的一般违法行为不能作为犯罪处理,这也将限制人工智能危害行为入罪的范围。

第二,刑之法定限制了人工智能危害行为的处罚范围。与人类不同,定罪、刑罚难以对人工智能产生附带效果,如不存在因定罪、刑罚适用而影响人工智能就业、从事相关活动等问题,对实施了“犯罪”的人工智能所可能产生的所有影响都来自人工智能的刑法技术措施。而如前所述,人工智能的刑法技术措施主要包括修改(包括删除数据、修改程序)和销毁(包括物理销毁、技术销毁)。这些技术措施作为刑罚手段将对人工智能的行为规制产生两方面的限制:一是技术措施区分的有限性限制了人工智能犯罪行为的范围。与自由刑、财产刑、资格刑所具有的较大区分度不同,技术措施的区分度非常有限,只能区分为修改和销毁,无法适应行为在危害程度上的变化需要。技术措施的这一特点决定了刑法无法对人工智能实施的犯罪行为进行各种程度的区分,进而将限制人工智能危害行为入罪的范围。二是技术措施区分的有限性限制了人工智能违法行为与犯罪行为的区分。“无刑罚则无犯罪”是现代刑法的基本原则之一,也是罪刑法定原则的基本要求。技术措施区分的有限性决定了对人工智能的行政处罚与刑事处罚的区分困难,进而将极大地限制人工智能危害行为的入罪范围。

平等主义必将限制人工智能行为的入罪范围,将人工智能规定为刑法上的独立主体将给人类治理人工智能的危害行为设定诸多限制,这是否必要、是否可行需要政策层面的准确把握。但就目前而言,这种限制显然不具有政策价值。

四、后果差异性:刑法技术措施与人工智能的法律窘境

这里的“后果差异性”是指不同部门法之间的法律后果差异性,“自主意识”和“平等主义”主要关乎人工智能成为刑法主体的主观条件和行为条件。对于人工智能而言,决定其能否成为刑法主体的关键性法律技术是针对人工智能的刑法与其他部门法的法律后果差异性,其中的核心是刑法对人工智能的处置手段是否具备足够的独特性和差异性。

(一)法律后果的差异性及其刑法价值

在法学理论上,部门法的划分标准通常被认为包括2个方面:调整对象和调整手段。一般认为,刑法作为一个独立的部门法,其独立存在的依据在于其调整的对象和手段的独特性(其调整的对象是犯罪,调整的手段是刑罚)。①参见高铭暄、马克昌:《刑法学》(第6版),北京大学出版社、高等教育出版社2016年版,第18页。刑罚被认为是犯罪的主要法律后果,法律后果的差异性是刑法存在的价值,并主要体现在以下两个方面:

第一,刑罚与其他法律后果的差异性是刑法的法律本质。法律后果本身具有界定法律部门的性质,在一些国家,刑法完全被以其法律后果命名,被称为“刑罚法”。一般认为,刑法的法律后果差异性主要包括两个方面:一是刑罚处罚的严厉性。在我国,刑罚不仅可以剥夺他人的财产、资格,还可以剥夺他人的自由、生命,也正因为如此,我国《立法法》明确规定“刑罚”只能由法律加以规定。二是附随后果的严重性。根据我国现行法律体系,被认定为犯罪、被判处刑罚的人,将要在刑罚之外承担由此带来的不利法律后果。例如,受过刑罚处罚的人一般不能再担任某些特定的职务(如法官、检察官、公司高管等)、不能进入特定的行业(如不能再从事法律相关职业)、不能享受职业优待(如不能得到职务晋升)、不能享受社会声誉优待(如因留下不良记录而在社会生活评价中处于不利地位)等。从性质上看,这些附随性法律后果涵盖的责任包括了行政法律责任、民事法律责任和社会道德责任等各个方面。换言之,刑法的法律后果兼具专门性和全覆盖性。这是其他部门法所没有的,也是刑法作为一个独立部门法存在的价值和前提。

第二,刑罚与其他法律后果的差异性是刑事处罚权的基础。在权力的性质上,行政权与司法权的划分是国家权力划分的一个基本方面。其中,行政权由行政机关享有,其特点是行政机关直接做出,且通常缺乏外在的监督但十分高效。而司法权由司法机关享有,其特点是通常由控、辩、审三方参与,强调公正但效率要低。在效率上,行政权的效率要明显高于司法权。而刑罚权显然是属于司法权的范畴,刑罚权作为一种司法权,它以牺牲效率为代价,换取的是司法的公正,其背后的理由是刑罚权的法律后果严重(主要是剥夺的利益重大),需要多方参与和审慎处理。反过来说,一种处罚措施能否作为刑罚的种类,其较之于行政处罚措施更为严厉就是一个基本条件。换言之,刑罚处罚措施与行政处罚措施的不同(即更为严厉)是刑事处罚权的基础,也是启动刑事诉讼、以效率换公正的基础。否则,相关的措施完全没有必要上升为刑法上的措施。

(二)刑法技术措施的差异性与人工智能的独立主体地位

如前所述,人工智能独立承担法律责任的方式主要是技术修改和销毁,包括删除数据、修改程序、永久销毁等方式。不过,从法律后果上看,“删除数据、修改程序、永久销毁等方式”作为人工智能犯罪的刑罚方式,欠缺处罚的差异性。这主要体现在以下3个方面:

第一,对人工智能的技术处理方式难以区分“物化”的人工智能和“人化”的人工智能。考虑到人工智能的特殊性,其既无“人”意义上的生命和自由,也无“人”所拥有的独立财产,而只有技术。从技术的层面上看,对人工智能只有2种处理方式:一是修改,即修改人工智能的设计和程序,包括删除数据、修改程序;二是销毁,即从技术上毁灭人工智能。这2种方式是人工智能的通用处理方式,无论是针对弱人工智能还是针对强人工智能均如此。从法律后果上看,“删除数据、修改程序、永久销毁等方式”无法区分“物化”的人工智能(如弱人工智能)和“人化”的人工智能(如强人工智能),进而将导致人工智能“物”“人”不分。这些措施作为人工智能的刑罚方式之特殊性、差异性也就不具备,难以单独存在。

第二,对人工智能的技术处理方式难以区分人工智能的行政责任与刑事责任。客观地看,对人工智能的技术修改或者销毁,看起来可以进行轻重程度的划分,如技术修改的处理程度轻,技术销毁的处理程度重。但其实这两种手段是不可分割的,当技术修改手段无法解决人工智能的“技术障碍”,则最终只能对其作“技术销毁”处理;反之,如果要对人工智能作技术销毁,但发现可以通过技术修改方式完成,则完全有必要改变技术手段,不对其进行“技术销毁”而进行“技术修改”。这两种措施之间的贯通性,决定了对人工智能的处罚无法进行行政处罚和刑事处罚意义上的区分。即无论是对于人工智能实施的行政违法行为还是其实施的刑事犯罪行为,要对其进行处罚,都只能采取删除数据、修改程序、永久销毁等方式。对人工智能的处罚而言,这将导致行政法律责任与刑事法律责任不分。

第三,对人工智能的技术处理方式难以区分人工智能的行政违法与刑事犯罪。按照现代刑法的基本理论,犯罪的法律本质特征是“应受刑罚惩罚性”。这意味着,从法律层面上看,区分违法和犯罪的标准是行为的“应受刑罚惩罚性”。作为该前提,则要求对行政处罚措施和刑罚措施进行区分。如前所述,对人工智能的删除数据、修改程序、永久销毁等方式,不具有区分行政处罚措施与刑罚措施的特性,这些措施之间具有贯通性和不可分割性。这意味着,人工智能的违法行为与犯罪行为的法律后果将因此难以区分,两者是一样的,这反过来必将导致人工智能的行政违法行为与刑事犯罪行为的不分,人工智能作为刑法上的主体地位也就难以成立。

刑法技术措施的区分度差、差异性低决定了很难从法律后果上区分人工智能的行为性质,将人工智能规定为刑法上的独立主体可能面临着人工智能作为不同法律主体的身份、行为和后果区分困难,法律对人工智能的定位和适用将面临窘境。

五、余 论

将人工智能规定为刑法上的主体,意味着对人工智能还存在民法、行政法等部门法意义上的主体区分。对于人工智能而言,这种主体的区分是否有必要、是否可行,显然不仅是一个立法技术问题,也是一个立法观念问题。对人工智能的法律主体定位而言,至少以目前的眼光来看,笔者认为,对人工智能作民法、行政法和刑法上的区分既无必要也不可行,而是应当坚持“综合法律主体论”。综合法律主体论是对人工智能的民事、行政和刑事法律责任不作明确的区分,而是根据人工智能的能力和状态,由其综合承担各种其所能承担和应当承担的法律责任。以人工智能导致他人财物损害为例,其责任无非涉及两个方面:一是对财物以恢复原状等方式进行价值的恢复、赔偿(以人工智能具有独立财产为前提)等。人工智能应该由其自己或者找他人对财物进行修理、赔偿,这种责任类似于民事责任。如果人工智能不具备承担这种责任的能力,那么这方面的责任将不复存在。二是对人工智能进行技术修复、销毁。如果人工智能造成他人财物损害是由其自身的技术原因造成的,则应该对其进行技术上的修复,若无法进行技术上的修复且存在进一步的潜在风险,则可能要对其进行技术销毁。人工智能所承担的这种责任类似于行政责任和刑事责任。但这两个方面是人工智能行为的一体两面,很难且也没有必要进行区分。综合法律主体论意味着对人工智能要进行综合立法,即对人工智能的法律主体地位、伦理道德、权利义务、法律责任等方面的内容作系统规定。对此,国务院2017年发布的《新一代人工智能发展规划》规定要“明确人工智能法律主体以及相关权利、义务和责任等”“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。”根据这一发展规划,我们似乎可以预见,一部关于人工智能的综合立法必将随着人工智能时代的来临而呼之欲出。

猜你喜欢

刑罚刑法主体
论自然人破产法的适用主体
过度刑法化的倾向及其纠正
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
技术创新体系的5个主体
《刑法》第217条“复制发行”概念的解释与适用
断盐也是一种刑罚
关于遗产保护主体的思考
刑法的理性探讨
怀旧风劲吹,80、90后成怀旧消费主体