人工智能产品作为刑事责任主体之可能性探究
2021-08-23孙天洋
摘 要:随着人工智能技术的迅猛发展,我们应提前预想到人工智能时代可能面临的法律隐忧,明确不同类型的人工智能产品的法律特征和法律地位,并就我国刑法应当如何合理应对人工智能时代所带来的刑事风险展开具体的分析与讨论。弱人工智能产品不能作为刑事责任主体;强、超人工智能产品在设计编程范围内不能成为刑事责任主体,但其基于自由意志、超越设计编程范围自主实施犯罪行为时或是在刑法有明文规定的情况下能够作为刑事责任主体。此外,即便承认人工智能产品能够具有刑事责任能力,其刑事责任能力同自然人主体一样亦存在着增强或减弱、完全或受限的情形。
关键词:刑事责任主体;刑事责任能力;弱人工智能产品;强人工智能产品
中图分类号:D914;TP18 文献标识码:A DOI:10.13677/j.cnki.cn65-1285/c.2021.02.10
欢迎按以下方式引用:孙天洋.人工智能产品作为刑事责任主体之可能性探究[J].克拉玛依学刊,2021(2)68-73.
一、人工智能产品作为未来刑事责任主体的法理设想
人工智能技术在多学科内广泛应用并取得丰硕成果的同时,大量人工智能产品致人损害甚至死亡的案例使学界产生能否赋予人工智能产品刑事责任主体地位,用刑法规制人工智能技术的发展的设想。[1]事实上,何种人工智能产品在何种条件下能够作为刑事责任主体应进行类型化分析。学界对于弱人工智能产品能否作为刑事责任主体的意见较为一致,弱人工智能产品可以在设计和编制的程序范围内独立判断并自主作出决策,但是,因其不具有辨认能力和控制能力,且其意志完全受控或受制于人类设计和编制的程序,因此可以将弱人工智能产品看作人类改造世界的新型工具。[2]故弱人工智能不可能也不必要成为刑事责任主体。但是对于强、超人工智能产品的刑事责任主体地位的认定,学界存在两种不同的观点。第一种观点为肯定说[3],该种观点认为强人工智能产品在设计编程范围外独立地实施犯罪行为时可以作为刑事责任主体。第二种观点为否定说[4],该种观点对人工智能产品独立承担刑事责任持谨慎态度(由于超人工智能产品是强人工智能产品的升级版,具备并超越强人工智能产品的一切功能,笔者在此主要针对强人工智能产品展开论述)。
(一)未来刑事责任主体理论的变革——“拟制人”概念的深化
法谚云:“无责任者无能力”,即只有具备刑事责任能力,才有可能作为刑事责任主体,承担刑事责任。[5]责任能力是指进行责任非难所要求的行为人的能力。刑法上所讲的责任能力包含辨认能力和控制能力两方面的内容。辨认能力又称认识能力,指行为人认识自己实施的特定行为的内容、社会意义和结果的能力。控制能力又称意志能力,指行为人支配自己实施或者不实施特定行为的能力。我们应当看到,有无辨认和控制能力是能否具有刑事责任能力的前提,而刑事责任能力则是认定刑事责任主体的核心要素。但任何一部法律,任何一条法律原则都有其产生的特定历史原因,刑法的基本原则也不例外。现行刑法确立的基本原则主要来源于18世纪后的启蒙思想,囿于当时的社会历史环境以及科技发展程度,彼时的法学家不可能认识到人工智能技术的产生和发展,更难以想象到人工智能技术给现行法律体系带来的重大冲击。在人工智能技术大规模应用的新形势下,对传统刑法基本理念和原则的重建势不可挡。[6]
在刑事责任理论发展的过程中,学界对于刑事责任主体的认识经历了多次重大变革,在可以预见的未来,人工智能技术高度发达,人工智能产品大规模走入人类社会中,成为人类社会不可或缺的一部分时,刑事责任主体理论完全有可能进一步发展和延伸,将责任主体的范围扩大到包含人工智能产品这一类拟人的产物进而更好地保障人类社会的安定发展。[7]判断某些主体能否作为法律主体的本质在于其是否具备独立的法律人格。虽然单位和人工智能产品都可能被刑法拟制成为“人”,但我们应当看到二者的核心区别,即单位意志的本质来源是自然人的共同意志,而人工智能产品意志的本质来源是程序与算法。可以说是否承认人工智能产品的独立意志的来源是新刑事责任主体理论能否包含人工智能产品的关键。弱人工智能产品由于完全依赖于人类的编程和算法的控制,其不具备独立的意志自由,故而不可能具备独立的法律人格,更不可能独立的作为刑事责任主体去承担刑事责任。而强人工智能产品、超人工智能产品具备着比肩甚至超越人类的深度学习能力和独立的思维能力,其完全可能超越编程和算法产生自己的独立意志。从这个角度上讲,机器人完全有可能通过横向的学习来实现法律人格的独立。其基于自由意志实施犯罪后,作为刑事责任主体承担刑事责任符合刑事责任主体理论在不同社会历史条件下的发展进程,且有助于维护现行刑事责任主体理论内涵的统一。
(二)人工智能產品作为刑事责任主体的前提——“拟制人”的刑法地位
赋予智能机器人法律主体地位并非无稽之谈,而且一些国家早有先例。如2017年10月25日,沙特政府决定授予智能机器人“索菲亚”国籍;日本议会通过立法案准备授予智能机器人工人身份都很好地体现了这一点。但赋予人工智能产品“拟制人”的地位就不得不探讨人工智能机器人在法律上的地位以及人与人工智能机器人的法律关系。1956年科幻小说家阿西莫夫首次在他的作品《圆舞》中明确阐述的“机器人三原则”可以给予我们很好的启发。即第一法则:机器人不得伤害人类个体,也不得以其不作为致使人类个体受到伤害。第二法则:机器人应当服从人类个体给予的所有命令,除非该命令违反第一法则。第三法则:机器人应当在不违背第一法则或第二法则的范围内关注自己的安全。[8]虽然“机器人三原则”不是法律原则,甚至连法律规则也谈不上,至多只能算作是人与机器人之间伦理道德的一种构想,但却不能否定其创设性的指导意义。在笔者看来,虽然未来的刑事责任主体理论可能深化,刑事责任主体这一概念也可能外延使之包含人工智能机器人这一“拟制人”。但是我们对智能机器人所享有的法律地位应当秉持承认与限制并存的态度。[9]从人类高于人工智能机器人,人类创造人工智能技术,以及人工智能技术的工具属性的角度来看,人类与人工智能机器人的法律地位天然的不能平等。但是法律可以在一定程度上赋予人工智能产品特定的法律主体地位,将人工智能产品纳入刑法的规制范围加以保护或打击,以期使其享有特定权利、履行特定义务。
(三)刑法规制人工智能主体的意义——“拟制人”的保护与约束
笔者认为,在刑法领域,赋予人工智能产品法律主体地位的好处之一是其可以更好地受到刑法的保护。与自然人“天赋人权、人人生而平等”的权利来源不同,人工智能产品的权利只能来自于法律的明文规定。人工智能产品的工具属性决定了其不能像自然人一样拥有人格权,更谈不上拥有配偶权、亲权等。但人工智能产品不同于动物或其他物品,其拥有着类似人一样的思维和意识,不能将其简单的归结为刑法意义上的财物。刑法若赋予人工智能产品类似于人类的“生命权”“身体权”,赋予未来可能独立存在自食其力的人工智能机器人“财产权”,将人工智能产品列为刑法保护的对象,使其特定“权利”免遭自然人或其他人工智能产品的肆意践踏和侵害,通过刑法的规制更好地满足人工智能产品的“精神”需要、“物质”需要,使人工智能产品拥有更强的归属感、安全感,这将更加能够解放人工智能产品本身的生产力和提高人工智能产品从事生产劳动的积极性,使之与人类一同建设更加美好的社会。诚然,人工智能产品虽不必要亦不可能如人类一样享有完整的人身权、财产权,人类也不可能牺牲自身的权益去保障人工智能的利益,但是笔者认为,适当保障人工智能产品的上述权利,有助于规范自然人与人工智能产品、人工智能产品与人工智能产品间的法律关系,使此种关系长期稳定地发展。
有权利必有义务,赋予人工智能产品法律主体地位的另一好处是其作为刑法主体必然要承担刑法上的作为和不作为义务。刑法的根本目的在于惩罚犯罪和保障人权。我们可以通过刑法的指引作用、评价作用、预防作用、教育作用降低人工智能产品自发实施犯罪的风险。如果人工智能产品独立地实施了违反刑法的行为,造成了严重的损害结果而其自身对此又具有辨认和控制能力,人工智能产品进行的“犯罪”行为和自然人犯罪行为本质上并无区别,其完全应当单独承担刑事责任。在此情形下,刑法规范就可以对其加以惩戒,以期达到教育和改造的目的,恢复被其侵害的社会秩序。对人工智能产品独立地加以处罚使人工智能产品受到刑法的威慑,使之不能、不敢实施犯罪行为,这将有助于减少人工智能产品自发实施的犯罪,为人工智能时代下社会的稳定发展提供强有力的保障。
二、人工智能产品作为刑事责任主体的制度支撑
(一)现行刑事责任主体制度的实然规定
在我国目前的刑法体系下,根据《刑法》第17条、第18条、第30条的规定,只有具有刑事責任能力的自然人和单位才能作为刑事责任主体。
根据我国刑法对于两种刑事责任主体的不同规定,影响自然人辨认和控制能力的因素包括两个方面:年龄和精神状态。即自然人的辨认能力极大程度上受到年龄的影响,据此,《刑法》第17条依照年龄的大小,将自然人的刑事责任能力从无到有划分为三个不同程度。第一,未满14周岁的未成年人不承担责任,此期间为绝对无责任时期。第二,已满14周岁不满16周岁的人仅对八种特定的严重犯罪承担责任,此为相对负责任期间。第三,已满16周岁的人应当负刑事责任,此为完全负责任期间,但因其未满18周岁,故而应当对其从轻或减轻处罚。一般而言,辨认能力是控制能力的前提,没有辨认能力便谈不上控制能力。自然人的控制能力较大地受到精神状态的影响,精神状态异常或者生理缺陷均可能降低控制能力,故我国刑法也包含了对精神病人、聋哑人从轻减轻处罚的规定。对自然人而言两者并重,只有既达到刑事责任年龄同时又精神正常的人才具备完全的刑事责任能力。
(二)人工智能产品作为未来刑事责任主体的规范辨正
1.弱人工智能产品不能作为刑事责任主体。笔者认为,弱人工智能不可能也不必要成为刑事责任主体。主要原因有以下几点:第一,不具备完全的辨认能力和控制能力。如弱人工智能产品自动驾驶汽车,虽然具有一定程度的识别能力,但其对自身行为的识别和控制能力处于较低层级。辨认能力不仅是对事实的认识,更是对事实所蕴含规范意义的认识,弱人工智能机器人最多只能认识到事实(包括错误的事实),而不可能认识到事实的性质、作用等规范层面上的意义。如自动驾驶汽车虽然可以通过其搭载的雷达、摄像头、传感器等设备辨认车辆当时的状态是处于前进、后退或是转弯之中,也可以通过其搭载的程序对车辆的运行状态进行控制。但在自动驾驶汽车交通肇事的案件中,自动驾驶汽车只能认识到其正在控制着汽车的行进,其行进的路径上有某种类似人的障碍物,其保持行进状态对障碍物进行了碾压,但其却不能理解其行为在刑法上的规范意义,不能认识到其行为已经构成了刑法上的危害行为并且导致了严重的损害结果,可能成立交通肇事罪。第二,不具备独立的自由意志。以自动驾驶汽车为例,虽然其在驾驶领域对车辆拥有着超越人类的控制能力,对危险有着先于人类的认识能力,但其只能在编程预先设定好的目的——从某个“起点”到达“终点”这一特定范围内进行自主决策,其实现目的的手段和方法也完全依赖于人的事先输入,并不具备超越程序和算法以外独立决策的能力,故其完全受控于人,实现的只能是设计者、使用者的意志。若自动驾驶汽车在人的指令下对行人进行了碾压,因其意志完全被剥夺,进而丧失了独立的法律人格,也就丧失了承担刑事责任的可能性。
2.强、超人工智能产品在一定条件下可以作为刑事责任主体。笔者认为,强人工智能产品在设计编程的范围内不能成为刑事责任主体,而在编程以外基于其自由意志独立地实施犯罪行为时能够作为刑事责任主体。强人工智能产品在刑法中明文规定(如现行刑法中规定的法定犯、法律拟制等)的情况下能够作为刑事责任主体。
首先,强人工智能产品能够独立地实施严重的危害行为。即能够实施与自然人犯罪相同的危害行为。犯罪的本质是不法和有责。我们应当意识到在可以预见的未来,不仅是人能够辨认和控制自己的行为,也不仅只有人才能实施犯罪的行为。如果人工智能产品具有刑事责任能力时基于独立意志实施了犯罪行为,那么根据法律面前人人平等的基本原则,其就应该与其他主体一样独立承担刑事责任,接受刑法的制裁。为了避免实施的客观危害行为相同、产生的危害后果相同、非难可能性也相同,仅因自然人主体或者是人工智能主体的不同而同案不同判的矛盾情形,应当承认强人工智能产品的刑事责任主体地位。
其次,强人工智能产品能够具有刑事责任能力,即刑法规定的承担刑事责任所必需的高度的辨认和控制能力。如前所述,辨认能力和控制能力是刑事责任能力的核心。强人工智能产品可以通过摄像头、雷达、芯片等设备对其当下的状态和实施的行为进行辨认及控制,這与弱人工智能产品和一般机器人并无本质区别。但不同于弱人工智能产品和一般机器人的是,由于大数据、云计算和蒙特卡洛树等技术的加持,强人工智能产品具有更加强大的感知能力和深度学习能力。此种类似甚至超越一般人类的辨认、控制的能力,使他们不仅能够认识到自己正在实施的行为,亦完全可能认识到其行为的规范意义和法律后果,这是刑法能够对其进行否定评价的前提。如果事先在人工智能产品的程序中植入人类为其设定的机器人伦理道德和行为准则,再使其超出程序范围之外深度学习人类的法律规范、社会规范、伦理道德规范,使其完全能够认识和理解自身行为在刑法上的意义、可能产生的刑法后果乃至达到刑法规定的承担刑事责任所要求的程度,也是完全可能的。
再次,强人工智能产品具有独立的自由意志,即具有能够选择“为”与“不为”的能力。由于强人工智能产品在综合领域具有独立自主的思维,其对人类预先输入的编程和算法的依赖程度较小,不仅能够执行编程范围内的任务,更能脱离于人类的编程和控制之外独立地完成一定的任务。若此种强人工智能产品在编程和算法范围之外产生独立思想,生成了独立的犯意,并且在能够选择实施何种行为时,却在自我意志的支配下实施了犯罪,这就说明其具有相当的主观恶性和人身危险性,故而刑法带来的不利后果亦应该由该人工智能产品本身承担,这符合罪责自负原则的要求。
三、未来人工智能产品刑事责任主体制度的应然设想
(一)利用弱人工智能产品实施犯罪的刑事责任分担
自然人利用弱人工智能产品实施犯罪后,可以通过现行刑法加以规制。若研发者或使用者利用弱人工智能产品实施犯罪行为,其相当于研发者或使用者的犯罪工具,可以将其视作犯罪分子手足的延伸,只对犯罪分子进行处罚即可达到预防和惩罚的目的。但在利用弱人工智能产品进行犯罪的不同情形中我们应当认识到研发者和使用者的刑事责任是有区别的。第一,若该弱人工智能产品在设计之初便是以实行特定犯罪为目的,则可以认为研发者对弱人工智能产品实施的全部该类型犯罪均具有概括的故意,而且可以认定其与使用者构成该罪的共同犯罪,是帮助犯,应当为此承担刑事责任。第二,若该弱人工智能产品在设计之初本身只具有正常使用的功能且研发者尽到了注意与提示义务,而是被使用者故意用于实施犯罪行为,在此种情况下,应当认定研发者不构成犯罪,只由使用者承担刑事责任。[3]第三,若该人工智能产品本身具有设计缺陷,进而被使用者用于实施犯罪行为,该种情况下则以设计者有无违反注意义务而构成过失犯罪或意外事件。使用者应当构成故意犯罪,而且是该故意犯罪的间接正犯。
(二)强、超人工智能产品实施犯罪的刑事责任分担
强人工智能产品刑事责任分担问题应当依据其是否具有独立意志而作不同区分。第一,强人工智能产品在设计和编程范围内实施的犯罪行为与弱人工智能相同,不能独立承担刑事责任,此处不再赘述。第二,强人工智能产品在设计编程范围外产生独立意志进而实施犯罪的情形下可以独立承担刑事责任,其亦可以和其他自然人主体或人工智能产品构成共同犯罪。在人工智能产品犯罪中亦应该区分故意或过失的主观罪过。在人工智能产品故意犯罪的场合中,由于人工智能产品不完全平等的法律地位,以及人工智能产品独立意志的产生和来源均与人类不同的特点,刑法应当对人工智能故意犯罪的罪名、犯罪构成、犯罪形态等进行不同的规定。在人工智能产品过失犯罪情形下,由于强人工智能在特定领域具有超越人类的认识能力、学习能力以及对危险的掌控能力,故刑法在人工智能过失犯罪中亦应该设定比自然人更高的注意义务和更加严格的责任。第三,我们还应该认识到,虽然人工智能产品能够具有刑事责任能力,可以作为刑事责任主体,但与自然人主体一样,其刑事责任能力也应当根据不同类别和用途、不同智能程度、不同的学习深度和广度而有所不同。对其刑事责任能力的划分也可以采取类似自然人的规定分为完全刑事责任能力,限制刑事责任能力和无刑事责任能力。另外在不同的客观条件下(如经济、地域、气候等)、在不同的特定环境中(如紧急时刻、故障等),也应当承认人工智能产品刑事责任能力的加重或减轻。只有如此才能做到不偏不倚,罪刑相适应。
四、结语
因为法律不可避免的具有滞后性,虽然现行刑法并未明确人工智能产品的刑法地位,亦未赋予其刑事责任主体资格,而且目前对人工智能这一新生事物作出完备合理的规定尚有一段距离,但这并不妨碍我们以前瞻性的眼光去探讨其被赋予刑事责任主体地位的可能,亦不妨碍我们在此假设的基础上开展后续问题的探讨。[10]笔者认为,拓展刑事责任主体理论、扩大刑事责任主体概念的内涵使之包含某些人工智能产品,将人工智能产品纳入刑法的规制和保护的范围,以及推动现行刑法的修订是人工智能新时代背景下刑法研究者的努力方向。
值得注意的是,若赋予人工智能产品刑事责任主体资格将不可避免的对我国现行刑法体系特别是刑罚制度带来巨大的冲击。现行刑法规定的刑罚是仅能适用于自然人和单位。若用处罚自然人的自由刑和生命刑来处罚人工智能产品,当然不能产生刑罚想要实现的效果。因为人工智能产品本来就不具有人的生命特征,有些人工智能产品甚至不具备物理形态,对其施加限制人身自由的刑罚和剥夺生命的刑罚本就没有可能,更没有意义。若单纯基于人工智能产品的工具属性来看,其难以拥有私有财产,更遑论对其处以财产刑。笔者认为对人工智能产品的处罚方式亦应该随着其特性而进行改变,如依据不同智能机器人自身的特点对其增设删除数据、修改程序、永久销毁等刑罚。[11]只有未雨绸缪提前做好准备才不至于在人工智能时代真正来临时手足无措。
参考文献:
[1]刘宪权.人工智能时代的刑事风险与刑法应对[J].中国检察官,2018(9):79.
[2]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(1):134-142.
[3]刘宪权,林雨佳.人工智能时代技术风险的刑法应对[J].华东政法大学学报,2018(5):46-54.
[4]刘宪权.人工智能:刑法的时代挑战[M].上海:上海人民出版社,2018:124.
[5]张明楷.刑法学[M].北京:法律出版社,2016:121.
[6]刘宪权,房慧颖.涉人工智能犯罪的前瞻性刑法思考[J].安徽大学学报(哲学社会科学版),2019(1):108-117.
[7]夏陈婷.人工智能时代的刑事归责路径探析[J].法治社会,2019(1):46-53.
[8]阿西莫夫,叶李华.机器人三定律[J].意林,2018(3):21.
[9]刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].中国检察官,2018(11):77.
[10]刘宪权.涉人工智能犯罪刑法规制的路径[J].现代法学,2019(1):75-83.
[11]刘宪权,房慧颖.涉人工智能犯罪刑法规制的正当性与适当性[J].华南师范大学学报(社会科学版),2018(6)109-115.
[11]刘宪权.人工智能时代我国刑罚体系重构的法理基础[J].法律科学(西北政法大学学报),2018(4):47-55.
收稿日期:2020-12-23
作者简介:孙天洋,华东政法大学刑事法学院硕士研究生,研究方向:刑法学。