论智能机器人的法律人格及其刑事责任规范
2020-12-04肖姗姗
肖姗姗
(湖南师范大学 法学院, 湖南 长沙 410081)
一般认为,人工智能(Artificial Intelligence)可以分为弱人工智能和强人工智能,也可称为“一般人工智能”与“完全人工智能”[1]。对于两者的区分,有学者提出是以人工智能体是否具有认识能力与认知能力为标准[2]。人工智能的研究始于20世纪50年代初,经过60余年的发展,人工智能已经实现了从普通机器人时代到弱人工智能时代的迈进。亚马逊公司的个人助手 Alexa、谷歌公司的 AlphaGo、苹果公司的智能私人助理 Siri、特斯拉公司的自动驾驶汽车等人工智能体已经开始被运用到社会实践中。人工智能技术朝着强人工智能时代发展。
人工智能是社会发展的产物,在人工智能迅猛发展给我们的生活带来便利的同时,其所带来的不利后果也引起了人们的担忧。如1981年日本一家摩托车工厂的一名37岁的工人被身边工作的人工智能机器人所杀害。机器人错误地认为这一名工人为工作执行中的威胁,并用其认为最有利的方式将这一工人推向附近正在运行的机器,导致该工人死亡[3]。我国2017年发生了利用人工智能实施诈骗、利用人工智能技术侵犯公民个人信息等事件[4]。习近平总书记在2018年10月主持中共中央政治局第九次集体学习时强调,人工智能具有多综合学科、高度复杂的特性[5]。人工智能带来的风险具有一定的特殊性,给多个领域带来了一定的挑战,法律领域也不除外。作为人工智能体产品的代表[6],智能机器人是否具有法律人格,是否能称为刑事犯罪主体,是否具备刑事责任能力,如何突破传统的刑罚体系对智能机器人予以刑事处罚,这一系列问题需要刑法给予回答。
一、智能机器人及其法律人格
我国学者对人工智能的定义基本形成了统一,认为人工智能是“人为创造的智慧,即在计算机或其他设备上模拟人类思维的软件系统”[7]。然而,学界对于人工智能时代的机器人并未形成统一的界定。我们首先需要解决的是这一主体的概念问题,并进一步分析其是否具备法律人格。
1.机器人的定义
“机器人”可以追溯到斯拉夫语“robota”,意为“工作”。实际上,这一术语广为流传主要是因为其在科幻小说、科幻电影的运用。然而,由于统一概念的缺失,机器人与“人工智能体”(intelligence agents)、“自动化系统”(autonomous systems)和“半机器人”(cyborgs)等存在交叉重叠。随着人工智能的发展,国家标准化组织(the International Organization for Standardization)对机器人给予了定义,认为机器人是“一个可在两个或多个轴上编程的驱动机构,具有一定程度的自主性,在其所处环境中移动,以执行预期的任务”[8]。但由于专业性过强,这一定义并未被学界采用。然而,从这一定义可以看出机器人与传统机器和远程控制的机器的区别在于:机器人并不需要不断的外在输入,而是在设定的程序范围内自由且自主地运行。机器人不再是一种传统的机器,而是一种旨在提高人类行为可能性且具有自我技能的机器。人工智能时代的机器人旨在模仿人类解决问题的方法,即“人类智慧”。因此,人工智能时代的机器人等同于“人工智能体”,而非“半机器人”,是在拥有大量数据的智能系统中通过数据运行,在一定程度上实现了自动化。
就机器人而言,最为典型的几种类型为工业型机器人(industrial robots)、服务型机器人(service robots)、社会型机器人(social robots)及类人机器人(humanoid robots)。然而,就法学研究来看,谈及智能机器人,尤其是涉及到刑事领域的,主要以社会型机器人为主,其基础在于智能机器人的适用一定程度上将产生社会关系,从而成为刑法所调整的对象之一。近年来人形机器人得以较大发展,如日本本田公司生产的“Asimo”,已经学会了漫步、上茶、指挥交响乐等行为,而且还可以洞察人类心思。虽然设计这一类型智能机器人的初衷在于为人类服务,但其“类人”行为也意味着有朝一日它可能拥有与人类相同的机能,从而威胁人类的生存与发展。因此,本文所要探讨的人工智能时代的机器人,是以社会型机器人为对象,并结合当前的研究语境,将其定义为“智能机器人”。
2.智能机器人的法律人格
是否将智能机器人纳入到法律规制的范畴、能否追究其刑事责任,不仅关乎到人工智能的进一步发展,同时也有利于约束相关人工智能事件的法律责任。从人工智能的法学研究视角来看,首先需要应对的是智能机器人的法律人格问题。
结合传统的法学理论,判断一个主体是否具有法律人格,应当考虑以下3个因素:其一,有成为法律主体的能力;其二,具备法律主体所拥有的履行义务和享有权利的能力;其三,权利的享有需要以具备意识和选择能力为前提[9]。我国现行研究多从一般法理层面分析智能机器人的法律人格主要可以归纳为以下两种立场。
(1)智能机器人法律人格肯定说
肯定说也可以称为法律人格主体说,认为在现实的社会中,智能机器人的发展表明了其具备一定程度的智慧和多元功能,可以被赋予法律人格,并确认其享有法律主体地位。持这种观点的学者多从传统道德、伦理的角度予以分析,具体而言,他们从以下路径对智能机器人赋予法律人格。
第一,代理人格说。从伦理性、经济性和工具性视角入手,认为人类已经实现了“人可非人”到“非人可人”的历史演变,法律主体都是从法律承认到非法律构建的建构,伦理性并非智能机器人成为法律主体的必要条件。进而,从功利主义出发,“非人可人”的功利主义推动经济性法律人格的出现,如公司、法人团体。但是,结合智能机器人的学习性、独立性、交互性、技术性、可替代性来看,其区别于有生命的自然人和具有独立于成员意志的法人团体,因此,其法律人格属性也应当与自然人、法人的法律人格属性不同。虽然其具有法律人格,但仅体现的是为人类所创造并为人类社会发展服务的智慧型工具,本身具有局限性。因此,应当尊重“以人为本”的价值理念,赋予智能机器人代理的法律人格[10]。智能机器人与其研发人员或使用人员的法律关系应当认定为法律中的代理关系,进而根据代理关系探讨责任的分配[11]。
第二,法律人格拟制说。持这一观点的学者认为,从人类利益保护的角度出发,为适应人工智能给社会带来的影响,解决相应的纠纷,必须采用拟制的方法,像法律赋予胎儿人格一样,应当赋予智能机器人法律人格[12]。“人格”拟制(fictions)路径应当仿照第二类主体(法人)或第三类主体(动物),借助使“非人可人”的人格拟制技术,通过人类的相关实证法行为赋予而快速获得法律人格。基于智能机器人的灵活性,“沟通能力”将其拟制为“人”[13]。
第三,电子人格说。这一观点主要借鉴欧盟、美国等一些国家和地区的做法。例如:2016年欧盟委员会提交动议,建议制定《机器人法》,并赋予智能机器人以“电子人”身份;美国《统一电子交易法》将电子交易系统界定为“电子人”;沙特政府赋予对答如流且具备较强“交往沟通能力”的智能机器人“索菲娅”以“公民身份”;日本机器人“帕罗”获得户籍等。同时,结合法律主体的历史演变与法律主体的本体、能力及道德要素的法理基础,认为智能机器人已经具备了法律主体所要求的自主性和规范性 ,从而应当赋予其“电子人”法律人格[14]。
第四,限制人格说。它也可以称为“有限人格说”,认为智能机器人的法律人格有别于自然人和法人的法律人格,相应的法律责任和法律地位也存在差异性。其主要依据在于:基于主体的特殊性,智能机器人承担行为能力的后果是有限的,其所适用的法律规范与责任体系也应当有别于自然人与法人,具有相当性或有限性。虽然智能机器人是特殊性质的法律主体,其道德性应当被赋予和认可,但与自然人的关系是不平等的[15]。为调整适应智能机器人的有限法律人格,应当采用登记制度,从归责原则、保险规则、确立以人为本的监管机制入手,在立法上予以体系性规定,将智能机器人纳入到人类可控的范畴[16],从而防止智能机器人实施危害社会、侵害他人权益的行为。
除上述的几种主要观点外,还有学者提出了次等法律人格说、位格加等说、人格类比说等观点,为智能机器人的法律人格确定提供了思考[14]48。
(2)智能机器人法律人格否定说
这一学说也可称为法律人格客体说,认为智能机器人不可能具备法律人格,但可将其作为法律权利义务关系中的客体[17]。持这一观点的学者主要强调自然人的不可复制性、不可比拟性,认为人类在社会中的主体性地位不仅是由生理特性所构成的,更是人类文明发展、法律规范设计的结果。人类具有其他物种无可比拟的特性,即使其创造的智能机器人也不例外。机器人无法获得人类主体的“人格”,即使人类从法律规范的视角赋予其一定的“人格”,这也与人类本身所拥有的法律人格在性质上具有绝对的差异性,这种做法实现的仅是人类的一种拟制。持客观说的学者又从不同的角度对智能机器人的法律人格予以否认。
第一,道德能力的缺乏。有学者认为是否将一个主体认定为法律上的主体,首要前提在于其是否具有道德能力,没有道德认知能力的自然人或动物是不可能拥有法律主体地位的。这些学者认为智能机器人不具备法律主体的这一必备要件,从而不具有法律人格[18]。但也有学者对此提出了质疑,认为这种观点混淆了道德与法律的概念,法律主体不一定具有道德基础,如公司、团体法人,并主张“道德主体必然为法律主体,而法律主体未必是道德主体”[19]。
第二,责任追究的不能。有学者认为即使赋予机器人“人格”并就其相关法律行为予以规制,但涉及责任追究时,最终仍归于自然人,因此,这种法律人格的赋予是毫无意义的[20]。对于“权利” “义务”和“责任”的含义,只有人类才能予以掌握,智能机器人只能被设计成遵守规则,而不能理解规则。即使人类通过拟制的手段赋予智能机器人以人格,法律对其行为也无法从根本上予以规制,而只能通过相应的法律机制追究其背后研发人员、使用人员的相关责任[21]。
第三,智能机器人人格拟制路径不可行。这主要是针对仿照拟制法人法律人格拟制智能机器人的做法提出的批判。公司、法人团体等之所以能够通过拟制人类而成为法人,在于其为自然人的目的性集合或目的财产的集合,同时也是人类思维的集体反映,一定程度上是自然人行为能力的群体化。然而,智能机器人并不存在这一事实基础[13]54。智能机器人所创造的“智慧”仍在人类智慧的控制范围之内,即使是看上去能力惊人的索菲亚、AlphaGo也不过是在人类智慧的引领下所创造的特定智能体。因此,法律拟制智能机器人的做法不具有实践可能性。
就智能机器人而言,是否应当对其赋予法律人格。如果是,则应当赋予何种限度的人格,应当从哪一视角予以展开;如果不是,则应当如何预防智能机器人的侵害行为,责任机制应当如何落实。笔者认为,随着强人工智能的发展,智能机器人的法律人格的确立也将如法人的法律人格演变一样,必然随着历史的发展成为现实。我国学者对智能机器人是否具备法律人格存在争议的原因在于:虽然人工智能已经涉足我国的一些高科技领域,但离人们的社会生活还有一定的距离,大众还未切实感受到人工智能所带来的便利与威胁。当人们在生活中能密切感受到如达芬奇手术系统(Da Vinci Surgical System)一般的人工智能时,人工智能如同法人一般便会被纳入法律规制的范畴。
二、智能机器人的刑事法律人格思考
当然,在确定一般法律人格的情形下,留给我们进一步思考的是智能机器人是否能够成为刑事责任主体、是否具有刑事责任能力以及应当如何对智能机器人的犯罪行为予以刑事处罚,从而构建体系性的刑事法律规制。对此,我们首要解决的问题是智能机器人是否具有刑法意义上的行为能力,进而探讨其是否符合刑事责任主体的需求。
1.刑事法律人格
与其他部门法不同的是,刑法在强调一个主体是否能被纳入刑事法律规制的范畴时,主要考虑该主体是否具有自由意志,在拥有自由意志的前提下,是否能实行合理选择。
自由意志主要以“可供选择可能性”(alternative possibilities)为原则,认为只有行为人在多个可供选择的情形下,选择了一定的非法行为,却没有选择其他合法行为,才能对其追责[22]。然而,行为人是否能选择实施一定的行为,与之密切相关的是自由意志问题。持非决定论的古典刑事学派认为,人只要达到一定的年龄且精神正常,就具有为善避恶的自由意志,行为人明知犯罪是恶,能实施其他善的行为,但仍实施恶的行为,所以犯罪也是出于自由意志;持决定论的实证刑事法学派认为,人不具有自由意志,其行为是由因果法则所支配,人的行为非自由意志选择的结果,而是由素质和环境所决定的,认为人们可以对行为作出自由选择纯属幻想[23]。
无论是决定论还是非决定论,毋庸置疑,它们所探讨的自由意志都应当是现实社会结构的一部分[24]。正如本文第一部分所探讨的,留给我们研究的应当是具有社会交往能力、融入社会的智能机器人带来的社会问题。因此,对于智能机器人而言,对其予以规制的前提在于分析其在社会环境、社会交往过程中是否具有自由意志。
智能机器人是否拥有自由意志?我们首先必须承认其自由意志在本质上与自然人的自由意志存在区别。从传统哲学的角度出发,智能机器人不符合传统意义“人”的标准,原因在于其无法意识到自己的自由意志,也无法意识到自己是拥有过去和未来的独立存在,它们不具有理解权利和义务内涵的能力。因此,即使发展到强人工智能时代已具备较强的学习能力和认知能力的机器人,也不具备自然人所必备的意识和反应能力[8]16。因此,我们应当思考自然人的属性与智能机器人的属性是否存在一致性,刑事责任是否应当以传统的人格概念为基础。
在刑事法律范畴,我们应当区分“自然人”与“行为人”的概念,刑法中的主体并非仅限于“自然人”,如德国和我国规定的单位犯罪中的“单位”,也是刑法概念中的“行为人”。之所以如此规定,是人们通过社会交往所提炼的法律人格概念不再局限于生物性质的“自然人”,而是人们在具有一定目的的情形下提出的人为概念。这种性质的赋予是特定的社会在特定时期的规范过程。正因为如此,法律人格概念也会随着社会的变化而发生变化。
已有研究表明,智能机器人具有深度学习的能力,并能够像人类一样思考,无需人类手把手指导,可以借助其人工神经网络进行分析、决策,并完成任务[25]。由此,可认为智能机器人可通过深度学习获得自由意志所要求的选择性标准,即智能机器人已经具备“意志要素”;同时,智能机器人装有随机性发生器,他们的行为具有不可预测性,选择完成任务的方法或模式不完全受制于人类的外在命令,因而具备自由意志所要求的内生性标准,即智能机器人已具备“自由要素”[26]。因此,智能机器人已具备刑事法律人格,能基于自由意志进行合理选择。
2.刑事责任主体地位
刑法所讨论的问题,不应置于本体论中思考,而应当纳入社会现实予以分析。刑事责任主体要素的“辨认能力”和“控制能力”也不例外,它们并非指生理层面的要素,而是我们在追究刑事责任时所置于社会环境下所讨论的因素。行为主体之所以具备辨认能力和控制能力,主要在于其通过社会交往形成善恶的区分能力,并形成一定的自我认同。
摒弃生物学层面的“辨认能力”和“控制能力”的做法,并非是探讨智能机器人的责任主体地位时的独有现象。多个国家和地区将单位犯罪纳入刑事责任主体范畴的做法已经证明了人们开始放弃传统的法律人格概念,非自然人的主体已然成为了刑法所规制的对象,法律主体多样性已成为既定事实。然而,我们必须承认刑法中的行为主体不仅仅是强调权利和义务的存在,更是强调其在社会交往中对社会所造成的危害,引发国民的恐慌,从而公共意志试图通过立法将这一特定的主体纳入到刑法范畴。是否将一定的行为主体纳入刑法范畴,并非一时冲动即可为的,而是应当通过规范予以确信,我们通常所要求的行为主体所必须的“意识”和“反应能力”在本质上也是如此。就当下的人工智能发展和现有的智能机器人形态和实质来看,智能机器人本身并未构成犯罪的主体,而是研发人员或者使用人员故意设计或者过失管理而导致危害结果的发生。
当然,我们必须承认,随着人工智能的发展,“辨认能力”“控制能力”等属于传统刑事责任主体要素的属性在社会交往的过程中将发生一定的变化,智能机器人也将被纳入到刑事责任主体的范畴。后文所要论述的智能机器人的罪责,也将是在相应概念属性发生变化的情形下予以设想、分析和探讨。
三、智能机器人的罪责属性
谈及罪责,我们首先想到的是法律层面的“责任”(liability),但是责任的层面显然要广于罪责,它包括了宪法责任、行政责任、民事责任和刑事责任[27]。虽然刑事领域的“罪责”(culpability)概念来源于哲学中的“道德责任”(moral responsibility)一词,但随着“规范罪责”“人格罪责”“机能罪责”理论的出现,罪责与责任一词有了明显不同的界定。刑事法领域的罪责应当与犯罪(不法)密切相关,是犯罪实体的两大支柱[28]。就智能机器人而言,责任涉及多个领域,从现有的研究来看,主要探讨其侵权责任。也有刑法学者对智能机器人的刑事责任予以了肯定。如刘宪权认为,强人工智能体通过“电子眼”“电子耳”进行判断,具有刑法上的辨认能力,通过程序设计中的伦理、道德和法律规范的输入具有控制能力,强智能机器人比单位更接近于自然人,欧洲、美国等一些国家的做法更加体现了对强智能机器人刑事责任的肯定[29]。本文主要从刑法规范入手,探讨强人工智能时代智能机器人的刑事责任归属,因此应当与其犯罪相结合,采用的“罪责”概念与“刑事责任”层面的“责任”同义。
1.智能机器人的责任本质
从刑事法领域来看,罪责是指作为犯罪成立要件之一的有责性(blameworthy)[30]。关于责任的本质,有道义责任论、社会责任论和法的责任论3种理论学说。
其一,道义责任论以意志自由论为基础,认为人有选择意志的自由。当行为人能够选择其他合法行为而实施了符合构成要件的违法行为时,就可以对行为人进行道义上的非难。智能机器人是否具有道义?道义的前提基础在于伦理,即智能机器人是否具有伦理的判断力?从现有的智能机器人的发展来看,其暂时不具备伦理,从而也缺乏道义,如智能机器人为了救一名孩童可以以“牺牲”两名孩童的生命为代价[8]20。此时,智能机器人对“生命价值”的伦理性缺乏判断,从而其所谓“自由选择”能力仍具有较大的局限性。结合前文的分析来看,智能机器人的意志自由并非等同于自然人的意志自由,而是通过编程或设计拟制的一种限定范围内的“自由”,因此不符合传统刑法理论中道义责任所要求的自然人层面的“意志自由”的要求。当然,随着人工智能的发展,是否通过一系列算法的运用,对智能机器人拟定“伦理、道德”价值判断成为一种可能,也是值得期待的。
其二,社会责任论是从意思决定论立场出发,认为人是由素质和环境所决定的宿命的存在,人没有选择合法行为避免违法行为的自由,犯罪人之所以要承担责任,不是从道义上对他予以谴责,而是为了社会防卫的需要。智能机器人是否具有社会责任层面所有要求的“意志决定”?答案应当是肯定的,因为智能机器人的“意志”终将是由机器人本身的特性和其所处的环境所决定的,其难以具备传统严格意义上的“自由意志”。正如本文旨在探讨的对象——智能机器人——应当是运用于社会的机器人,之所以赋予其责任,是出于对强人工智能时代社会防卫的需要。
其三,法的责任论,也可以称为“法律罪责论”,其以刑法的任务法益保护为前提,认为刑法中的责任非难,是从作为社会统治手段的法的立场所进行的非难[23]160-161。不管人们如何界定刑法中实质意义的罪责,它都只是法律罪责,也就是它仅仅是对缺乏忠诚的责难。尽管在刑法中出现了社会评价,但刑法上的罪责责难不是一种道德审判,同时罪责责难也和个人所奉为权威的伦理标准的道德评价没有关系[31]。从法的责任论层面分析,智能机器人更符合这一要求,基于保护社会法益的需要,法律必将强人工智能机器人的违反规范的行为予以非难,使智能机器人成为处罚的对象。
从责任论的本质来看,传统的道义责任论已经退出了历史舞台,体现更多的为其与社会责任论的融合及法的责任论的发展。因此,无需论证也无需假设强人工智能时代的机器人是否具有意志自由、具有何种限度的意志自由,因为其已经具备刑法上责任本质的要求。智能机器人的责任本质可以概括为:因实施危害社会法益的行为,违反法律规范,从而具备刑法层面的责难可能性。
2.智能机器人为责任非难的对象
根据非难对象的不同,学界提出了以下几种责任理论:其一,意思责任(willensschuld),认为非难的对象是犯意;其二,行为责任(tatschuld),认为非难的对象是行为;其三,人格责任(chara-kterschuld),认为行为人的人格形成过程是犯罪的主要原因,对于此种危险之人格应予以非难[32]。那么,从这几个理论学说入手分析,智能机器人能否成为刑事责任所非难的对象?
首先,从意思责任的角度予以分析,能否将智能机器人纳入刑事非难的对象的关键点在于智能机器人是否具有犯罪意思(这种犯罪意思理所当然包括故意、过失)。对于智能机器人的研发设计人员、使用人员的故意或过失致使智能机器人实施损害行为的,可从间接正犯、工具理论予以分析。显然,此处所要探讨的是智能机器人这一独立个体的犯罪意思。随着人工智能的发展,智能机器人将超出人类的可控范围,并在自主意识和意志的支配下做出决策并实施危害社会或他人的行为,强人工智能机器人可能具备故意或过失的主观意思[33]。如果这种可能化为实际,从意思责任层面,智能机器人将成为刑法所责难的对象。
从行为责任论来看,其非难的对象主要为行为人实施的具有严重社会危害性的犯罪行为,思想和人格并非责任非难的对象,因此无需讨论智能机器人的人格、意志或思想问题,而主要是从智能机器人带来的危害行为入手。只要智能机器人实施了危害社会的行为,达到刑事法律规制范畴的标准,即可以被纳入责任所非难的对象。
从人格责任来看,责任非难的对象主要是行为人自主形成的人格。对此,有学者提出了不同的见解,认为人格责任包括受素质和环境所决定的,以及行为人有责形成的部分,后者被称为行状人格责任论,认为有责的人格形成责任,是由日常生活的行为状况所导致的。提出责任的第一次应当是行为责任,必须以行为人的行为为基础,但在行为的背后存在受环境和素质制约,同时也需要通过行为人的主体性努力而形成的人格,可以就这种人格形成中的人格态度予以非难[23]161-162。正如前文所言,当前对智能机器人的法律人格问题的研究仍存在较大的争议,但赋予或拟制智能机器人以法律人格及刑事法律人格是一种可能,也可以认为是一种发展趋势。这一点与行为后的人格责任显然具有相关性,如果智能机器人实施严重危害社会的犯罪行为,就应当就其背后的人格予以研究,探讨其人格是否具有自身努力的部分,如超出人类设计或控制的范围,故意或过失地实施犯罪行为。
从责任所非难的对象来看,强人工智能机器人必将成为可以责难的对象,其所潜在的危险也督促我们应当将这一主体纳入到刑事法律规制的范畴。
四、智能机器人的罪责形态与刑法规制
客观地分析智能机器人的犯罪类型,并探讨对这一犯罪如何予以规制,给我国的刑事法治带来了巨大的挑战[34]。具体而言,可以分为以下3种情况。
1.智能机器人被设计或编程实施故意犯罪
科学技术的发展在给人类提供便利的同时,也为不法分子提供了可乘之机。如计算机、互联网等为网络信息诈骗、侵犯个人信息类型犯罪提供了契机,人工智能的发展同样也会为不法分子实施违法犯罪提供机会。借助智能机器人实施故意犯罪的主要特点在于通过编程故意促使智能机器人实施犯罪,甚至设计“机器人杀手”(killer robot)。这种情形在我们所看到的科幻小说、科幻电影中并不罕见,但无人机、自动驾驶机器人的发展逐渐使得这种原本仅存于想象中的机器人在社会现实生活中出现。不法分子利用智能机器人故意实施犯罪行为的情形应当如何予以刑事责任的追究?本文认为,可以从现有的刑法理论出发解决这一问题。
在行为人是智能机器人研发人员的情况下,行为人通过编程对智能机器人予以客观支配,对其予以实质性的控制、故意实施犯罪行为的这种情形,应当归属于刑法传统理论中“间接正犯”的范畴。之所以不能将研发人员作为教唆犯、智能机器人作为被教唆犯处理,主要理由在于:在此种情形下,智能机器人缺乏规范意识,在编程范围内实施犯罪行为,实际上归属于研发人员控制,其行为体现的是研发人员的意志[35]。在行为人作为智能机器人的使用者,而非设计研发人员的情况下,使用者利用智能机器人为自身谋取利益。此时智能机器人被设计听从的执行命令主要来自于使用人(此种情形下可称为“主人”),主人可命令机器人实施违法犯罪行为,如人身攻击、侵入住宅等,这种情形被认为“和命令自己饲养的动物去攻击任何入侵者并无二致”[36]。
刑法要求刑事责任主体在实施犯罪行为时具有相对的自由意志,同时具有辨认能力和控制能力,从而在选择行为时,无论是从功利主义还是心理强制的角度,都能通过自我判断做出理性的选择[6]7。研发人员通过编程对智能机器人予以设定,使用人员通过强制命令指示智能机器人实施行为,其目的旨在利用智能机器人实施犯罪行为,智能机器人按照行为人所设定的程序、限定的范围执行命令实施犯罪行为,其缺乏合法行为的可选择性。此时,该犯罪行为所实现的是研发人员和使用人员的犯罪意图,智能机器人在此种情形下仅作为一种“工具”并被予以利用,因而犯罪的刑事责任应当归属于智能机器人研发人员或使用人员,而非智能机器人。
2.智能机器人基于设计或编程错误实施犯罪
这是当前机器人犯罪的最为普遍的一种形式。在这种情形下,智能机器人基于研发人员或者使用者的错误而实施犯罪行为,应当将刑事责任归于设计、编程的研发人员及使用人,还是归于智能机器人?这种情形下,应当结合刑法中的风险管理理论及过失犯罪理论予以分析。
从传统刑事法律规定来看,一般规定为故意犯罪,只有特定的情形才规定为过失犯罪。所谓过失犯罪,是指违反了预见义务,应当预见而没有预见或者已经预见而轻信能够避免,导致危害结果发生的情形[37]。根据风险管理学派的观点,在智能机器人的研发与使用过程中,研发人员和使用人员都应当具有风险管理及注意义务,但由于没有切实履行该义务而导致智能机器人在工作的过程中造成法益的侵害[8]23。这种情形主要涉及的是刑法中的过失理论。随着社会的发展,过失论不再限于学派之争中的旧过失论、新过失论和新新过失论,也加入了被允许的风险、信赖原则和监督过失等内容,过失理论体系得以丰富的同时,也为过失型犯罪的研究提供了基础[38]。根据传统的过失理论,研发人员或使用人员对智能机器人所带来的危害结果应负有预见义务。“已经预见轻信能够避免”通常适用于研发人员,其在研发的过程中“已经预见”智能机器人在未来的使用过程中可能导致某种危害结果的发生,但由于认为危险发生的概率较低且轻信能够避免从而将这一智能机器人投入市场,此种情形则属于“过于自信的过失”;研发人员因为疏忽大意未能对智能机器人予以全面检测、进行风险评估,从而导致危害结果发生的,属于“疏忽大意的过失”。这两种情形下追究研发人员的刑事责任。反之,若研发人员在研发的过程中履行了相应的风险评估及管理义务,发现了这种错误,出现意志以外的危害结果的发生,则应当阻却研发人员刑事责任的追究。当然,若智能机器人使用人员未能按照智能机器人的使用说明予以操作,从而导致危险结果发生的情形,也可从“过于自信的过失”或“疏忽大意的过失”两个层面追究使用人员的刑事责任[6]56。
除去传统过失理论中的“预见义务”外,应当强调智能机器人的研发人员与使用人员风险管理义务及监督义务,在这两种义务缺失的情形下,应当承当相应的过失责任。就风险管理过失而言,其中的“管理过失”是指“由于管理者没有建立相应的安全管理体制或者建立的安全管理体制不完备,或者对自己管理、支配范围内的危险源管理不善,而直接导致危害结果发生的情况,如管理者没有制定健全有效的安全管理制度,没有尽职尽责地配置、维护好各种设备,没有做好统筹的人事安排,或者对自己管理支配范围内的事务管理不当等”[39]。在实际操作运行过程中,研发人员、使用人员对智能机器人应当负有一定的风险管理义务,如定期进行检测、排查和维修,从而避免危险结果的发生。
我国学界对智能机器人过失实施犯罪的情形能否适用监督过失理论仍存在一定的争议。监督过失是指特定的人员通过指示、指导、指挥、命令、检查等行为履行监督义务,对被监督人的行为予以干涉,从而防范危害结果的发生[40]。持否定说的学者认为,在我国的刑事法律规定中,监督过失的责任主体一般是指具有领导职责的负责人、负有特定职责的国家机关工作人员。这种责任形式是一种严格责任,只有相当性的证据能够证明责任主体已经履行相应的监督职责,才能对其予以免责。智能机器人不属于被监督的主体,其研发人员和使用者也不符合关于监督过失责任主体的规定,因此不应当追究研发人员和使用人员的刑事责任[6]58。持肯定说的学者认为,监督过失责任不是代位责任,并不是让监督者承担被监督者的责任,而是在因监督过失的情形下监督者必须承当的责任。就自然人与智能机器人的关系来看,应当将其理解为监督与被监督的关系。因此,在智能机器人因监督人的监督过失而实施犯罪行为时,则应当追究作为被监督人的自然人的责任[38]57。笔者认为,从我国当前的刑法规定来看,似乎否定说能够从罪刑法定原则的角度对这种法律关系予以释义,然而,随着强人工智能时代的到来,必将冲破传统的刑法理论,从合理合法的角度追究智能机器人研发人员和使用人员的过失责任,从而降低智能机器人给社会带来的风险。
此外,还应当要求研发人员和使用人员的错误与智能机器人实施的犯罪行为之间存在因果关系。这主要讨论研发人员和使用人员在研发、事后检测、评估、调试、检修或使用之际,应当有注意义务和预见义务(不预见或预见了轻信能够予以避免),其不履行或未履行上述预见的作为义务与智能机器人所实施的行为之间必须具备因果关系,若积极履行了相应的义务,只是基于行为人的能力或认知水平,无法客观预见结果发生的情形,不应当以故意或过失对相关人员予以追责。
3.智能机器人基于其人工智能产生犯罪冲动实施犯罪
与前两种情形相同的是,这种情形下的智能机器人的运行与操作亦是由自然人事前予以程序设定,但差异性在于,在这种场合中的智能机器人产生犯意并非研发人员或使用人员的编程或过失导致,而是发展到强人工智能时代,类人机器人超出编程或设计的范畴,失去控制后自发性地实施犯罪行为。随着科技的快速发展,智能机器人可能具有跟人类一样的辨认能力与控制能力,能通过深度学习并超出设计或编程的范围实施危害社会的行为。从我国现行的《刑法》规定来看,就智能机器人自发性地实施犯罪行为的情形并无具体的法条规定。然而,结合刑法理论,无论是从刑事责任能力还是刑事责任的本质要求及对象要求,我们都应当从前瞻性的视角出发,通过立法将智能机器人犯罪纳入刑法规制的范畴。
综上所述,我国现有的刑法理论与刑法体系能够有效地应对前两种情形,但留给我们思考的是,随着未来强人工智能时代的到来,应当如何对智能机器人予以控制,以防止第3种犯罪情形的出现。这不仅仅是科学技术领域应当思考的问题,同时也是法律工作者的必然应对。因此,无论是从事理论研究的法学学者,还是从事司法实务工作的人员,都应当从前瞻性的角度出发,思考人工智能时代的刑事法律体系构建,对智能机器人的行为予以规制。针对智能机器人犯罪,探索适用于这一特殊主体的刑罚处罚方法和执行方式也已然成为重要议题。
五、结 语
从现有的一些现象来看,普通智能机器人所带来的危害行为可以从刑法框架里予以探讨。强人工智能时代并非指日可待,也并非遥不可及,这给我们的思考和应对带来了一定的缓冲期。当前,我们需要思考强人工智能时代机器人融入社会生活后超出人类设计和控制范围实施危害行为的可能性与责任的规制。从刑法理论来说,强人工智能时代的智能机器人符合刑法上所要求的法律人格及刑事法律所要求的责任本质要求,同时,实施严重危害社会行为的智能机器人也理所应当成为刑法所责难的对象。是否纳入刑法,以何种形式纳入刑法规定,对智能机器人犯罪以何种刑事处罚,这一系列问题的解决都是一个较为漫长的过程,需要我们秉承积极刑法观和风险刑法观的态度进一步思考和反思。