人工智能体犯罪的刑事归责
——以自动驾驶汽车为例
2019-02-21刘旭
刘 旭
(中南财经政法大学 刑事司法学院,湖北 武汉 430073)
人工智能概念的首次提出是在1956年召开的达特茅斯会议上。随着科技的发展,自动驾驶车辆等人工智能体逐渐走入人们的日常生活之中,然而,任何事物都具有两面性,科学技术的发展也不例外。高级阶段的人工智能体逐渐摆脱人类控制,拥有相对独立的意识和自主行为能力,它在为人们的生活带来便利的同时,也给现行法律制度带来了巨大的冲击。在刑法层面,面对人工智能体犯罪,刑法将面临无从限制的境地。因此,笔者将以自动驾驶汽车为切入点,从自动驾驶模式下交通肇事罪的困境和出路着手,提出人工智能时代刑法的应对之路,以期弥合刑法在时代发展面前的滞后性,促进刑法的发展和完善。
一、人工智能体对现行刑法的挑战——以自动驾驶汽车为例
自动驾驶汽车是指使用传感器对道路进行侦测、识别,通过特别设计的电脑程序对操作系统进行控制的车辆,其具备驾驶过程中自动调整速度、变更驾驶方向、紧急情况下的刹车、停车的功能。美国汽车工程师协会以智能化程度为标准,将智能汽车划分为五个等级。其中前三等级为智能辅助系统,驾驶过程中控制车辆运行的是驾驶者,交通事故发生后的法律责任承担主体与非智能汽车交通事故法律责任承担主体一致,不会对传统的法律体系造成冲击,故在此不作讨论。第四、五等级是指汽车在行驶过程中间歇性或完全地脱离驾驶者的掌控,传统驾驶者不再控制车辆的运行,车载智能系统成为车辆“驾驶者”,汽车实现自动驾驶。本文所讨论的自动驾驶汽车仅指该分类中的第四等级和第五等级。自动驾驶系统不会像人一样产生判断失误、疲劳、松懈等状况,因而能够极大地降低交通事故发生率,为人们提供更加安全、便捷的出行环境。但驾驶环境会受到各种各样的因素影响,自动驾驶汽车发生交通事故的情形也在所难免。在刑法层面,自动驾驶技术将引发交通肇事罪的适用困境,困境的根本原因具体体现在以下方面:
(一)犯罪主体的不适格
交通肇事罪的犯罪主体既可以是车辆的驾驶者,也可以是车辆的实际控制者,无论何种主体,均与车辆的驾驶活动产生联系。但在自动驾驶模式下,传统意义上的交通肇事罪主体已经不再控制车辆的运行,车辆驾驶者的角色被无人驾驶系统所替代,车辆的驾驶活动由车载智能系统控制。车辆上的乘客仅实施了启动自动驾车车辆的行为,该行为并非为刑法意义上的犯罪实行行为,因而无法成为交通肇事罪主体。
(二)犯罪主观方面的非契合性
交通肇事罪是典型的过失犯罪,其成立以行为人违反注意义务为前提。所谓违反注意义务,是指违反结果预见义务和结果回避义务。在自动驾驶模式下,乘客乘坐并启动自动驾驶汽车的行为是基于对车辆安全性能的信赖,乘客既不具备对危险结果的预见义务,也谈不上具有对结果发生的避免义务,故不满足成立过失犯罪所应具备的主观过错。因而,自动驾驶模式下交通肇事罪的成立存在主观方面的非契合性。
(三)因果联系的差异性
要将发生的危害结果归责于某一行为主体,就必须要求该行为主体的实行行为与危害结果之间具有客观内在联系,也即因果关系。[1]因此,行为人的行为与危害结果之间的因果联系是刑事归责的重要条件,在不具备因果关系的情形下,不能要求行为人承担刑事责任。在自动驾驶模式下,车辆的所有者、驾驶者和乘客选择自动驾驶车辆并不存在主观上的过错,交通事故的发生是由于自动驾驶系统的原因或者外界因素干扰所致,驾驶者和乘客的行为与交通事故之间并不具备刑法上的因果关系。因此,当自动驾驶车辆的所有者、驾驶者或者乘客的行为与交通事故之间不存在因果关系时,盲目对之科处刑罚有违现代刑法的罪责自负原则。
二、人工智能体的犯罪主体地位及刑罚体系的完善
在人工智能技术的发展趋势下,人工智能体将会具备独立的认识和意志,并且能够在人类控制范围之外活动。若人工智能体基于意志自由实施犯罪活动,现有刑法体系无法对人工智能体进行归责。因此,我国刑法必须深入研究将具备高度自主性的人工智能体纳入刑事责任主体范围的可行性,并在此基础上探索建立与之相适应的刑罚体系。
(一)人工智能体犯罪主体地位
在人工智能体实施犯罪行为,造成严重法益侵害的情形下,否定行为构成犯罪的主要依据是人工智能体不具备犯罪主体地位,具体表现为对人工智能体行为的主体性和刑罚感知能力的质疑。笔者将对以上两点质疑进行正面回应,试图说明人工智能体能够成为犯罪主体的理论依据。
1.人工智能体是对现行刑法行为主体的突破。“无行为则无犯罪亦无刑罚”这句格言诠释了行为在刑法构造中的基础性地位。刑法理论界虽然存在“行为”概念的不同学说,但我们从中可以抽象概括出行为的一般性特点:第一,行为必须与人的主观意志相结合,是意志支配下的产物;第二,行为能够对他人或者社会产生影响,具有互动性。从法哲学的角度讲,刑法上的行为主体必须具备思辨理性和实践理性,能够自由决定为或不为某种行为,并能为自己的行为后果承担刑事责任。
人工智能体虽然不是生命体,但具有独立的思维能力和一定的自主行为能力。[2]在发展的初始阶段,人工智能体还只是传统意义上的“工具”“产品”,并不具备独立的认识和意志,所有的外在“行为”都是通过程序、算法预先设置的,因而也就不具备犯罪主体地位,无法对其实施的“行为”承担刑事责任。但在世界各主要国家都将人工智能体纳入战略发展计划的背景下,人工智能体技术飞速发展。通过对大数据深度分析,人工智能体在某些方面的能力甚至已经超过人类。自动驾驶系统通过使用单目或者多目摄像头,实现类似人的视觉感知,并在复杂的路况和交通条件下,完成多角度多目标的识别任务和智能避障功能。就人工智能体所具备的独立意识和自主行为能力而言,其已满足作为刑法行为主体所应具备的条件,是对现有刑法体系下行为主体概念的突破。
行为主体的概念主要是以自然人为中心而建立,[3]但我国刑法同样赋予了无生命体特征的单位行为主体的地位,这为同样作为非生命体的人工智能体突破现有行为主体框架提供了可能。之所以能将单位纳入到刑事责任主体范围之内,是由于单位通过聚合其内部的成员意志形成集体意志,该集体意志就是单位的独立意志。高级阶段人工智能体的“内核”是通过强化模仿和学习人的思维体系而形成的,与单位的集体意志相比具有更强的意志自由。因此,既然能够将单位规定为犯罪主体,那么将人工智能体纳入到犯罪主体范围之内,使其独立承担刑事责任具有合理性。
2.人工智能体具备刑罚感知能力。反对赋予人工智能体犯罪主体地位的学者认为,人工智能体无法感知刑罚,刑事责任的承担流于形式,并无实际意义。笔者认为,人工智能体虽然不是生命体,但能够感知生命,因而具备刑罚感知能力,通过技术设计和制度安排,对人工智能体施加刑罚能够实现刑罚一般预防和特殊预防。
首先,人工智能体具有感知生命的能力。特殊的非生命体也能感受生命,尤其是高级阶段的人工智能体,能够具有类似人的思维能力。从生物学的角度上看,大脑超高数量级的脑细胞的神经传导是人类产生意识的根源,大脑结构和神经连接上的差异与犯罪之间的联系也得到了初步的证明。[4]人工智能体在技术上可以实现模拟人类大脑结构以及神经连接,类似人的意识也由此产生。高级阶段的人工智能体能够确切地感受到自身的存在方式,同时也能够产生对于刑罚所带来的相对剥夺感。因此,为高级阶段的人工智能体量身定做相应的刑罚措施能够实现预防犯罪的目标。
其次,在技术层面,通过对大数据的整合学习,能够实现人工智能体对人类社会主流价值观的认可。人工智能体的研发者在研制人工智能体产品过程中,必须将人类社会认可的法律价值体系和道德规范体系植入人工智能体的“大脑”中,使人工智能体在“出生”的那一刻便已懂法、遵法、守法,在其存续期间通过系统的更新不断充实自己的法律“思维”,知道何者可为何者不可为。人工智能体所应习得的法律体系应该至少包括两个层面:一是人类社会中的本源性法律和基础性法律,包括宪法和刑法等;二是与人工智能体从事领域密切相关的法律规范。例如,自动驾驶汽车除了应该掌握刑法相关知识,具备区分罪与非罪的能力,还应理解并遵守道路交通安全领域的法律规范。此外,在人工智能体的研发过程中,还应通过程序设计使人工智能体在遭受刑罚时能够意识到自己的行为已经违反其“大脑”程序中的法律规范和道德体系,并感受到刑罚带来的“痛苦”。这样一来,人工智能体就能像人类一样体会到刑罚所带来的相对剥夺感,进而实现刑罚的一般预防和特殊预防。
(二)人工智能时代刑罚体系的完善
在赋予人工智能体刑事责任主体地位之后,必须在刑法中设置相应的刑罚措施,建立与之相适应的刑罚体系。人工智能体犯罪的社会危害性程度评价标准大体与传统犯罪社会危害性评价体系一致,但考虑人工智能体的特殊属性,还应有所不同。著名科幻作家阿西莫夫在其作品《我,机器人》中提出了著名的“机器人三原则”,即“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。笔者认为,“机器人三原则”就是人工智能体的行为纲领,对该原则的破坏越深,其犯罪的社会危害性就越大。因此,就人工智能体犯罪而言,伤害人类的犯罪比不听从人类命令具有更高的社会危害性,在人工智能体自身利益与人类利益相冲突时,应以保护人类利益为先。在具体刑罚设置上,结合现行刑罚体系,笔者建议根据实施犯罪种类的不同可分别对人工智能体实施以下刑事制裁措施:第一,对于实施严重危害社会行为的人工智能体,比照现行刑罚体系中的死刑,彻底销毁人工智能体,断绝其再犯可能性。第二,考虑刑罚的经济成本,对于虽然实施了具有社会危害性行为,通过更新其程序能够确保不会再犯的人工智能体,对其处以“修改、更新或删除程序”的刑罚。
三、人工智能体之外相关责任主体的归责路径
人工智能体进入社会之后的表现,与研发者、生产者和使用者的行为密不可分。相关主体若违反注意义务,致使人工智能体实施犯罪行为的,相关主体有可能因此承担相应责任。
(一)利用人工智能体实施犯罪的归责路径
在未来,利用人工智能体实施犯罪与利用具有刑事责任能力的自然人实施犯罪具有同样的效果,具体情形包括如下类型:第一,人工智能体与人类共同犯罪,即人工智能体与人类基于共谋实施的犯罪,此时应按照共同犯罪的相关规定加以规制;第二,人工智能体为人类所利用而实施某种犯罪,即使人工智能体具备刑事责任能力,但该项犯罪是人类利用人工智能体的“无意识行为”而完成,此时人工智能体不成立犯罪,而人工智能体背后的利用者成立该项犯罪的间接正犯。人工智能体充当犯罪工具的情形,会出现因为认识错误导致不同的刑事责任类型。例如,行为人为了利用人工智能体去杀害某甲,对人工智能体的程序进行篡改。但在犯罪实行过程中,人工智能体错将某乙当做某甲而杀害。此种情况属于对象错误,根据法定符合说的观点,“行为人所认识的事实与实际发生的事实,只要在犯罪构成范围内是一致的,就成立故意的既遂犯”。[5]
(二)研发者和使用者的监督过失责任
高级阶段的人工智能体能够通过模仿和高度的自主学习能力产生类似人的独立认识和意志,在独立意志支配下人工智能体可以实施犯罪行为。人工智能体虽然具备人类的某些特性,但归根究底只是一种服务于人类的产品。因此,在人工智能体实施犯罪行为时对人工智能体追究刑事责任之余,还应厘清人工智能体的研发者的相关责任归属。如果研发者和使用者在研发、使用过程中没有尽到应尽的注意义务,就有可能成立相关过失犯罪。世界各国刑法都以处罚故意犯罪为原则,处罚过失犯罪为例外,我国刑法也不例外。因此,即便需要对人工智能体外的相关主体追究刑事责任,也必须以刑法的相关规定为依据。
过失犯罪的成立以行为人具备预见可能性为前提,[6]人工智能体的研发者和使用者是否具备预见可能性应当以所处时代背景下的人工智能体技术发展水平为判断标准。换言之,如果在当时的技术水平下,人工智能体的研发者和使用者能够预见到危害结果的发生,那么就可以肯定研发者和使用者具备预见可能性。如果研发者或者使用者具备预见可能性,但是没有采取措施避免危害结果的发生,那么不履行结果回避义务与发生危害结果之间就具备刑法上的因果关系,人工智能体的研发者或使用者构成相关过失犯罪。
此外,人工智能体的使用者也对人工智能体产品负有一定的监督责任。使用者必须按照操作说明来使用人工智能体产品,否则,在发生危害结果的场合,使用者也有可能成立相关的过失犯罪。同时,人工智能体的使用者必须遵守相关操作领域的法律法规。例如,自动驾驶的使用者除了需要严格按照自动驾驶“出厂说明”外,在享受自动驾驶服务过程中必须遵守交通领域的法律规范。如德国最新交通法规规定,自动驾驶的使用者在乘坐过程中需要履行对自动驾驶车辆的“随时接管义务”。如果没有履行这一义务,导致危害结果发生的,就有可能成立交通肇事罪。