论刑法如何对自动驾驶进行规制
——以交通肇事罪为视角
2018-08-15卢有学窦泽正
卢有学,窦泽正
(西南政法大学 法学院,重庆 401120)
近年来,大数据、超级计算机以及机器学习的迅猛发展和日臻成熟,使人工智能(AI)技术在信息通信技术(ICT)领域得以快速发展,并被运用到各行业的解决方案中,比如自动驾驶、智能医疗、智能投顾、智能家居以及众多的互联网服务领域。可以预想,人工智能系统会逐渐渗透到社会生活的各个领域,并不断接近甚至超过人类的思维水平,使得机器不再是设计者或使用者的延伸,不再是“代表”设计者或使用者的意志,而是成为一种高度自主、脱离人类控制且独立作出判断的新的范式,即“不需要人类介入或者干预的‘感知-思考-行动’”[1]。
但是,随着“互联网+”向“人工智能+”转型进程的不断加快,人们对人工智能技术的风险以及技术滥用也越发担忧。例如,2016年1月20日,特斯拉无人驾驶汽车在京港澳高速河北邯郸段发生一起追尾事故,这是国内首例无人驾驶汽车致人死亡的案件。因此,为了应对自动驾驶汽车所带来的技术风险,许多国家都在不断地进行探索与创新:美国于2015年10月底发布了《美国国家创新战略》,突出了与人工智能相关的内容(如自动驾驶汽车、精准医疗以及智慧城市等);我国为了抓住人工智能发展的重大战略机遇与应对伴随机遇的风险,也于2017年7月8日印发实施了《新一代人工智能发展规划》。虽然人工智能的突飞猛进会产生一系列的风险,但就目前的发展情况而言,我们首先必须面对的是智能驾驶汽车所引发的风险,即自动驾驶汽车引发交通事故后,应如何确定犯罪主体、如何查明主观罪过、如何在“允许的风险”责任分配体系崩坏的情形下重新进行刑事责任的分配,以及如何证明存在共同犯罪的可能性。本文旨在对此进行论证,并提出可行性建议。
一、自动驾驶对交通肇事犯罪理论提出的挑战
人工智能依据其形态的不同,可分为非实体形态人工智能(如围棋程序AlphaGo)与实体形态人工智能。自动驾驶汽车属于后者,它可以通过感知与分析、理解与思考、交互与决策,完整地实现人工智能的层次结构,即基础设施层、算法层、技术层和应用层(行业解决方案)[2]24。依据美国汽车工程师协会(SAE)的标准,自动驾驶汽车视其智能化、自动化水平,分为无自动化、驾驶支援、部分自动化、有条件自动化、高度自动化、完全自动化六个等级。本文所说的自动驾驶便是指达到了完全自动化的水平,即由无人驾驶系统完成所有的驾驶操作(人类驾驶者在可能的情况下接管),在所有的道路和环境条件下驾驶,驾驶操作、周边监控以及支援都由系统完成,并且驾驶系统作用于全域。[2]79从法哲学角度看,该阶段的人工智能符合了康德关于理性的要求,即:具备了思辨理性(理论理性)和实践理性,能够如同人类一样反思自身,并且通过这种反思,理性进入了“自在之物”,踏入了自由的王国。[3]易言之,该阶段的人工智能已经具备了成为权利义务承担者的资格,能够在自由意识的支配下进行自我反思。将前述法哲学思想转化为刑法语言即是:当自动驾驶真正达到完全自动化水平时,自动驾驶就发生了质变,成为了具备控制能力与辨认能力的强人工智能。作为强人工智能的自动驾驶汽车,在大数据支撑下,通过深度学习与人工智能算法,能在缺乏预设的情形下自主决策(即在设计的程序之外作出反应),实施相应行为,并感知行为的社会意义,从而实现其自主意识。
(一)“无行为无犯罪”原则失灵——犯罪主体的异变
一般认为,交通肇事罪的主体是从事交通运输业务的人员以及非交通运输人员。可见,传统的交通肇事罪的犯罪主体是自然人。同时,《道路交通安全法》第19条第1款也规定“驾驶机动车,应当依法取得机动车驾驶证”,从侧面要求了驾驶主体必须是自然人。但在自动驾驶情形下,人已不实质参与驾驶行为,其作为驾驶主体已经虚化,退居二线,使刑事责任主体“消失”。由于自动驾驶的完全自动化,智能驾驶系统作用于全域,驾驶操作、周边监控以及支援都由系统完成。因此,当自动驾驶汽车引发重大交通事故时,无法对乘客或驾驶者(指处于驾驶位的人员)追诉过错侵权,使其承担民事责任,至于将危害行为、刑事因果关系以及主观罪过归咎于乘客或驾驶者,更缺乏相应的归责基础。
诚然,在“无行为无犯罪”原则指引下,无法将刑事责任归于乘客或驾驶者。但自动驾驶引发的重大交通事故刺破了该原则的“面纱”,在“无行为无犯罪”原则失灵以及危害结果已然发生的情形下,交通肇事罪的内在要义无法契合自动驾驶带来的流变,故需另辟蹊径解决犯罪主体问题。我们认为,自动驾驶汽车的智能程序编写者,自动驾驶汽车的制造商、销售商、使用者,以及自动驾驶汽车本身、自动驾驶汽车监管机构等,都是可能承担交通肇事刑事责任的犯罪主体。
(二)主观罪过存疑——人工智能意识的诞生?
我国刑法不承认“客观归罪”,因此,传统的交通肇事罪归责时,除犯罪主体必须是自然人、存在客观危害行为以及危害行为与交通事故之间具有因果关系外,自然人还必须有主观罪过(过失),即应当预见自己的行为可能发生危害社会的结果,却因疏忽大意而没有预见,或者已经预见却轻信能够避免,以致发生危害结果。未来进入“人工智能+”时代后,人工智能能否产生与人类相当甚至超出人类思维水平的意识,目前存在很大争议。第一,可以肯定,此处的人工智能并不包括“弱人工智能”。弱人工智能只是人体功能的延伸和人类改造社会的工具,本质上不具有辨认和控制能力,其意志活动受制于人类编制的运行程序,不具有诞生人类意识的可能性,即使被利用来实施犯罪,也不会成为承担刑事责任的主体,且不会被考虑主观罪过。第二,未来可能出现的强人工智能、超人工智能能否诞生自主意识,能否实现泰格马克关于“生命2.0”(不能更新硬件,但可更新软件)甚至“生命3.0”(既可更新硬件,也可更新软件)的畅想[4]?有学者认为,“人工智能的思维模拟永远从属于人类意识活动”[5],即人工智能缺乏生命的本质特性。也有学者认为,人工智能本身没有内源性的行为能力与权利能力,最关键的是它只有形式逻辑能力而不具备辩证逻辑思维。[6]还有学者认为,人工智能没有灵魂,无法存在繁殖性的肉体或者真实情感。[7]他们都否认人工智能产生类人意识思维的可能性。然而,根据神经科学家托诺尼提出的整合信息理论,意识未必是人类独有的,人工智能也可能发展出自己的意识,并且其意识的范围可能比人类更宽广。[4]因此,假如自动驾驶汽车本身满足了除主观罪过(过失)以外交通肇事罪的成立所需的全部构成要件,则其是否应受到刑事惩罚的关键便在于它能否诞生自主意识。
(三)可解释性存疑——刑事责任归属的“崩坏”
日本刑法学者大塚仁认为:“因果关系是在犯罪的实行行为与犯罪结果之间存在的必要关系,是决定构成要件符合性的重要因素。”[8]因此,只有当犯罪结果归属于实行行为(危害行为)时,行为人才对结果负责。[9]188但我们更倾向于将因果关系理解为相互继起的可预计性或可解释性[10]。在传统的交通肇事罪案件中,要使交通肇事者(自然人)承担刑事责任,必须明确其行为与交通事故之间存在可预计性或可解释性。自然人驾驶者是否与交通事故之间存在必要关系,即是否存在相互继起的可解释性或可预计性,可通过交通事故鉴定等实体性手段和举证质证等程序性手段查明事故发生的原因,从而认定自然人驾驶者是否违反了合理注意义务。当然,如前述,自动驾驶汽车引发的交通事故的犯罪主体可能包括自动驾驶汽车的智能程序编写者、智能芯片研制商和智能汽车的制造商、销售商、使用者以及自动驾驶汽车本身、自动驾驶汽车的监管机构。除自动驾驶汽车本身外,其余主体如果能够承担刑事责任,其可解释性虽比自然人驾车引发交通事故的可解释性稍复杂,但依然存在解释、验证的余地。如果交通事故的引发在于自动驾驶汽车本身,则其实行行为与危害结果之间的可解释性几乎难以证立。在此情境下,盲目适用交通肇事罪的处罚不符合法律的本质,并且也与罪刑相适应原则相悖。[11]
自动驾驶汽车本身存在算法“黑箱”,即在人工智能的算法层,深度学习从原始特征出发而自动学习高级特征组合,整个过程是端到端的,直接保证最终输出的是最优解。但中间的隐层是个“黑箱”,我们不知道机器提取了什么特征。[2]27换言之,算法“黑箱”存在透明化困境,即自动驾驶汽车在引发交通事故前所作出的自主决策,整个决策流程隐匿于“黑箱”中,设计师都可能无法获悉智能程序是如何作出决策的。自动驾驶汽车的自主决策之不可解释性与不透明性带来了归因上的难题,加大了责任确定和责任分配的难度,导致难以将肇事结果归属于实行行为。为解决“黑箱”中的归因问题,自动驾驶汽车必须在程序层面具有可责性,证明其在交通肇事之前为何以及如何作出某种特定行为。在这方面,电气和电子工程师学会(IEEE)2016年12月发布的《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》中,便规定了可被问责、运作透明等原则。但是,即使法律强制要求“黑箱”透明化或可以对自动驾驶汽车进行诉讼法程序上的交叉询问,也仍面临诸多困境,如技术性障碍(如机器学习模型是如何诞生的)、技术文盲、经济成本以及商业(国家)秘密。
(四)交通肇事共犯体系的消解——主体不适格?
《最高人民法院关于审理交通肇事刑事案件具体应用法律若干问题的解释》(以下简称《解释》)第5条第2款规定:“交通肇事后,单位主管人员、机动车辆所有人、承包人或者乘车人指使肇事人逃逸,致使被害人因得不到救助而死亡的,以交通肇事罪的共犯论处。”第7条规定:“单位主管人员、机动车辆所有人或者机动车辆承包人指使、强令他人违章驾驶造成重大交通事故,具有本解释第二条规定情形之一的,以交通肇事罪定罪处罚。”虽然以上两个条款(特别是前者)之规定与我国刑法关于共同犯罪之规定存在罪过冲突,但这里仅讨论具体司法解释之规定,不对该《解释》与现行刑法条文及理论的冲突展开评述。如前述,在自动驾驶的情形下,人已不实质参与驾驶行为,其作为驾驶主体已虚化。因此,在自动驾驶引发交通事故的情形下,《解释》的适用就存在疑难,即自然人肇事者能否等同于自动驾驶汽车,自动驾驶汽车是否能在交通肇事共犯体系中找到适格的定位。如果肇事主体不适格,该《解释》就存在规制漏洞;如果肇事主体适格,则需要证明自动驾驶汽车具有与自然人肇事者相同的法律地位,其在重大交通事故发生前所作出的决策以及实施的行为与自然人无异。
二、自动驾驶交通肇事犯罪主体的确定
如前述,自动驾驶对交通肇事犯罪规制提出了诸多挑战。目前国际上对包括自动驾驶在内的人工智能之责任进行了探索,但探索方向一般是民事责任,在对智能机器人的民事立法与监督管理上作了一些尝试性规定。如:美国交通部于2016年出台《联邦自动驾驶汽车政策》;德国监管机构开始注意自动驾驶汽车的可解释性、透明性和可追溯性,2017年5月通过了自动驾驶法案;英国自动驾驶汽车中心对产品责任及保险提出了相关建议。刑事责任方面的探索仍是空白。我们将尝试探索自动驾驶的交通肇事刑事责任,即根据主体性质的不同,分别探讨自然人(单位)与自动驾驶汽车本身成为交通肇事犯罪主体的可能性。讨论自然人(单位)的刑事责任前,先说明一下传统交通肇事罪的刑事责任主体,即在自动驾驶情形下,传统的汽车驾驶人员、操纵人员的认定缺乏现实基础,乘客与驾驶者均无合理注意义务,不存在安全管理人员。那么,基于自动驾驶的特殊性,自动驾驶汽车的智能程序编写者、制造商、使用者、销售商和监管机构是否都应纳入承担交通肇事罪刑事责任的主体范围?
(一)主体范围之否定
第一,智能程序编写者不应纳入交通肇事罪主体范围。成立过失犯罪一般须存在过失可罚性,即危害结果发生的可预见性。具体讲,要将智能程序编写者纳入交通肇事罪的主体范围而使其承担刑事责任,编写者对交通事故具有可预见性是个必备因素。但在自动驾驶情形下,这种一般性过失犯罪所要求的“可预见性”遭遇了瓶颈:自动驾驶本身运行时不具备可预见性,因为像自动驾驶这样的强人工智能的运行都是开放的(能在缺乏预设的情况下自主决策并实施相应行为),高度智能化带来的结果就是智能程序可以摆脱编写者给它预设的行为模式;编写者也不具备完整的可预见性,因为自动驾驶的智能程序编写异常复杂,编写者不可能考虑到实际生活中的所有情形并预设毫无漏洞的运行规则,而只能按照既定的智能程序测试流程对编写的运行规则进行完备的测试。因此,不应将智能程序编写者纳入交通肇事罪的主体范围;否则,他们进行自动驾驶研究将冒着犯罪的风险,这不仅会极大地阻碍我国智能机器人的发展,更与当代的社会利益相违背。其实,在无其他自然人或单位影响的情形下,程序编写者的刑事责任转移至自动驾驶汽车本身,即自动驾驶汽车可以成为交通肇事罪的犯罪主体。当然,如果编写者恶意编写程序,将人工智能作为犯罪工具,自应以相应的故意犯罪论处。
第二,自动驾驶汽车的销售商与监管机构不应纳入交通肇事罪主体范围。销售商只是自动驾驶汽车流向市场的中转站,并无刑法上的谨慎义务。基于过失的可罚性有一个前提,即行为人违背了谨慎义务,该义务源自危害结果的可预见性。销售商虽对所售商品有缺陷检查义务与隐患注意义务,但这类义务并非源自危害结果的可预见性,而是源自民商事主体应负的责任,即民事结果的可预见性。而且,自动驾驶汽车销售商的检查注意义务是一种形式义务,即仅进行程序性的常规检查,因为销售商客观上缺乏进行实质检查的能力,或者受到经济成本、商业(国家)秘密等现实因素限制。监管机构也无刑法上的谨慎义务,不是刑事责任承担主体,但负有相应行政责任,严重者可构成渎职等罪。
(二)主体范围之肯定
与上不同,自动驾驶汽车的创造主体(制造商)与控制主体(使用者)应当纳入交通肇事罪的主体范围,适用相应的刑罚措施。
人类对“可容忍风险”与社会整体利益的平衡与取舍是智能机器人不断发展进步的重要原因。智能机器人的使用价值和它客观上带来的风险,是人类在智能时代必须面对的抉择。两者相较,如果智能产品蕴含的风险是社会进步所必须承担的代价,那么注意(谨慎)义务就必须限制、减轻。当然,对于一些重大法益,如国家安全、公共安全等,尽管社会接受了智能机器人所带来的某些风险,也必须筑起预防的“城墙”。为将那些伤及重大法益的风险降至最低,人类必须在智能机器人的制造与使用中尽到应尽之义务,否则,以科学完备的智能机器人监管机制[12]为基础的刑法介入就势在必行。
具体讲,自动驾驶汽车的制造商有风险控制之义务,使用者则有日常检查与风险制止之义务。风险控制义务是从制造商具备对自动驾驶汽车进行实质检查的能力而推导出来的。如果制造商在自动驾驶汽车尚未进入流通领域时进行全面完善的实质检查能够规避其进入流通领域后的交通肇事,却因过失而未履行相应的风险防控义务,导致自动驾驶汽车在流通领域发生交通肇事,就可以通过交通肇事罪对制造商进行规制。而使用者负担的日常检查义务,包括送检维修、保养,也属于刑法上的谨慎义务,并涵盖风险制止义务。具体分两种情况:一是使用者按照相关操作说明尽到此义务,在此过程中发现自动驾驶汽车存在异常状况,却主观认为不会发生交通肇事,客观上也未履行风险制止之义务,最终导致交通肇事,就须对肇事承担刑事责任;二是使用者由于未按相关操作说明尽到此义务而未发现自动驾驶汽车存在的异常状况,因而未能及时履行风险制止义务,也须对交通肇事承担刑事责任。
那么在自动驾驶情形下,制造商与使用者应如何具体承担刑事责任?我国《刑法》第133条虽对交通肇事规定了三种不同的量刑档次,即依据不同情节针对自然人施以不同种类的自由刑(有期徒刑或拘役),但这种刑罚设计不能直接适用于自动驾驶领域的交通肇事,须为自动驾驶领域作出调整。
自动驾驶汽车制造商刑事责任的承担应采取“双罚制”,具体为“双罚金制”模式,即对制造单位本身施以罚金刑,且其主管人员与直接责任人员也以罚金作为刑事责任承担方式。对未尽风险控制义务的制造商处以“无限额”罚金刑,应无异议。而对其主管人员和直接责任人员也处以罚金刑,主要原因在于:交通肇事罪本是过失犯罪而非过失单位犯罪,但在自动驾驶造成交通事故的情形下,随着风险控制义务的转移,该罪由自然人犯罪过渡到了单位犯罪,而制造商又不能适用原本惩罚自然人驾驶者的自由刑,故以罚金刑代替自由刑是落实主管人员和直接责任人员刑事责任的合理途径。
自动驾驶汽车使用者刑事责任的承担分为单位、个人两种情况。无论哪种情况,使用者都只对自动驾驶汽车承担日常检查(含送检保养、维修)与风险制止义务。如果已尽到应尽义务而仍引发重大交通事故,使用者就只承担相应的民事赔偿责任(且有权向制造商追偿)而不承担刑事责任;如因未尽上述义务而引发重大交通事故,则除承担民事赔偿责任外,还应承担相应的刑事责任,即罚金。
三、自动驾驶汽车能够成为交通肇事的犯罪主体
在自动驾驶汽车造成重大交通事故(排除上一部分所述自然人或单位因素)的情形下,客观的法益损害是存在的。因此,交通肇事罪的成立关键在于主观方面的认定。我们认为,自动驾驶汽车与传统刑法中承担刑事责任的自然人并无本质区别。下面从主体要件与主观罪过两个方面进行阐述。
(一)行为主体的突破
如前所言,从法哲学视角看,自动驾驶符合康德关于理性的要求,具备思辨理性(理论理性)和实践理性,使作为强人工智能的自动驾驶汽车成为潜在的权利义务承担者,能在自由意识支配下进行自我反思。将理性置于刑法语境,自动驾驶汽车便是具备辨认能力与控制能力的刑事责任承担主体。
犯罪主体在法律条文上用“……者”来表现,自然人即属于此。作为构成要件要素的行为主体,只要求是自然人,而不要求其他内容。[9]131并且一般认为,作为行为主体的自然人必须具备相应的刑事责任能力,包括辨认能力与控制能力。辨认能力是指行为人具有对自己行为在刑法上的性质、后果和意义的分辨认识能力,亦即行为人能够认识自己的行为是否为刑法所禁止、谴责和制裁。[13]可见,辨认能力是在事实层面与规范层面上的“不可违反刑法”,自动驾驶也能实现这种能力,因为它凭借大数据、超强计算能力与深度学习优势,能够实现驾驶状态的全域感知,对驾驶行为进行精准控制,如可以通过自动驾驶的软硬件(传感器、地图和定位、决策)来避免在正常行驶状况下违反交通法规甚至伤及人员。控制能力是指行为人具备支配、决定自己是否以行为触犯刑法的能力。控制能力是自动驾驶的必备能力,是智能程序编制的核心内容。自动驾驶相较于人类而言,拥有超强的处理能力(如复杂地形的识别)、极快的反应速度(如紧急情况下的自我决策与处断)和精准的控制能力(如自动行驶过程中的精准测距、根据城市道路状况与人口密度进行精准制动等)。因此,自动驾驶汽车完全符合关于行为主体辨认能力和控制能力的要求,可视为交通肇事罪的犯罪主体。实践中,德国已于2016年4月通过了交通部起草的法案,认可“驾驶者”不限于自然人,即把“驾驶员”定义扩展至能够完全控制车辆的自动系统。2018年4月,美国加州允许“彻底无人”自动驾驶汽车上路测试,客观上为今后将自动(无人)驾驶汽车视为行为主体创造了条件。
(二)自主意识的诞生
主观的构成要件要素包括责任要素,故意、过失就是其典型。故意、过失作为罪过的表现形式,依据我国《刑法》第14条第1款、第15条第1款之规定,二者都包含认识因素与意志因素。认识因素与辨认能力、意志因素与控制能力存在紧密联系,并且,与人类刑事责任主体相较,作为强人工智能的自动驾驶汽车具有更强的辨认能力与控制能力,因此符合对行为主体辨认能力与控制能力的要求,在主观构成要件要素上具备了形成责任要素的可能性,即在行为主体突破传统刑法条文与刑法理论时,自动驾驶汽车就具备了主观上形成罪过之可能性。在主观罪过的判断上,应给予自动驾驶汽车比对自然人驾驶者更严的判断标准,因为自动驾驶汽车在道路交通领域比人类驾驶者更强大:一是其辨认能力与控制能力更强,且会随着智能时代的进步而不断进步,而人类驾驶者的辨认能力与控制能力会随着身体状况的老、病等改变而变弱;二是自动驾驶汽车对道路交通领域的认识源自程序、算法与深度学习,而自然人驾驶者对道路交通领域的认识源自生活经验的积累与法律知识的学习。
行为主体从自然人驾驶者扩展至自动驾驶汽车,后者能在缺乏预设的情形下凭借大数据、深度学习和智能算法而动态地演进,产生相当于人类甚至超越人类的自主决策。故,以算法为核心的自动驾驶决策系统作出的交通肇事(过失)行为符合刑法中作为犯罪构成要件要素的行为之条件,即行为主体实施危害行为而侵犯了法益。换言之,自动驾驶汽车在设计程序之外作出的违背交通运输法规的过失(交通肇事)行为,可成为刑法意义上的危害行为,自然也就会侵犯道路交通运输安全的刑法法益。
四、自动驾驶汽车交通肇事的归责基础
(一)刑事归责的困境
如前所述,自动驾驶汽车在交通领域的主观罪过判定标准严于自然人驾驶者。那么直接影响的是自动驾驶汽车所实施的危害行为与危害结果之间的因果关系,即相互继起的可预计性或可解释性。前文提到,自动驾驶汽车运行过程中存在算法“黑箱”,其流入市场后所经历的环境复杂性远超实验模拟环境,在不断更新的大数据支撑下,交通事故发生前通过算法与深度学习而作出自主决策的整个流程隐匿于“黑箱”中,设计师都可能无法获悉其所以然。自主决策算法的不透明性造成了归因难题,即因果性上不具有相互继起的可解释性或可预计性,加大了责任确定和责任分配的难度。上文还提到,为解决归因问题,自动驾驶汽车必须在程序上具有可责性,证明其在交通肇事前为何以及如何作出某种特定行为。对此,有人建议保留设计或生产自动驾驶汽车时的数据,将其与交通事故后自动驾驶汽车“黑匣子”所存储的数据进行对比,以此来解决程序的可责性问题。但是,在可追责性和可验证性计算机科学还不够发达的当下,即使学习算法公开透明,其产生的内部决策逻辑也并非总是可以理解,对于程序设计者同样如此。因此,这种对比并不能在科学法则的层面实质性地解决可责性问题。
(二)智能因果关系理论之提倡
在传统的刑法因果关系理论中,因果性的判断基于科学法则;但是随着时代的进步,基于现有的科学法则,对某些特定场合下的刑事追责变得困难甚至不可能,即在某些公害犯罪的场合,因果关系呈现出多因性和间接性、不紧密性和隐蔽性等特点,使得这类犯罪的原因与结果之间的条件关系如果按照科学法则进行判断,都会变得不确定起来。[14]为了解决公害犯罪刑事追责问题,提出了疫学因果关系论。该理论认为,某种因子与疾病之间的关系,即使在医学、药理学上得不到科学证明,但若大量的统计观察能够说明该因子对产生疾病具有高度的盖然性,也就可以肯定其因果关系。[15]130但此理论一般专用于处理公害犯罪,不能直接引入自动驾驶汽车这类强人工智能所引发的交通肇事等犯罪,除非真是一般意义上的公害犯罪。为了解决强人工智能的可责性问题,需要对疫学因果关系理论进行改造重构,我们将改造之后的因果关系理论称为智能因果关系理论,即概念本质上仅取“存疑即罚”之理念。这种智能方法论原则上不能一概地、积极地判定强人工智能犯罪,只能运用于强人工智能犯罪的消极判断中,作为判断强人工智能犯罪因果关系的最后手段。智能因果关系理论的价值理据如下:
第一,智能因果关系可以运用于认定刑法因果关系。对此,是存在质疑的:在传统的因果关系理论中,“相当因果关系”以存在自然法则上的条件关系为前提;而智能因果关系只是对条件关系的盖然性的证明,在条件关系是否存在尚不明确的情况下就肯定相当因果关系,无疑破坏了相当因果关系理论的构造。也就是说,只有确定了自然科学的因果法则,才能肯定刑法上的因果关系。[15]130但我们认为上述质疑的理由不能成立。刑法上的因果关系的判断不同于哲学上的因果关系的判断,刑法上的因果关系的判断是一种规范性判断,而非全是自然科学因果法则指导下的事实性判断。在很大程度上,刑法上因果关系的判断也只是一种高度盖然性的判断,而非完全肯定的因果关系。
第二,如今我们处在一个高风险的社会,尤其是未来进入强人工智能时代,强人工智能虽然带来高收益,但也伴随着高风险性,这一客观现实决定了智能因果关系运用于认定刑法因果关系具有可行性和必要性。可将智能因果关系视为特殊的因果关系的判断准则,其跳脱于一般的归责构造之外。
第三,自动驾驶汽车引起的重大交通事故存在自主决策的“黑箱”,具有隐蔽性、高科技性等特点,基于科学法则的因果性判断并不能在实质的层面解决可责性问题,不足以应对智能机器人犯罪。因为“黑箱”的存在,因果流程的判断极度复杂,甚至是不可能的,所以引入智能因果关系理论是解决刑事责任承担问题的有效路径。这样不仅能够保障被害人的权益,维护智能时代交通秩序的安定,更能凸显出司法应对自动驾驶时代所带来的各种风险的能力。
当然,在能将交通肇事的刑事责任归于自动驾驶汽车的同时(基于司法解释的交通肇事的共犯体系也能成立),民事责任的承担可能会成为焦点,主要集中于自动驾驶汽车的制造商与所有权者、使用者。在民事责任领域应采取严格责任,自动驾驶汽车的自主性(智能性)程度决定民事责任的分配,即自主性程度越高,制造商的责任就越小。随着智能机器人技术的不断发展,民事责任的承担从制造商不断向所有权者、使用者转移,再辅以强制保险、赔偿基金以及与之相配套的智能机器人法律地位(如电子人等)与登记制度,立体化地分流责任,使智能研发的经济动力与技术动力得到有效维护。
五、自动驾驶汽车承担刑事责任的出路
上文解决了自动驾驶汽车作为犯罪主体的适格问题以及实行行为与危害后果的可解释性疑难,从而使自动驾驶汽车能够成为交通肇事的刑事责任主体。但它作为特殊的犯罪主体,传统的刑罚措施对其已然失效,比如:智能机器人既不会变老,也不会衰弱,对其适用自由刑毫无意义;自动驾驶汽车作为道路交通领域的强人工智能,其自身是没有财产的,罚金刑也无从适用。根据智能机器人的特殊性,需对其适用新的刑事处罚体系。对自动驾驶汽车这类强人工智能进行刑事处罚,让其承担刑法上的责任,必须具备一个前提条件,即该阶段的人工智能具备了像人类一样感知刑罚痛苦的能力。换言之,该阶段的强人工智能已被嵌入了“道德代码”,具备了伦理思考与道德评价的能力(即此阶段的智能机器人又是道德机器人、伦理机器人),能够感知或是理解因其自身犯罪而受到的与刑事惩罚相关的伦理指责。这也正契合了前文所提到的康德关于理性的认识与思考,只有人工智能能在自由意识支配下进行自我反思,身份上具有了权利义务承担者的资格,对其进行刑事评价才具有实际意义。
有学者认为,删除数据、修改程序和永久销毁是有效的应对强人工智能犯罪的刑罚手段。[16]具体应用到自动驾驶汽车交通肇事犯罪,删除数据是指清空自动驾驶汽车实施交通肇事行为所依赖的数据信息。修改程序是指在多次清空数据信息后,如果仍无法阻止自动驾驶汽车获取实施交通肇事行为的负面数据,即该车仍不能被正面引导,则通过修改行车程序,将自动驾驶汽车的功能限定在人类设定的程序内,使其只能在设定的程序范围内独立判断并实施行为,换言之,剥夺了自动驾驶汽车的辨认能力与控制能力,将自动驾驶汽车的自主性降低到弱人工智能的层次,从根本上剥夺自动驾驶汽车实施交通肇事犯罪的可能性。永久销毁是指在上述两种方法已然无法对自动驾驶汽车的人身危险性起到有效抑制,即自动驾驶汽车已在使用过程中产生了“耐药性”时,除永久销毁外,已无其他降低其人身危险性之措施。这是一种层次分明、适用具有顺序性的阶梯式刑罚设计,其设计理念围绕着人身危险性展开。但这种“三阶层”刑罚体系并不能适用到所有强人工智能的犯罪,因为该体系在处理强人工智能对重大法益的侵害时存在重大风险,即无法将强人工智能的人身危险性控制在合理限度内。
人身危险性是由行为人特定人格决定的犯罪可能性或再犯可能性。[17]特定人格的形成源于自然人对生活的体验与经历,而强人工智能的“人格”则是依靠大数据、深度学习与算法,二者的人身危险性自不能等同视之。如前述,自动驾驶汽车运行过程中存在算法“黑箱”,造成交通事故后删除其所依赖的数据信息,不仅不能保证其所删除的信息与造成交通事故的信息相关(由于“黑箱”的存在,不清楚自动驾驶汽车是如何作出自主决策以及所作出的自主决策到底依赖了哪些信息),而且即便是删除的数据信息都与交通肇事相关,但自动驾驶汽车凭借其自身强大的学习与运算能力仍可能快速地重新获取实施交通肇事犯罪的相关数据信息。强人工智能人身危险性之预防显然比自然人人身危险性之预防更加困难。因此,应采取修改程序与永久销毁“两阶层”刑罚体系,并取消修改程序与永久销毁的适用顺序性,以自动驾驶汽车实际对公共道路交通安全所造成的法益侵害之大小择一适用。至于择一适用之具体标准,可将肇事逃逸和其他特别恶劣情节(具体内容暂难设想)作为自动驾驶汽车刑罚适用的分界点,即:自动驾驶汽车违反交通运输管理法规,因而发生重大交通事故,但无逃逸和其他特别恶劣情节,适用修改程序;一旦存在逃逸或其他特别恶劣情节,则适用永久销毁。这种依据强人工智能对法益侵害之大小而择一适用刑罚的方式完全符合罪刑法定原则,在同一犯罪构成中能够做到量刑适当。“两阶层”的刑罚设计主要是为了维护刑法所保护的国家安全、道路交通安全、公民生命安全等重大法益,而采取谨慎态度来对待强人工智能对这类法益的侵害,将其再犯之可能性降至最低。
至于强人工智能造成一般法益侵害的情况,则仍对其适用具有顺序性的“三阶层”刑罚体系。这主要是基于经济与预防角度的考虑:(1)经济角度的考虑。一是强人工智能的研发成本与制造成本颇高,如果仅因强人工智能对一般法益实施了侵害,就直接适用修改程序或永久销毁,不仅不符合强人工智能发展的经济规律,也不符合罪刑法定原则;二是对强人工智能的刑罚的实现也需要颇高的人工成本,因此在不违背罪刑法定原则的前提下,顺序性地适用“三阶层”刑罚体系不仅有利于缓解刑罚实现所带来的经济负担,还有利于强人工智能的重复利用,从而更多地造福于人类社会。(2)预防角度的考虑。如前所述,强人工智能具备了像人类一样感知刑罚痛苦的能力,具备了伦理思考与道德评价的能力,能够感知或是理解因其自身犯罪而受到的与刑事惩罚相关的伦理指责。这就意味着强人工智能也如同人类一样,在刑法对其进行否定评价之时,能够在自由意识支配下进行自我反思,将正确的社会伦理价值观植入其“大脑”,从而实现行为矫正与(一般)预防之目的。如果直接对触犯一般法益的强人工智能适用销毁等刑罚,既与经济效益冲突,也与刑罚的(一般)预防之目的相违背。
上述刑罚体系之设计只是一个应对强人工智能犯罪的初步构想。为了应对强人工智能时代可能出现的各种类型的犯罪,应随着科学技术的演进逐步确立强人工智能原则(智能机器人原则)。因为对强人工智能进行惩罚的法理基础不仅源于其对法益的侵害,还源自其违背了本应恪守的智能机器人原则。只有智能机器人原则逐步确立与完善,针对强人工智能的各种犯罪的刑罚体系设计才会愈加系统与科学,对强人工智能犯罪进行刑法规制的法治环境才会愈加合理与透明。