智能驾驶汽车致损的责任承担研究*
2019-01-10王甜莉
王甜莉
(南京师范大学,江苏 南京 210023)
一、问题的提出
科技的发展让世人目睹了各个行业和领域的发展、变革与成熟,作为人们出行工具之一的汽车也逐渐从功能化向智能化转变,汽车智能化集中体现在人车交互和安全性两个方面。人车交互侧重于娱乐,让驾驶员和乘客可以体会到出行带来的视觉和听觉的享受。安全性的典型体现即是智能驾驶汽车,智能驾驶汽车是在传统人工驾驶汽车技术的基础上,依托人工智能、自动控制、大数据、视觉计算、物联网等新兴科技①,通过车载传感系统感知道路环境和自动规划行车路线,通过自动驾驶系统和紧急报警系统等为乘客提供更充分的安全保障,具有自主性和学习能力[1],真正使科幻电影中的无人驾驶成为现实的一种汽车类型[2]。智能驾驶汽车在缓解交通拥堵、降低交通事故的发生率、提高交通运行效率、增强道路安全性等方面具有优越性,其广阔的发展前景吸引着世界各国的资金、技术、科研和人才。事物发展具有两面性,智能驾驶汽车带来的负面影响也不可忽视,其在测试和运行中造成的事故足以让技术的吹捧者更加冷静和谨慎。
案例一:谷歌无人驾驶汽车与公交车碰撞案②。2016年2月14日,在美国加州,一个可以容纳两辆车并行的宽阔街道上,智能汽车在自动驾驶的模式下行驶时与公共汽车相撞。经查,该智能汽车行驶时速2英里,因感应到前面有沙袋,欲从右车道变更到左车道时,与时速15英里的同向行驶的公交车发生刮蹭。该事故最后以谷歌主动承担事故的责任而告终。
案例二:特斯拉Model致车主死亡案件③。2016年5月7日,在美国佛罗里达州,一辆特斯拉Model S在高速公路上行驶时与前方左转的拖拉机挂车相撞,特斯拉车主身亡。经查,事故发生时特斯拉Model正处于自动驾驶状态,车主打开了Autopilot模式,双手离开方向盘,因未及时发现前方白色的半挂车,且智能系统未识别出前方出现障碍物而及时制动,导致事故发生。之后,在6月30日、7月1日、7月9日均有特斯拉Model车型发生事故,且事后查明事故原因均与Autopilot模式有关,智能汽车对事故的发生有不可推卸的责任。
案例三:美国Uber自动驾车致死案④。2018年3月18日晚,在美国亚利桑那州,一辆技术级别为L2的专门用于Uber无人驾驶测试的车辆,在自动驾驶时撞死了行人。经调查,案发时被撞行人有违章通过马路的行为,而车辆处于自动驾驶模式,车内配有安全员,并未检测到安全员采取制动措施,系统也未感知到前方有行人而及时刹车。该案中,违章行人、安全员、智能系统对事故的发生均存在一定的责任。
从谷歌无人驾驶汽车与公交车发生碰撞案,到特斯拉Model致车主死亡案件,再到美国Uber无人驾驶汽车致人死亡案件,智能驾驶汽车在满足人们对未来全自动驾驶(即SAE分级中的最高阶段:L5)美好愿景的同时,也带来了一系列的技术、伦理、法律等方面的难题。在法律领域,智能驾驶汽车致人损害的责任问题亟待解决。事故发生后,受害人应向人类驾驶者还是汽车生产者寻求赔偿,司法机关应依据何种规则认定责任,智能系统能否独立承担法律责任,SAE技术分级如何影响责任承担规则等问题的解决事关对受害人的及时救济,事关对新事物的法律保障,更可能影响到智能驾驶技术稳定持续的发展。
图1 2018年NHTSA与SAE对智能驾驶汽车的最新分级(SAE J3016(TM))
二、定责之前提
(一)技术分级之确定
有学者建议以美国高速公路安全管理局(简称NHTSA)的五个级别与国际自动机工程师学会(简称SAE)的六个级别(见图1)为基础,分级别讨论智能驾驶汽车致人损害的责任承担问题。在NHTSA和SAE分级的基础上,学者们根据不同的标准,进行了二次分级。有学者根据是否需要驾驶员介入,将智能驾驶汽车分为辅助智能控制、多功能智能控制、完全智能控制三个阶段[3];也有学者根据系统的智能程度,分为无自动化、驾驶辅助阶段、有条件自动化、高度自动化、全自动化五个阶段[4];也有将其分为驾驶支援系统、系统的组合、系统的高度化、完全自动驾驶、无人驾驶、自动驾驶五个阶段[5]。学者们以技术分级为基础来讨论智能汽车致人损害的责任承担问题,那么分级标准不同,必然导致损害责任承担规则的不同。因此,确定技术分级的标准,对分析智能驾驶汽车致人损害的责任承担至关重要。
相比NHTSA分级,SAE分级的描述更加详细和严谨,该分级最终为大多政府和企业所使用。2018年,最新修订版的SAE J3016(TM)标准发布之后,全球相关汽车企业也采用该标准对其产品进行技术定义。
任何类型的文本如果要为人们所理解,首先要进行解释,而文义应作为解释的出发点[6]。对法律的解释是如此,对普通的规则解释亦应如此。笔者认为,对于智能驾驶汽车来说,应根据最新的SAE J3016(TM)标准对各级别的技术描述进行分级,以文义为分类的出发点,最为基础也最为准确。在SAE J3016(TM)的描述中,Level 0的无自动驾驶是无自动化阶段,单独为一级,也就是说,自动驾驶实际上被分为了五级。在这五级当中L1、L2中的智能系统仅是提供驾驶支援,人类驾驶者处于驾驶的主导地位,因此,二者可区别于其他级别,应被归入驾驶支援阶段。L5的智能系统实现了完全自动化,在任何道路和环境下均可行驶,应区别于其他级别,被单独归为一类,为完全自动化阶段。而L3、L4阶段,系统可完成所有的驾驶操作,人类驾驶者需根据系统请求,在一定条件下提供适当应答,根据此种描述,二者应被归为高级辅助驾驶阶段。以SAE J3016(TM)对智能汽车的技术描述为基础将智能汽车区分为驾驶支援、高级辅助驾驶、完全自动化三个阶段,这三个阶段的技术水平存在根本性差异,而此种差异不仅影响到智能系统在驾驶中的义务,还会影响到人类驾驶者权利的行使和最终责任的承担。
(二)损害原因之区分
无论是驾驶支援阶段、高级辅助驾驶阶段,还是完全自动化阶段,损害的原因总能被归为以下三类:第一类是人为操作错误导致的损害;第二类是智能系统运行错误导致的损害;第三类是无法认定何种原因导致的损害。
人为操作错误导致的损害,即智能驾驶汽车的驾驶人在驾车过程中因操作错误导致发生道路交通事故,致第三人损害的情形。对此,有以下三点解释:首先,此种人为操作错误在驾驶支援(未操作方向盘、油门、刹车等)、高级辅助驾驶(未监控车辆运行、系统提示时未及时接管等)、完全自动化(指示输入错误、极少数特定环境下未能接管等)三个阶段均可能发生。其次,损害的原因不是智能驾驶系统的问题,而是人类驾驶者操作的错误造成的。最后,该种错误不是智能系统智能判断的结果。
智能系统运行错误导致的损害,即智能驾驶汽车在智能驾驶的模式下因系统运行错误导致发生交通事故,致第三人损害的情形。对此,需要作几点解释:首先,系统运行错误在驾驶支援、高级辅助驾驶、完全自动化三个阶段均可能发生。其次,事故的原因是智能驾驶汽车自身的错误,比如夜视、行人检测、交通标志识别、车道偏离警告、盲点检测、后排平交路口交通警报等功能失灵,还有电子稳定性控制系统、自适应巡航控制系统、自动紧急制动系统、车道跟踪系统等失灵,均属于智能系统运行错误。
无法认定何种原因造成的损害,即智能驾驶汽车在运行中发生交通事故致第三人损害,而根据现有的证据无法认定事故的原因。对此,可以作以下解读:一是无法认定损害是由人类驾驶者的操作错误还是智能系统运行错误导致的。二是能够确定的是事故发生时,汽车处于智能驾驶状态,事故的发生是基于智能驾驶汽车的智能判断的结果。三是智能驾驶汽车具有自主学习的能力和根据大数据进行自主决策的能力,对其是否具备独立的法律人格这一问题,下文将单独进行讨论。
三、智能汽车致人损害之责任承担
明晰定责的两个重要前提之后,再讨论智能汽车致人损害的责任承担问题,就更加清晰明了。讨论智能汽车致人损害的责任承担,需着重解决以下几个问题:第一,损害原因如何影响责任之承担;第二,智能系统的技术逐渐升级,智能系统有无替代人类驾驶者成为法律上驾驶人的可能;第三,如智能系统为驾驶人,可否赋予智能系统或智能汽车独立的法律人格,换句话说,智能系统本身可否独立承担侵权责任;第四,如智能系统为驾驶人,汽车所有人是否仍然有承担保有人责任之可能。
(一)损害原因仍为责任认定的重要因素
因果关系不仅属于《侵权行为法》基本规定内容,且构成了其他几乎所有赔偿责任构成要件的基础[7]。在侵权案件中,讨论因果关系有利于贯彻自己责任并控制责任的范围[8]。在智能驾驶汽车致人损害的案件中,若损害原因为人为操作错误,则即使在技术级别最高的完全自动化阶段,人类驾驶者仍无法避免责任的承担;若损害为智能系统运行错误,则即使在技术级别最低且由人类驾驶者操控汽车运行的驾驶支援阶段,系统的生产者也需根据产品责任承担损害赔偿责任。若损害的原因无法判断,但可知的是事故的发生是由于系统智能判断的结果,该种情况是否属于产品责任中的产品缺陷,学界争议较大。笔者认为,生产者不可依据智能系统的智能判断结果超出其可预见性为由主张免责。因为,智能系统设计的初衷是为人类服务的,若系统的智能判断超出了生产者的可预见范围,存在不可预见的风险,则可认为该产品存在产品缺陷,系统的生产者则需为该产品缺陷负责。所以,在系统智能判断导致事故发生的情形下,可根据产品责任要求生产者承担相应的赔偿责任。
由于受到传统观念的影响,以往在进行矿山资源的开采时本着“先开发、后治理”的原则,久而久之,造成了矿山地质环境的严重恶化。为了改变这一现状,需要加强对矿山地质环境保护与治理工作的研究,不断完善监测方案,积极拓宽资金渠道,针对地质环境破坏状况采取可行、合理的综合性保护与治理措施。
(二)级别区分下驾驶人归属应当转变
在驾驶支援阶段,系统并未对车辆驾驶施加控制性的影响,驾驶人仍然保持着对汽车的实际控制力[5]。该阶段,若发生交通事故,人类驾驶者可否以对系统完全信赖为由主张免责,也即是,系统是否已经取代人类驾驶者成为驾驶人?首先,通过SAE分级对该阶段的技术描述,我们可知,在驾驶支援阶段,系统仅对加减速和方向盘等部分驾驶行为提供支持,系统还无法做到脱离人类驾驶者达到独立驾驶车辆的状态;其次,人类驾驶者需要对方向盘、油门、刹车等关键驾驶操作进行控制,可以做到完全脱离系统的支持,达到独立驾驶。所以,无法认定人类驾驶者可以完全信赖系统,也无法以人类驾驶者对事故的发生不存在主观过错来免责。因此,在驾驶支援阶段,人类驾驶者为驾驶人,若发生事故,应根据对车辆的控制力和事故发生的原因力来要求人类驾驶者承担相应的过错责任[9]。
在高级辅助驾驶阶段,系统控制车辆的运行,成为实际的驾驶人,而人类驾驶者是否依然具备驾驶人属性这一问题引发了很大的争议。判断人类驾驶者是否仍然具备驾驶人属性,需要考虑该阶段人类驾驶者的义务。首先,人类驾驶者的监督义务不可避免。虽然该阶段所有的驾驶操作由系统完成,人类驾驶者可逐渐解放双手,脱离方向盘,但这并不意味着人类驾驶者可放任汽车的行驶,在一些特殊路况和行驶环境下,系统会提出接管提示,此时,人类驾驶者需履行监督义务,及时接管。其次,人类驾驶者可随时介入驾驶操作。在高级辅助驾驶阶段,即使是在SAE分级中的L4阶段,人类驾驶者也依然可以随时介入驾驶操作,既可以根据自己的意志进行介入,也可根据系统的需求进行介入。可知,人类驾驶者仍然掌握着汽车运行的控制权,依然具备驾驶人属性。对于该问题,美国部分州(内华达州、佛罗里达州、加州)将开启智能驾驶模式的人认定为驾驶人[10],有人认为此种认定就像船长应对自己的船只负责一样简单和明白[11]。因此,在高级辅助驾驶阶段,人类驾驶者依然具备驾驶人身份,其和系统构成了共同驾驶人,若该阶段的智能汽车发生交通事故致人损害,应由人类驾驶者和系统生产者共同对外承担连带责任,该种连带应为不真正连带责任,任何一方对外承担赔偿责任之后,可向最终责任人追偿。
在完全自动化阶段,所有的驾驶操作均由系统来完成,且驾驶的道路和环境条件不再受限,人类驾驶者仅在可能的条件下接管。该阶段较驾驶支援阶段和高级辅助驾驶阶段在技术上发生了实质性的变化,人类驾驶者已无需控制汽车的运行,其身份更像是乘客,对于系统的运行,其不再具有监督的义务,也不具有监督的可能性。人类驾驶者失去驾驶人属性,系统取得驾驶人属性。因此,在该阶段,若智能汽车造成交通事故致人损害,则应根据《产品质量法》第41条的规定,因产品缺陷造成人身、财产损害的,除法定免责情形外⑤,生产者应当承担赔偿责任。但若事故的发生是因人类驾驶者的不当介入或操作失误导致,则生产者可在相应范围内免责[12]。
(三)不应赋予智能汽车独立的法律人格
首先,智能驾驶汽车不具备民事权利能力。判断一个主体是否具有权利能力,需考查两个方面:第一,是否具备自然人人格;第二,能否与所有民事主体一样平等的拥有权利[13]。第一个方面,智能汽车不具备自然人人格。自然人具有情感和自我意识,受道德约束,且具备价值判断能力。而智能汽车没有情感,其所表现出的自我意识和自我提升(如自动升级)实质上是数据的更新和逻辑的运算;在道德方面,其无法判断对错,不能理解善恶,人类世界的道德对其没有任何约束力;在价值判断方面,智能汽车只能在程序的设置和现有的信息内进行选择,超出人类设置范围的,则无法独立做出自己的判断。第二个方面,智能汽车不能与所有的民事主体一样平等的拥有权利。假设我们赋予智能汽车以及所有的人工智能产品拥有与所有民事主体一样的民事权利,那么所有的人工智能产品将不再是人类的工具,而是能够与人类争夺资源和利益的民事主体,如果二者地位平等,将引发新的道德问题和新一轮的战争,且人工智能产品依托大数据和逻辑运算,其智能程度是人类现有的智力水平无法抗衡的。
其次,智能驾驶汽车不具备民事行为能力。民事主体具有民事权利能力,如何保证该权利的实现,则需要民事行为能力。民事行为能力影响着民事法律行为的效果[14],其核心是意思能力[15]。判断智能驾驶汽车是否具备意思能力,需从两个方面来考察:第一,是否具有独立意思。智能汽车没有自我意识,从事民事法律行为没有内在驱动力,也即是没有动机。即使智能汽车在未来可做出一些类似于意思表示的行为,比如自动到充电站充电,自动到加油站加油,该类行为实际上是执行特定程序的设定,并非是在其内在动机驱动下做出的意思表示,只能说其表示的是设计者、生产者或控制者的意思。第二,是否具有意思能力。智能驾驶汽车不具备独立的意思,其所做出的意思表示达不到法律追认的效果,现行法律所认可的是其所有人、使用人、生产者的意思表示。
最后,智能驾驶汽车不具备民事责任能力。关于民事责任能力的判断标准,存在着识别能力标准、年龄标准、年龄+识别能力标准、行为能力标准等不同争论[16]。综合来看,我们可以从以下几点来判断,识别能力是判断的基础,年龄标准是判断意思能力的辅助,判断的目的在于确认行为人是否具有形成过错的能力以及能否对其进行过错归责[17],宜采取具体判断标准,就个案加以认定[18]。结合智能驾驶汽车的现状,我们做如下分析:首先,智能驾驶汽车虽具有智能识别系统,能够识别具体的路况并自主判断做出调整,但此“识别”非法律上对自然人所规定的“识别”。智能驾驶汽车识别的是其运行中所处的各种复杂的道路情况,而法律规定的识别是自然人识别其所从事的民事行为是否在法律的框架内,也既是对合法性的识别,智能驾驶汽车显然不能像自然人一样识别其行为的义务、对错和违法性等情形。其次,自然人随着年龄的增长逐渐具备健全的、自主的意思表达能力。智能驾驶汽车到完全自动化阶段也可以逐渐表达其“自身”的意思,但这种意思的表达并非自主,而是由设计者提前设定的程序,这种表达不能说是智能汽车的意思表达,而是设计者、程序工程师的意思表达。最后,智能驾驶汽车无法意识到其行为的后果,其只能根据事先选项的设定来感知是否发生系统错误,而不能像自然人一样认识到自己的过错。若发生道路交通事故,也不可依据过错责任原则对其进行归责。换言之,即使像有学者所说的视智能汽车为未成年人[19],依据过错责任原则对其进行归责,其不会像自然人一样自行改正其行为,起不到法律应有的惩罚、威慑效果。
智能驾驶汽车不具备民事权利能力、民事行为能力,更无法承担民事责任,其不具备民事主体的适格性,应将其定位为民事法律关系的客体——物。对于智能驾驶汽车致人损害的责任承担,只能依据法律对自然人(比如保有人责任、驾驶人责任,生产者责任等)设定的责任承担规则来认定责任。
(四)保有人责任不应被忽视
保有人责任主要解决完全自动化阶段汽车保有人是否承担侵权责任的问题。在完全自动化阶段,人类驾驶者的身份转变成了乘客,发生事故后,汽车保有人是否要承担责任?笔者认为,即使在完全自动化阶段,保有人责任也是成立的。判断保有人责任的二元标准是运行支配和运行利益[20]。首先,汽车保有人或人类驾驶者仍然掌握着对汽车的运行支配。在完全自动化阶段,汽车保有人或人类驾驶者仍然决定着车辆行程的开启和结束,以及可能情况下的接管。其次,汽车保有人享有因汽车运行而生的利益。智能汽车的开启和结束的受益者是汽车保有人,享受全程无监督义务驾驶的也是汽车保有人,运行的各种费用也是由汽车保有人承担。最后,从风险来源的角度来看,汽车保有人开启了危险。“任何一辆投入到交通运行的车辆都会给其他的交通参与者带来潜在的风险,风险的引起者应对其所引起的风险负责”,这一理论已为学界所接受[21]。有日本学者也从运行利益的角度,认为使用者可以指示、支配汽车的运行,处于运行供用者的地位,需承担交通事故侵权责任[4]。因此,若保有人对事故的发生存在过错,则保有人需根据其过错承担相应的侵权责任。
四、结语
科技的发展和技术的进步会不断地给现有的法律提出挑战,对于出现的新情况、新问题,调整现有的法律规则或进行新的立法并不是必然的对策,立法者和司法者可根据法律解释学的相关理论来予以应对。根据技术级别将智能驾驶汽车的发展分为驾驶支援、高级辅助驾驶、完全自动化三个阶段,根据事故原因的不同将损害分为人为操作错误致损、智能产品本身的错误致损、无法认定何种原因造成的损害三种,然后在现有的法律框架下分阶段、分原因探讨智能驾驶汽车致人损害的责任承担,智能系统是否具有独立的法律人格这一问题影响最终责任承担主体的确定,在现有法律规定可以解决的前提下,不应赋予智能系统独立的法律人格,汽车保有人、人类驾驶者、汽车生产者应根据现有法律规定承担相应的侵权责任。
注释:
①腾讯研究院:《ISOC:人工智能与机器学习的政策建议》,载http://www.tisi.org/4879,最后访问日期2018年9月19日。
② 北大法宝:《谷歌无人驾驶汽车撞公交:首次承担部分事故责任》(法宝引证码:CLI.CR.12921157)。
③ 梁薇.特斯拉致死事故引发自动驾驶大讨论:目前立法“没有可能”[N].每日经济新闻,2016-07-14.
④ 龚梦泽.自动驾驶首起命案优步担责:专家称无人驾驶运用十年内难落地[N].证券日报,2018-03-21.
⑤ 《产品质量法》第41条因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。生产者能够证明有下列情形之一的,不承担赔偿责任:
(一)未将产品投入流通的;
(二)产品投入流通时,引起损害的缺陷尚不存在的;
(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。