商用自动驾驶技术监管问题及对策
——以特斯拉为例
2022-05-12张溪瑨中国人民公安大学法学院北京100038
张溪瑨 (中国人民公安大学法学院,北京 100038)
0 引言
随着大数据时代到来,人工智能的研究快速兴起,并被广泛应用于交通、医疗、金融等领域。自动驾驶是人工智能中最综合且最领先的代表性应用领域。谷歌、百度、特斯拉等科技企业分别于2009年、2013年、2014年开始自动驾驶技术研发。2019年9月,中共中央、国务院印发 《交通强国建设纲要》;2020年2月,多部委联合发布 《智能汽车创新发展战略》。全球各国纷纷正式发放自动驾驶汽车测试牌照,标志着自动驾驶领域正成为各国争先抢占的新的科技战略制高点。
特斯拉是自动驾驶商业化应用领域中的先行者。2015年10月,特斯拉推出Autopilot功能,其被 《麻省理工科技评论》评为 “2016年十大突破性技术”。此后,特斯拉利用其官网、新闻媒体以及创始人马斯克的推特评论等一系列方式宣传Autopilot功能。由于采用了 “完全自动驾驶能力” “完全自动驾驶硬件”等表述,该功能一经推出便受到消费者和资本市场的强烈追捧。虽然,特斯拉在自动驾驶商业化上遥遥领先,但负面新闻屡见不鲜,已成为至今全球造成交通事故次数最多的自动驾驶汽车品牌,见表1。
在当前自动驾驶的商用进程中,出现了一些令人不解的现象:截至2020年4月,特斯拉Autopilot的测试行驶里程已达30亿英里,而谷歌旗下的自动驾驶巨头Waymo的测试行驶里程仅为2000万英里。如此差异是因为测试方式不同,特斯拉Autopilot直接采用实际道路测试,而Waymo和百度等则保守地采用开放道路测试和虚拟测试相结合的方式。此外,尽管特斯拉Autopilot事故频发,但其目标识别缺陷却迟迟未加改进。即使负面新闻缠身,特斯拉销量却遥遥领先,而消费者却频频陷入维权困局。自动驾驶产业的高速发展带来机遇的同时,也带来了全新的社会风险与挑战。
表1 全球范围内特斯拉Autopilot诱发事故
为了有效应对这些挑战,需要清晰认识到自动驾驶技术的应用落地不仅依赖于技术发展,更需要法律政策的引导和保障。值得注意的是,国产特斯拉Model 3以近13.75万辆的销量登顶2020年国内新能源车型销冠。自动驾驶法律政策的规制缺位必将带来更严峻的社会问题和挑战,同时也对国内整体的自动驾驶产业带来深远的负面影响。因此,本文就以下问题展开研究:①识别并解析自动驾驶监管涉及的关键技术要素,以期构建规范统一的监管研究话语体系;②在此基础上,基于人因工程学原理,深入剖析当前自动驾驶落地应用过程中存在的具体监管问题及内在产生机理;③基于以上发现,提出针对性的对策建议。
1 自动驾驶监管相关技术要素
自动驾驶技术的监管方式很大程度上取决于技术本身特质与社会生活现实的深层互动,而二者的交集便是自动驾驶监管相关技术要素。在技术监管问题的研究过程中,学者对于所涉及技术要素的核心概念、术语界定是否持有共同一致的理解是研究的重要基础。然而,现有研究在讨论自动驾驶相关法律政策问题时,大多以各自的概念界定作为讨论的逻辑起点, “自动驾驶”这一核心基础概念往往被赋予不同含义,未深入考量与自动驾驶监管相关的多层技术要素。例如,大多数学者引用特斯拉Autopilot引发的交通事故,用以整体说明自动驾驶技术面临的法律政策挑战[1],而事实上其仅为自动驾驶技术某单一发展阶段的代表性产品。因此,在开展监管问题研究之初,有必要对自动驾驶监管相关的关键技术要素进行明确与深入解析。
自动驾驶系统可实现不同程度的自动驾驶能力,而安全是自动驾驶的核心要求,其亦为法律政策规制的基点。因此,可预期的安全源于技术能力发挥与法律政策约束的相互配合。首先,自动驾驶技术能力有两个关键的考量要素:①自动驾驶系统的自动化程度,即自动驾驶技术分级体系;②自动驾驶系统可安全工作的最低条件,即自动驾驶设计运行范围 (ODD)。此外,对自动驾驶技术的法律政策规制应立足于其当前落地应用的具体发展阶段,进行切实可行的引导与约束。
1.1 自动驾驶技术分级体系
自动驾驶技术分级,对自动驾驶技术的研发与应用有基础性的重要作用。长期以来,全球汽车行业公认的自动驾驶技术分级标准有两个,分别由美国国家公路交通安全管理局 (NHTSA)和国际自动机工程师学会 (SAE)提出。中国在这方面略显迟滞,自动驾驶分级乱象丛生,市场频频出现 “L2+” “L2.5” “L2.9” “L2.99”等表述,极易让消费者产生困惑。很大程度上,目前法律政策学者对 “自动驾驶”的理解仍停留在字面含义,出现所谓的 “定义偏好”现象,从而影响研究的有效性。值得注意的是,中国 《汽车驾驶自动化分级》 (GB/T 40429—2021)推荐性国家标准于2022年3月1日正式实施,自动驾驶分级标准见表2。至此,中国正式对自动驾驶分级技术标准进行统一,与之匹配的法律政策监管统一体系亟待建立。
表2 驾驶自动化等级与划分要素的关系
对于法律政策制定过程中技术相关的关键事实要素,有必要予以明晰。L3级是自动驾驶的分水岭,在其设计运行条件内,自动驾驶系统与驾驶员的驾驶权发生根本性转变,源于自动驾驶系统首次获得了全部操控权限 (能够持续地执行全部动态驾驶任务),而驾驶员负责在紧急情况下进行接管。L4级在设计运行条件内能够持续地执行全部动态驾驶任务和执行动态驾驶任务接管,而L5级是自动驾驶的最终理想状态,无设计运行条件的限制,此时自动驾驶系统完全替代了驾驶员。需要指出的是,L2级为辅助驾驶,仅在其设计运行条件内持续地执行动态驾驶任务中的车辆横向 (行驶方向)和纵向 (前进与制动)运动控制且具备与运动控制相适应的目标和事件探测与响应能力,其典型任务包括自适应巡航、车道保持、自动变道辅助、前后碰撞预警、停车辅助等。
1.2 自动驾驶设计运行范围
实现全天候、全场景的L5级自动驾驶还有很长的一段路要走,由于每个自动驾驶系统运行的前提条件不同,仅凭自动驾驶技术分级这一概括性分类,无法准确衡量自动驾驶技术能力。因此,技术研发领域提出设计运行范围 (ODD)的概念。然而,法律政策学者对ODD尚未给予足够关注。所谓ODD,是指驾驶自动化系统设计时确定的适用于其功能运行的外部环境条件,典型的外部环境条件有道路、交通、天气、光照。在自动驾驶技术逐渐落地并实现商业化的进程中,ODD已成为衡量自动驾驶技术能力的重要指标。一方面,对于同级别的自动驾驶系统,ODD决定其自动驾驶技术能力适应性的高低。例如,封闭区域 (机场、园区)、高速公路、城市道路这三大应用场景中的 L4级自动驾驶,其自动驾驶能力存在显著差异;另一方面,对于不同级别的自动驾驶系统,由于ODD的广度不同,低级别的自动驾驶系统可能在整体自动驾驶能力方面高于高级别自动驾驶系统。例如,奥迪A8搭载的 “奥迪AI交通拥堵驾驶系统”作为全球首款L3级自动驾驶系统,由于其ODD仅局限于无交通信号和行人的低速紧密跟车路况下,其整体自动驾驶能力甚至被认为不如一般L2级自动驾驶系统。
由此可知,ODD是自动驾驶系统安全工作的最低条件,直接关系到自动驾驶系统的安全运行,其设定与传达的具体方式将直接影响制造商义务,进而影响其责任认定。因此,在自动驾驶的法律政策规制中应对ODD应当予以重点关注。
1.3 自动驾驶应用所处阶段
在清晰认知自动驾驶监管相关技术要素的基础上,为了避免研究问题空泛和过度超前等问题,应重点关注已经走入大众生活并被广泛应用的商用自动驾驶——L2级自动驾驶。
自动驾驶技术催生了不同的人机交互方式,而人机交互的具体情形将是法律和政策规制的核心现实基础。不同于L3级及以上的驾驶员有限监督和L5级的无需监督,L2级需要在人机共驾过程中驾驶员进行全程监督,即监管自动驾驶系统的行为并执行适当的响应或操作。特斯拉Autopilot作为全球范围内应用最广泛的自动驾驶系统,从其用户手册中释明的人机交互方式可知,其事实上属于L2级自动驾驶。因此,在对此类自动驾驶技术进行规制时,须重点关注其人机交互与ODD的具体事实情形。特斯拉宣传的自动驾驶系统具备自动辅助转向、加速和制动、自动泊车、自动辅助变道、自动辅助导航、智能召唤等诸多功能,但上述看似完全自动化的功能仍为人机共驾,均需要驾驶员进行不间断主动监控[2]。在Model 3车型用户手册中,对有关ODD的表述亦进行了高度限定,如仅限于高速公路;不保证Autopilot安全工作的情形包括但不仅限于低能见度、强光、窄路、弯路、极端温度、污泥或冰雪障碍、车辆粘贴喷涂悬挂物、保险杠异常等[3],现实与自动驾驶汽车消费者的通常预期形成巨大反差。目前,Autopilot引发的事故在全球范围内屡见不鲜,而其根源在于技术能力与监管方式的匹配不足。
2 中国商用自动驾驶监管问题剖析
人工智能应增强而非替代人类,要确保以人为本的人工智能发展路径。要对人工智能前置性地施加 “以人为本”的整体价值负载,提前研判与化解人工智能对社会结构的冲击[4]。随着科技进步和发展,人与技术的和谐发展成为新的主题,人因工程学应运而生,其使命在于引导科技朝着更有利于人类运用的方向发展[5]。自动驾驶技术研发初衷是为了提升道路安全。当前,自动驾驶技术的发展一开始以技术为导向,尚未遵循 “以人为本”的理念。法律政策忽视了人机交互过程中的诸多挑战,这一点在L2级自动驾驶监管中表现得非常明显,导致出现监管措施缺位现象。事实上,法律政策规制的具体手段应建立在符合人因工程学基本原理的客观事实假设的基础上。
2.1 监管措施缺位
自动驾驶技术的核心在于安全,对自动驾驶汽车合理有效监管是保障安全的重要手段。其中,产品市场准入过程中的自动驾驶功能测试要求是监管思路和方式的典型体现,主要包括两类:①传统的在实验室或限定场地进行的标准测试;②要求更为严格、复杂程度也更高的道路测试。
由于L3级自动驾驶系统首次获得了全部操控权限,其被认为是自动驾驶的分水岭,故法律政策学者大多把研究重点置于L3级及以上自动驾驶[6-8],多国主管部门对其也专门设立了相对严格的实际道路测试要求。根据中国工信部、公安部、交通运输部 《智能网联汽车道路测试与示范应用管理规范 (试行)》,以及北京、上海等地方出台的道路测试管理办法和实施细则,自动驾驶道路测试仅适用于L3级及以上自动驾驶。美国也采用了类似规制思路,其 《联邦自动驾驶汽车政策》同样仅适用于L3及以上自动驾驶。
然而,对于L2级及以下自动驾驶系统而言,在国家层面尚无专门的测试和全面监管规范。当前,对此层次自动驾驶系统和功能的监管,正处于起步的术语定义的标准制定阶段。例如,最新发布的 《道路车辆先进驾驶辅助系统 (ADAS)术语及定义》 (GB/T39263—2020)推荐性国家标准界定了L1级、L2级自动驾驶系统涉及的众多核心功能点的术语及定义。对于具体的自动驾驶功能点,目前仅有 《乘用车车道保持辅助 (LKA)系统性能要求及试验方法》 (GB/T 39323—2020)和 《道路车辆盲区监测 (BSD)系统性能要求及试验方法》 (GB/T 39265—2020)两个标准。因此,目前中国在L2级自动驾驶车辆的准入测试等方面,只能主要参照现有传统汽车的通用或一般电子电气系统的监管规范。具体而言,机动车必须符合准入管理制度规定和相关法规、技术规范的强制性要求并通过强制性产品认证,被列入 《道路机动车辆生产企业及产品公告》并经公开发布后,才可进行生产和销售。从现行标准规范看, 《机动车运行安全技术条件》国家标准 (GB 7258—2017)规定了机动车的整车及主要总成、安全防护装置等有关运行安全的基本技术要求,但其侧重于硬件要求,对于自动驾驶系统中处于核心地位的软件部分规制能力不足。国际标准 《道路车辆功能安全》 (ISO 26262)是适用于一般道路车辆的功能安全标准, 《道路车辆 功能安全》 (GB/T 34590)推荐性国家标准吸纳了ISO 26262,其核心在于避免电子电气系统故障导致功能异常而引起的不合理的危害。但是,自动驾驶功能和系统所带来的安全风险绝不仅仅局限于系统故障所致的功能异常,更多来自于软件系统的核心算法和模型的能力局限。因此,GB/T 34590在自动驾驶功能和系统的规范过程中展现出了极大的局限性。
事实上,采用传统车辆的测试方法和规范来监管具备较高智能特性的L2级自动驾驶系统,存在着一个明显的逻辑悖论。以特斯拉Autopilot为例,其具备的交通感知巡航控制、自动辅助导航驾驶、自动辅助变道等一系列自动驾驶功能。虽然被标称为 “辅助”,由于此类功能在绝大多数常规工况下的表现已展现出高度的智能性和持续驾驶控制能力,其安全运行本质上高度受制于实际动态路况环境,而其主要缺陷就体现为软件系统的核心算法和模型的能力局限所带来的可靠性安全风险。当前,法律政策并未明确要求对此类高级自动驾驶功能和系统进行合理的道路测试,这就意味着搭载此类系统的车辆无论存在何种的自动驾驶功能可靠性缺陷,均可以正当进入市场和上路行驶;而全部的风险规避均单单依靠驾驶员对于随机、部分未知、随时出现的系统功能失灵进行及时发现、反应和操作。更重要的是,这种驾驶员的及时响应违背人因工程学的基本原理,其中机制将在下文详细剖析。这种监管思路无异于将未经临床测试和市场准入的药物,先行大规模投入市场,而将风险的规避寄托于毒副作用发生后用药者的及时自救。因此,部分高智能且高风险的L2级自动驾驶车辆正在法律政策监管的真空赛道上 “裸跑”,这也是其造成多起致死致伤严重交通事故 (见表1)的重要原因之一。
2.2 安全风险凸显
人机交互过程中,人为因素对自动化系统运行的影响在诸多领域 (如航空、核电、工业制造)得到充分证明,自动驾驶领域也不例外。遗憾的是,这一安全风险尚未引起法律政策学者的足够重视。交通工程领域的人因工程研究指出,人机共驾环境下的驾驶负荷与传统手动驾驶相比存在较大的差异,主要表现在负荷不足 (自动驾驶系统工作时)和负荷过载 (突然被要求接管驾驶时)两个方面[9],二者均对驾驶安全产生了负面影响。
(1)负荷不足。驾驶负荷不足是引起自动驾驶中新型疲劳的直接原因。2001年Desmond等[10]首次将驾驶疲劳区分为 “主动疲劳”和 “被动疲劳”,在人因工程学领域引起广泛关注。与由于任务要求持续长时间的知觉活动协调参与而引起的主动疲劳不同,被动疲劳是指在任务要求很少知觉活动协调参与的情形下,由于长时间的单调乏味而引起的疲劳状态[10]。被动疲劳的概念对于自动驾驶研究意义重大,因其清晰诠释自动驾驶情境下驾驶员全新的疲劳认知状态,法律政策的制定亦需将其作为重要的现实考量依据。在传统驾驶情境中,驾驶员需要执行频繁踩踏刹车、转动方向盘等主动操作任务,往往引发主动疲劳;而在自动驾驶情境中,驾驶任务由主动操作任务变成了被动监控任务,这种单调的驾驶状态常常诱发的是被动疲劳,最终导致驾驶员注意力无法集中,甚至进入困倦状态。
人因工程学研究表明,自动驾驶系统工作时,驾驶员客观上无法长时间保持高度专注,25%的驾驶员在使用自动驾驶系统15分钟后就会出现明显的疲劳迹象[11],而这种被动疲劳状态将导致驾驶员警惕性或者面对紧急情况时的快速反应能力下降。此外,被动疲劳所带来的负面效应高于主动疲劳,如驾驶员面对紧急情况时的反应比手动驾驶明显滞后[12]。L2级自动驾驶一方面缓解驾驶员压力,帮助完成部分驾驶任务,另一方面又要求驾驶员全程监督且及时纠正系统操作,实际上对驾驶员提出了非常严苛的要求。这种效果类似于刻意把糖果摆在孩子面前,而又不允许他们享用。
(2)负荷过载。在L2级自动驾驶过程中,除负荷不足引起的安全风险之外,L2级自动驾驶还要求驾驶员在发现异常后在短时间内完成干预,导致驾驶负荷过载,这一要求同样缺乏人因工程学基础。
一方面,从应急预判角度看,由于人类自身局限性,驾驶员很难预测自动驾驶系统接下来的行为,故难以进行有效干预。早期航空业引入自动化系统后, “现在在做什么”和 “接下来要做什么”成为驾驶舱中常见的问题,由于飞行员无法准确判断自动驾驶仪下一步的行为,造成了大量空难发生[13]。而人类技术发展历史上的这一情形正在自动驾驶领域重演。
另一方面,从应急反应角度看,出现突发或者复杂情况时,当驾驶员突然被要求接管车辆控制时,脑力和认知负荷需求激增,这种从极低到极高程度跳跃的驾驶负荷特性对切换过程的安全性有直接影响[9]。来自诸多现实事故表明,当L2级自动驾驶系统突然失灵,即使驾驶员正在履行驾驶监督义务,往往来不及作出反应,这是由于驾驶员恢复认知能力的所需要的时间往往显著长于其恢复操作能力所需要的时间。
可见,在缺乏科学的预警机制和容错机制的情形下,要求驾驶员时刻监督并快速做出响应并完全承担未能在不合理时间范围内完成操作的全部后果是极为不合理的,已超出人类基本认知与行动能力范围,法律与政策制定中应予以充分重视。制造商不能通过单纯警告驾驶员负有时刻监督义务而将所有责任推给驾驶员,应切实体现 “以人为本”的自动驾驶系统设计理念。
遗憾的是,现阶段的自动驾驶分级标准缺乏人因工程学基础。以SAE J3016为例,该标准以技术为导向,没有充分考虑 “以人为本”的理念。因此,其在各个分级阶段描述的技术视角下的驾驶员监督 “义务”,与法律意义上的义务并不能直接等同判断。例如,L2级自动驾驶系统要求驾驶员的时刻监督义务违背人因工程学原理,对于制造商可以通过完善技术测试和验证而消除的风险,不应强制驾驶员越俎代庖地完成这种风险的规避。
2.3 虚假宣传泛滥
虚假宣传作为一种不正当竞争手段,严重损害消费者利益和市场竞争秩序,包括 《消费者权益保护法》 《广告法》 《产品质量法》 《反不正当竞争法》在内的多部法律对此作出规制。自动驾驶技术带来新型的人机交互方式,如何与自动驾驶系统实现良性互动是驾驶员面临的巨大挑战。因此,制造商应当准确传递自动驾驶系统的功能特性,以尽可能避免驾驶员的人为因素带来的安全隐患。然而,当前不少制造商采用一系列更为隐蔽的新型虚假宣传手段,导致驾驶员对自动驾驶系统的技术能力产生不合理的期望,直接影响人机交互的安全性。
虚假宣传的具体方式,在传统上主要表现为隐瞒或欺骗。但与普通产品不同,自动驾驶系统由复杂多元的技术群构成,消费者难以理解其实际运行方式。不少制造商利用这一特征,在宣传过程中利用制造信息混乱、表达信息模糊、潜藏关键信息等更为隐蔽的方式,引起消费者困惑且产生不合理的期望[14]。以特斯拉为例,自2016年京港澳高速邯郸段致死事件发生后,其中文官网将Autopilot的翻译由 “自动驾驶”改为 “自动辅助驾驶”,但其继续通过文字游戏混淆视听。对于尚处于L2级的Autopilot的描述,既采用 “基础版辅助驾驶功能”表述,又采用 “完全自动驾驶能力”表述。在此基础上,官网还提供6.4万元选装配置,声称可以让汽车将拥有所谓的 “完全自动驾驶能力”。然而,官网再次前后矛盾,用不起眼的几行小字提醒:目前可用的功能需要驾驶员主动进行监控,车辆尚未实现完全自动驾驶。上述功能的激活与使用将需要数十亿英里的行驶里程的论证,以达到远超人类驾驶员的可靠性[2]。此外,特斯拉还通过视频对尚未实现的技术进行前置宣传,在官网标题为 “Autopilot未来展望”的视频中[15],大雾天气下驾驶员在城市道路上双手脱离方向盘驾驶特斯拉,暗示其自动驾驶技术的高精度识别性能,可完全代替人类驾驶员。
对于自动驾驶这一新兴技术,消费者的一般认知成本偏高,虚假宣传泛滥往往使其难以了解自动驾驶的局限性以及错误操作的后果,最终导致驾驶员过于依赖或信任自动驾驶系统。例如,针对当前市场上5种L2级自动驾驶系统,美国公路安全保险协会 (IIHS)通过对2000多名驾驶员调查发现,许多驾驶员往往过分高估L2级自动驾驶系统的技术能力。以双手脱离方向盘这一危险动作为例,5种系统均有超过20%的驾驶员认为其安全;更有甚者,将近一半的驾驶员认为Autopilot开启后可以双手脱离方向盘,更有6%的驾驶员认为可以小睡一下,如图1所示[16]。中国应当对制造商刻意制造信息混乱、表达信息模糊、潜藏关键信息以及前置宣传尚未实现的技术等新型虚假宣传行为进行严惩,否则将埋下巨大安全隐患。
图1 L2自动驾驶系统运行时驾驶员对安全行为的认知
2.4 维权困境频现
产品缺陷的司法认定是人工智能相应主体责任承担的前提条件,也是规制人工智能发展以及维护社会和谐运作的关键一环,具有决定性意义[17]。关于产品缺陷的判断, 《产品质量法》第46条采用 “不合理危险”和 “不符合国家、行业标准”两个标准。由于采用 “国家或行业标准”判断产品缺陷极易导致生产者基于产品符合法定标准而免责,造成生产者与消费者之间的权利义务关系失衡[18]。尤其对于自动驾驶这种标准尚未完善的领域,这种情况更为明显。因此,判断自动驾驶产品缺陷的最终标准在于其是否存在 “不合理危险”。
中国立法未直接对产品缺陷进行分类,比较法上和中国通说将其分为3类,即制造缺陷、设计缺陷和警示缺陷。随着技术的发展和产品复杂性的增加,以自动驾驶为代表的人工智能产品的安全更多地受到设计缺陷和警示缺陷的影响,传统的制造缺陷所占比例越来越小[18]。由于自动驾驶领域的监管措施缺位,制造商可以轻易地利用警示说明逃避设计缺陷责任,将自动驾驶系统本应具备的最基础功能的异常归咎于驾驶员对系统的过度依赖,事实上将规避不合理危险的义务转嫁给了消费者。对设计缺陷和警示缺陷的认定误区,最终导致大量消费者限于维权困境。
(1)设计缺陷认定。目前,对L2级自动驾驶系统开启后发生的事故,以特斯拉为代表的制造商大多基于 “测试功能”和 “驾驶员时刻监督义务”将事故责任推卸给驾驶员。
2016年5月,美国一辆Model S在 Autopilot模式下发生交通事故,特斯拉作出解释, “此次事故由于Autopilot和驾驶员未能区分明亮的天空和白色货车,因此未采取刹车。作为辅助功能的Autopilot尚处于公开测试阶段,驾驶员要始终将手放在方向盘上,保持对车辆的控制并负有责任”[19]。NHTSA否认了特斯拉的设计缺陷责任,认为Autopilot仅为高级辅助驾驶系统,驾驶员的疏忽仍被考虑为事故主因,不会强制特斯拉召回车辆。NHTSA这一调查结果给了特斯拉一颗 “定心丸”,导致Autopilot目标识别的基本功能重大缺陷一直未得到解决。特斯拉在其用户手册中也采用相同的理念进行表述,Autopilot功能中涵盖的交通感知巡航控制、辅助转向、自动辅助导航驾驶等仅为测试功能,驾驶员有责任时刻保持警惕并掌控车辆,务必观察前方路况并准备随时采取纠正措施,否则可导致严重伤害或死亡[3]。2016年以来,处于Autopilot模式下的特斯拉先后撞上了前方静止或低速行驶的道路清扫车、货车、故障车、隔离水泥墩、消防车、公路护栏、拖车、警车、渣土车等,见表1。一旦发生事故,特斯拉便收起在宣传时采取的激进说法,转而保守地强调Autopilot仅为自动辅助驾驶系统,仍处于测试阶段,驾驶员务必时刻监控,事故由驾驶员过度依赖系统所致。
事实上,特斯拉Autopilot存在设计缺陷。在判定产品是否存在设计缺陷时,核心在于认定是否存在 “不合理风险”,其检验标准包括消费者预期标准和风险—效用标准。一方面,根据消费者预期标准,Autopilot不符合社会公众对安全性的合理期待。对于正常人类驾驶员完全可以避免的风险,Autopilot有时却无能为力,例如连几百米外可见的障碍物都无法识别;另一方面,根据风险—效用标准,判断 “不合理风险”的核心在于有无避免或减少损害发生的合理替代方案。Autopilot的基本目标识别障碍源于其视觉为主导的技术方案,根据其官网宣传其主要依靠摄像头、超声波雷达和毫米波雷达。该方案成本低,但识别精度较差,面对陌生场景容易出现错误,这也是特斯拉要求驾驶员时刻处于监控状态的主要原因。而大部分互联网企业和自动驾驶车企增加了更昂贵更准确的激光雷达,组成与摄像头 (立体摄像头、热传感摄像头)、普通雷达 (毫米波雷达、超声波雷达)、其他传感器 (GPS、惯导、麦克风阵列等)配合工作的综合传感系统。该方案具有更高安全性,但成本高,在自动驾驶初始商业应用中处于价格劣势。由此可见,特斯拉Autopilot的目标识别设计缺陷与其采用低成本技术方案直接相关。
综上, “测试功能”和 “驾驶员时刻监督义务”不应成为制造商逃避设计缺陷责任的理由。其一, “测试功能”不可直接交付用户使用。与手机软件的测试版本一般不存在严重安全风险不同,自动驾驶的测试功能可能直接威胁人们的生命健康安全,不应当交付个人用户测试使用。由于L2级自动驾驶道路测试制度的缺失,以特斯拉为代表的制造商直接向个人用户交付未经证实安全的测试功能,利用其 “影子模式”边测试边完善,使得全球范围内大街小巷事实上已成为特斯拉的测试场地。其二, “驾驶员时刻监督义务”同样也不应用于规避设计缺陷,这一要求缺乏来自人因工程学的支持。对于自动驾驶系统固有的设计缺陷,要求驾驶员及时发现并作出纠正,相当于将产品的不合理风险转嫁于驾驶员。
(2)警示缺陷认定。 《产品质量法》第27条、 《消费者权益保护法》第18条规定了制造商的警示说明义务。一些学者认为,特斯拉对Autopilot可能涉及的人身、财产安全的合理危险已作出充分的警示说明[20]。这一观点值得商榷。
特斯拉的用户手册对Autopilot有一项概括兜底式的整体警示,即 “许多因素都能影响Autopilot自动辅助驾驶组件的性能,从而导致其无法实现预期的功能。这些因素包括 (但不限于):上述举例并未尽述影响Autopilot自动辅助驾驶组件正常工作的全部情形。切勿依靠这些组件来保障自身安全。驾驶员有责任时刻保持警觉,安全驾驶,并掌控车辆”[3]。在此基础上,用户手册对Autopilot各项功能分别添加了大量警示说明。以交通感知巡航控制为例,共有19项警示说明,例如, “尽管交通感知巡航控制可以检测行人和骑车人,但切勿过度依靠主动巡航控制降低 Model 3车速。务必观察前方路况并准备随时采取纠正措施,否则可导致严重伤害或死亡”[3]。更有甚者,指出 “交通感知巡航控制可能会因未知原因随时意外取消。务必观察前方路况并准备采取适当的措施。驾驶员有责任始终控制 Model 3”[3]。由此可知,交通感知巡航控制可能因未知原因随时失效,不禁让人产生疑问,搭载可能随时意外失效的L2级自动驾驶系统的汽车是否仍属于合格产品范畴?
如果在用户手册中添加类似于 “可能因未知原因随时意外失效”这一极具概括性的警示,制造商便可将具有设计缺陷的 “测试功能”商业化,同时免除由于设计缺陷而造成用户 (或第三人)生命财产损失的产品责任,那么 L2级自动驾驶 “产品缺陷”这一概念将不复存在。警示不是逃避安全设计义务的尚方宝剑,相较于概括兜底式的警示,合理的设计显然更为可取。
3 中国商用自动驾驶的监管方案
科技是人类社会进步和发展的源泉,人工智能是新时代新型生产力的典型代表。人工智能的产生、优化到完善始终是围绕着提升人类生产力和方便人民群众生产生活这一目的展开。人工智能是赋能人类而不是替代人类,要坚持以人为本的人工智能发展路径,建立人与机器的共生关系。因此,以人工智能为技术基础的自动驾驶不应遗忘 “以人为本”的初衷和使命。要深入到自动驾驶在实际运转过程中的事实层次,将 “以人为本”理念落实到监管的具体环节。在人类生命安全面前,宁可让整个自动驾驶产业链发展变慢,也必须稳扎稳打,不至于对整个人类文明产生巨大的摧毁作用。
3.1 确立 “级别适配”的规制路径
要针对自动驾驶不同级别开展法律政策研究。正如学者所言,除非了解自动驾驶技术不同级别之间的细微差别,并且以对这些差别作出一一回应,否则无法制定出适当且有针对性的法律政策[21]。由于不同级别的人机交互方式存在显著差异,由此带来的法律政策挑战既有共性问题也有个性问题。因此,应深入自动驾驶技术在实际运转过程中的事实层次,识别不同级别的规制要素,制定 “级别适配”的法律政策。需要注意,对自动驾驶确立全面 “级别适配”的规制路径具备现时必要性。究其原因,自动驾驶的不同级别并非按时间逐渐出现和落地实现,由于ODD不同,多级别自动驾驶产品在商用市场上将呈现百花齐放的态势。
3.2 设立上市准入检测体系
中国对于L3级及以上自动驾驶设立了严格的道路测试制度,而L2级自动驾驶无需道路测试即可上路。美国国家运输安全委员会 (NTSB)已意识到这一问题的不合理,呼吁要尽快建立针对L2级自动驾驶的上市准入检测体系[22]。因此,中国应当构建更具兼容性的自动驾驶上市准入检测体系,以覆盖L2级自动驾驶。
需重点关注两个方面:①建立统一L2级自动驾驶系统测试标准,对自动驾驶功能进行安全评估和管理,确保其不存在不合理危险。禁止制造商将具有不合理风险的 “测试功能”直接交付个人用户使用,不能将驾驶员视为道路试验的 “小白鼠”,用其生命健康作为制造商节约巨额测试成本的代价。中国应该明确禁止制造商以 “测试功能”作为挡箭牌,来规避技术 “裸跑”和设计缺陷责任。②加强对汽车远程升级 (OTA)技术的监管。随着汽车智能物联网技术的发展,以特斯拉为代表的制造商通过OTA 进行迭代升级,不断完善自动驾驶功能。然而,这种即时性更改系统的技术虽然提供不少便利,但技术本身也有风险,更新的功能是否经过适当的测试也未曾得知。因此,OTA的即时更新必须经过准入检测,制造商不可在未经检测的情况下自行通过OTA进行自动驾驶系统的升级迭代。
3.3 规范自动驾驶宣传用语
自动驾驶功能特性的准确传递、科学使用自动驾驶系统的合理引导尤为重要,中国亟需规范自动驾驶宣传用语。虽然中国现有立法对虚假宣传行为作出一般性规定,但对于自动驾驶这一新兴技术,实践中制造商往往采取前置宣传尚未实现的技术、刻意制造信息混乱、表达信息模糊以及潜藏关键信息等更为隐蔽的新型虚假宣传手段,目前尚未引起监管部门的重视。近期,一些国家开始重视这一问题。德国因特斯拉涉嫌误导消费者,禁止其采用 “Full Potential for Autonomous Driving” “Autopilot Inclusive”等表述。韩国公平交易委员会对特斯拉自动驾驶广告的虚假宣传问题也展开调查。
鉴于自动驾驶技术本身的复杂性,消费者容易陷入认识误区,要严格规范制造商对消费者负有提供真实信息的义务,需重点关注3个方面:①要求制造商必须根据国家统一标准明确其自动驾驶的级别;②要求制造商必须明确、穷尽说明自动驾驶ODD,并保证在ODD内安全运行,否则承担产品责任;③严格规范自动驾驶的宣传。中国应当对新型虚假宣传案例进行定期公示,以针对性规制花样繁多的新式虚假宣传。对于L2级自动驾驶系统,应明确禁止制造商采用 “完全自动驾驶能力” “AutoXXX”等字眼。此外,还应构建行政监管、社会监督以及行业自律相结合的监督管理体系,制定相应的具体制度和配套措施,有效提升自动驾驶虚假宣传监管效率。
3.4 强制部署风险控制系统
自动驾驶技术为代表的人工智能技术应用催生了新型人机交互方式,客观事实的不同必将对自动驾驶产品制造商、消费者的责任和义务带来一定的变革。法律政策的制定需充分考虑人因工程学原理,强制制造商部署风险控制系统。
究其原因,L2级自动驾驶技术标准中要求的驾驶员时刻监督义务违背人因工程学原理,缺乏现实可行性基础,因而法律政策需要对此作出回应,以应对当前广泛存在的安全隐患。在自动驾驶领域,制造商警示说明义务的充分履行形式不应仅局限于对消费者的口头或书面警示说明,因为书面警示的有效性值得怀疑,即使采用了穷尽式的充分列举,并非所有驾驶员都会仔细阅读用户手册的具体内容[23];同时也无法保证驾驶员具备充分理解、记忆和行动的能力;此外,在新型的人机交互模式中,驾驶员从生理上也难以时刻处于监控状态并及时完成恰当操作。因此,基于以人为中心的设计理念,制造商须部署风险控制系统。具体而言,风险控制系统应实现 “预警”和 “容错”两大功能:①实时监督驾驶员的参与情况,及时发出警告。②警示无效或驾驶员操作不当时,及时采取合理的基本避险操作,降低因驾驶员未及时采取避险措施或明显误操作等人为因素导致交通事故的风险。值得注意的是,风险控制系统应符合一定的规范标准,包括直观性、警告方式、警告时间等,以保证驾驶员在驾驶不同车辆时,能够有效适应来自不同厂商的自动驾驶系统发出的安全警告[23]。
4 结语
从基础理论角度看,本研究发现:①人工智能相关法律与政策规制问题,对于学界是一个全新的领域,而在此过程中,规范统一的话语体系是学术研究和实践沟通的先决条件;本文从自动驾驶技术的分级体系、设计运行范围和应用所处阶段三个关键要素出发,明确阐释了相关的关键技术要素。②自动驾驶等新型技术为人类社会带来了全新的人机交互方式和社会现实,因此不应仅以传统的法律政策规制手段加以套用,而应更关注新型事实本身,在此过程中综合跨学科的知识体系便成为必由之路,同时也应考虑研究的适度超前和现实必要;本文综合利用法律政策理论和人因工程学原理,针对具体自动驾驶领域的人工智能技术带来的新型事实细节,并以现时已经商用且问题凸显的L2级自动驾驶为代表,进行深入问题本质的深度剖析,并提出与之匹配的监管方式优化建议。③法律政策学界明确指出在人工智能产品商用化的过程中,不应仅注重技术的引用,而忽视其可能带来的负面效果[24]。虽然短期内法律政策需要作出调整以适应技术的发展趋势,但长远看,不应当是法律如何迎合技术,而是技术如何适配法律的问题[4]。所以,自动驾驶的规制应充分秉承 “以人为本”,同时该价值内涵要确实体现在监管手段的优化过程中;本文在问题剖析与监管方案改进建议过程中充分考虑了人因工程学研究成果与以人为中心的理念,致力于利用法律与政策规范使自动驾驶技术真正服务人类社会发展和人民生活幸福。
从实践意义角度看,制造商可遵循本文建议,充分重视人因工程学的研究成果,在技术开发和市场营销中秉承 “以人为本”的理念。对于消费者和法律从业者,可利用本文诠释的问题原理,依法维护自身合法权益,切实提升维权意识和能力。对于法律与政策制定者,可针对自动驾驶领域中的新型现实,参照本文提出的监管优化方案,有的放矢地进行自动驾驶行业引导和监督。
本文重点讨论L2级这一代表性的自动驾驶产品的监管问题及对策,未来有必要进一步研究其他级别中驾驶员和自动驾驶系统之间不同互动方式,进行法律政策上的评估和考量,引导自动驾驶技术向对全社会有利的方向发展。