自动驾驶汽车伦理、法律问题设计策略研究
2024-03-09何班本
何班本
1.武汉理工大学,武汉 430070;
2.东风汽车集团有限公司研发总院,武汉430058
随着人工智能技术的快速发展,自动驾驶汽车正逐步面向市场。SAE 将自动驾驶技术分为LEVEL 0~LEVEL 5级别[1],当前L2及以下自动驾驶汽车已普及,基于L3-L4自动驾驶汽车及自动驾驶开放道路已渐成规模。2022 年德国奔驰汽车公司宣布,奔驰S 级汽车已具备L3自动驾驶功能,允许用户可以在特定道路场景条件下开启L3自动驾驶功能,并承诺属于自动驾驶车辆原因造成的交通事故,由奔驰公司承担事故责任。人工智能技术的进步,引发一些凸显问题,其中以伦理问题争议最为激烈。当自动驾驶汽车不可避免发生碰撞时,如果涉及生命安全,便引起激烈的伦理争论。最为典型的就是“电车难题(Trolley Problem)”,Foot[2]提出一个代表性的“电车难题”场景:设想一位驾驶员正驾驶一辆有轨电车,他面对两条轨道;在两条轨道中,一条轨道上有5个人在工作,另一条轨道上只有1个人在工作;无论选择哪一条轨道,在轨道上工作的人必死无疑。
由自动驾驶理论层面的伦理问题,引发了应用层面的责任问题。由自动系统“驾驶”的车辆,责任主体是谁。邱泽奇[3]对自动驾驶中的社会行动主体进行分析,指出L5场景缺失的主体其实是一个社会行动者关系链,处于前端的是自动驾驶车辆的制造商。自动驾驶汽车能有效提升指数化规模的道路交通安全和道路通行效率,自动驾驶出行方式发展是大势所趋。汽车制造企业,需要结合当前的伦理问题争议,以及可能涉及的法律法规问题,做好设计策略进行应对。
根据SAE将自动驾驶划分为不同等级[1]及相关技术特点,本文将对自动驾驶的伦理及法律责任问题进行分类讨论,见表1。
表1 不同等级自动驾驶说明
一、自动驾驶伦理问题
自动驾驶汽车是通过环境感知传感器(摄像头、雷达等)感知道路环境,由电脑(自动驾驶控制器)对感知到的信息进行计算、决策,对车辆的执行机构(加速、减速、转向等)发送指令,代替人类驾驶员控制车辆在道路中行驶的一种人工智能产品。自动驾驶属于人工智能的一类,人工智能的伦理问题,在自动驾驶中也一样存在。从著名的“电车难题”可以引申到自动驾驶汽车面临道德难题挑战。即使随着自动驾驶技术的进步,道路交通事故也不可避免,事故也将继续发生。
拉·梅特[4]指出:“人是动物,也是机器,只不过是更复杂的机器罢了”。自动驾驶是否能够成为道德主体呢?学者的争论基本可分为两派:1)王礼鑫[5]指出道德是仅就人类而言的,“人工智能本质上是人造机器运用人类的知识,是人类已有知识的转移、利用”,所以自动驾驶汽车不能成为道德主体;2)现在的计算机中也存在意识,能像人类一样学习,并通过了图灵测试[6],所以自动驾驶汽车能成为道德主体。
虽然自动驾驶汽车是否能成为道德主体的问题一直争论不休,但是这并不妨碍将其纳入到道德系统范畴,即具备道德地位。Sloman[7]指出人工智能存在思考和感知能力的可能,把人工智能纳入到道德系统范畴内是合理的。Torrance[8]认为道德地位可以被划分为道德产出和道德接收,自动驾驶是受道德行为影响的道德接收者,因此,可以设定自动驾驶汽车具备道德地位。Waldrop[9]指出,自动驾驶汽车如果遇到不可避免的交通事故,多数人不愿将选择权及决策权交由机器。如果没有明确的伦理规则出台以指导自动驾驶汽车的事故决策,将很难改变用户目前对自动驾驶汽车的不信任状态,甚至可能导致人们拒绝购买自动驾驶汽车。因此,对自动驾驶汽车的伦理进行分析并提出设计策略已迫在眉睫。
针对“电车难题”中的“两难困境”问题,自动驾驶汽车无论选择走哪条轨道,都会遭到伦理质疑。解决“两难困境”的焦点就是要平衡好义务论和功利主义这两种道德选择标准之间的关系。功利主义(以Jeremy Bentham为代表)是结果主义的一种突出形式,遵循最大利益原则,倾向于“两害相权取其轻”,可以允许和提倡牺牲一个人,以从整体上拯救更多的人。如果遵循功利主义,用户是否愿意选择一辆为了保护其他人而牺牲自己的自动驾驶汽车。义务论(以Kant I为代表)遵循“普遍原则”,倾向于“不能损害他人的利益”,根据不同于选择所带来的事务状态的标准来判断选择的道德性,在自动驾驶领域,像绝对命令这样的准则似乎过于宽泛和不具体,这种基于规则的方法忽略了特定于上下文的信息,比如当前和未来情况发生的概率,不能直接采用。
在伦理问题的解决途径讨论中,Coca-Vila[10]引入了与交通事故相关法律作为自动驾驶汽车决策框架,提出解决这一困境的办法是事先对冲突中参与冲突的所有相关方的法律立场进行分析。孙保学[11]探讨了自动驾驶汽车伦理困境背后隐藏的需要回答的问题是,究竟该由谁来决定智能机器的道德决策,并提出一种数据驱动的混合进路方案,将道德问题划归为智能问题来解决。李伟等[12]从驾驶员本身出发,提出了道德原则自我选择的方法来解决该伦理难题,即应当在事故发生前将决策权交回给驾驶人。
在伦理问题的规范讨论及实践中,Gerdes 等[13]参考科幻小说作家阿西莫夫提出的机器人技术的三定律,提出了无人驾驶汽车的三定律:按照优先级从高到低,无人驾驶汽车不能碰撞行人与自行车、不应碰撞其他汽车、不能碰撞其他物体。政府层面对伦理问题做了相关规定,比如英国交通运输部发布了自动驾驶汽车的8 条原则[14],德国自动驾驶伦理委员会发布了20条伦理准则[15]。
二、自动驾驶伦理问题设计策略
自动驾驶伦理问题的解决目前没有统一的方案,但这并不意味着自动驾驶汽车不能向前发展。自动驾驶分为6 个等级,本文针对不同等级的自动驾驶汽车提出不同的设计策略。以“电车难题”为代表的自动驾驶汽车伦理问题的主要原因是,当自动驾驶汽车遇到不可避免地涉及生命安全的交通事故时,生命的选择权归属机器。只有自动驾驶系统在遇到不可避免地涉及生命安全的交通事故情况下,并且此时自动驾驶系统具备车辆的控制权和决策权,才有伦理问题。依据伦理问题产生的原因,本文将伦理问题的产生分为1个前提和2个要素:1个前提是不可避免地涉及生命安全的交通事故;2个要素是控制权和决策权。由于L0-L2是由人类驾驶员掌握控制权和决策权,故不存在伦理问题,具体车辆控制权、决策权与伦理问题的关系见图1,当由系统掌握决策权和控制权时,伦理问题即存在。
图1 车辆控制权和决策权与伦理问题的关系
针对存在伦理问题的L3-L5 级,提出自动驾驶伦理问题的设计策略。首先,针对可避免的碰撞风险,一般情况下,自动驾驶系统能有效避免事故发生,其技术手段包含纵向自动紧急制动控制和横向紧急转向控制。当自动驾驶车辆遇到突发危险情况,而驾驶员没有做出反应(或无驾驶员),可主动进行最大制动,避免或减少追尾等碰撞事故的发生,比如AEB(Autonomous Emergency Braking);当无法只通过制动规避风险时,自动驾驶系统自动提供转向助力帮助驾驶者通过转向来规避障碍物,比如ESA(Emergency Steering Assistant)。
针对不可避免的碰撞风险,可有三种路径进行应对,分别是转移决策权路径、限定运行条件路径和算法路径,见图2。
图2 自动驾驶伦理问题设计策略
(一)转移决策权路径——L3级
出现自动驾驶汽车伦理问题的两个要素是控制权和决策权。可通过设计转移车辆决策权主体,来规避伦理问题。自动驾驶汽车不需要人类控制汽车行驶,也就意味着不需要方向盘和踏板。如果自动驾驶车辆具备方向盘和踏板,人类驾驶员就能随时对车辆进行接管,改变自动驾驶系统的行车意图,即车辆行驶的决策权可随时由自动驾驶系统转移给人类驾驶员,而此时转移决策权的决策完全由人类控制。当前的L3 自动驾驶就是采取此路径,车辆上配备驾驶员(或安全员、责任用户),随时准备对车辆进行接管(见图3)。
图3 东风领航Robotaxi L3自动驾驶汽车
(二)限定运行条件路径——L4级
如果当自动驾驶车辆无方向盘或踏板,同时又没有合适的算法路径解决伦理问题时,就可采用技术限定运行条件路径的方式,杜绝引发自动驾驶汽车伦理问题产生的1 个前提:不可避免地涉及生命安全的交通事故。比如东风悦享自动驾驶汽车(见图4),无方向盘或踏板,但限定其运行条件为封闭园区并且是低速行驶。在这样的限定条件下,为系统的功能安全提供了充分保证,避免出现任何碰撞事故。由于其是在一定区域内低速行驶,自动系统控制逻辑是遇到障碍物立即停车,即使出现碰撞,也是自动驾驶系统的缺陷,从而避免了自动驾驶的伦理问题。
图4 东风悦享L4级自动驾驶汽车
(三)算法路径——L5级
未来L5 自动驾驶系统需要依据伦理需求进行算法的路径规划设计,让自动驾驶汽车掌握控制权和决策权。当前的技术条件(自动驾驶系统的感知、规划和决策)均达不到L5的要求,随着人工智能技术进步、人们对自动驾驶汽车伦理观念的转变,L5自动驾驶伦理问题的最终应对的目标是探寻符合人类道德标准的算法。
三、自动驾驶法律责任问题
虽然自动驾驶在伦理问题上存在争议,但是自动驾驶的法律责任主体问题经过学术界的探讨,比较明晰,存在争议较少。邱泽奇[3]分析了先进国家在自动驾驶法律法规上的两条路径:真人驾驶员路径和算法驾驶员路径。指出L0-L5 驾驶责任主体:真人驾驶员是低等级自动驾驶(L0-L4)的驾驶责任主体,自动驾驶车辆制造商是高等级自动驾驶(L5)的驾驶责任主体。但笔者认为L3、L4自动驾驶的法律责任主体并不一定是真人驾驶员,至少L4自动驾驶的法律责任主体不是真人,具体将在下文进行详细阐述。张龙[16]提出在L1-L3 层级的自动驾驶型道路交通事故中,自动驾驶系统未能及时发出请求或告知人类驾驶者时,汽车生产者和人类驾驶者构成引发对外连带责任的承担,自动驾驶系统及时发出请求或告知人类驾驶者后,人类驾驶者成为责任主体。在L4-L5层级的自动驾驶型道路交通事故中,汽车生产者是责任主体。
笔者认同邱泽奇和张龙两位提出的针对自动驾驶责任问题的解决思路,但两位并未明确指出针对L3自动驾驶的责任主体认定问题。而L3 自动驾驶当前面临即将投放市场,其自动驾驶的责任主体问题有必要进行详细阐述。
针对自动驾驶伦理和法律责任问题,国内外政府机构制订了相关法规进行应对,并根据技术进步和社会发展状况,不断对法规进行修订。伴随着自动驾驶技术的成熟,为了推动自动驾驶汽车的市场化、商业化应用,逐步完善自动驾驶立法是大势所趋。
由于自动驾驶汽车发生事故时的法律责任主体不明晰,导致自动驾驶汽车引发的侵权问题面临现实困境。自动驾驶侵权的责任主体难以确定,包括驾驶员、车企、汽车子系统供应商、零部件供应商、导航图商、政府道路基建等;自动驾驶汽车的具体缺陷难以认定,包括设计缺陷、质量缺陷、生产制造缺陷等;侵权责任的风险抗辩事由难以确定,主要体现在自动驾驶是否具备准入条件,准入后自动驾驶汽车存在不能被发现的缺陷怎么办,如果政府给与车企主张风险抗辩事由的权利,那有可能导致车企损害消费者的合法权益[17]。
四、自动驾驶法律责任问题设计策略
(一)判定逻辑
车企掌握了自动驾驶汽车的各项核心技术,在自动驾驶汽车侵权时的法律责任判定上,应能提供技术手段辅助第三方判定侵权责任主体。
自动驾驶汽车发生碰撞事故,其法律责任可分为两步进行判定。先从整个事故场景进行划分,可将责任方分为“人-车”系统和环境(包含道路环境和其他道路交通使用者),自动驾驶的“人-车”系统和手动驾驶的“人-车”系统在法律主体上并无区别,可按照目前的交通法规进行判定执行,在此不再赘述;当碰撞事故的法律责任在“人-车”系统,需要对人和车的责任划分,见图5。
图5 “人-车”系统和环境
如果“人-车”系统负主要责任,为了厘清人和车的责任,需要从控制权(驾驶主体)角度进行分析,即在发生碰撞事故时,是人或车在控制车辆。为了清晰分析,此处假设自动驾驶车辆无系统故障。
L0-L2 级自动驾驶,人类驾驶员掌握控制权,故“人-车”系统的法律责任由人负责。L3 级自动驾驶,存在控制权的“人-车”切换,需要判定发生碰撞事故时,“谁”(人或车)掌握控制权,“人-车”系统的法律责任就由“谁”负责。L4 和L5 级自动驾驶,车掌握控制权,故“人-车”系统的法律责任由车负责,但由于车不能作为法律责任主体,最终由车企负责。
L0-L2、L4、L5 自动驾驶的控制权比较明晰,法律责任比较清晰。针对L3自动驾驶,存在人机共驾过程中的控制权切换,需要识别控制权的归属。下面对L3自动驾驶的法律责任设计策略的实践进行介绍。
(二)判定方法
当前L3自动驾驶车辆即将面向市场,自动驾驶责任主体判定是当下亟需解决的问题。当L3 自动驾驶发生交通事故,如果责任方是“人-车”系统,那么责任方可能是人,也可能是车(车企)。这就需要通过技术手段,判定发生碰撞事故时,“谁”(人或车)掌握控制权。
如上文对自动驾驶法律责任判定逻辑介绍,L3自动驾驶同样适用该策略,只是在法律责任判定上更为复杂,可分步进行判定。为了简化判定内容,此处判定假设:责任原因明晰,而且不存在多方的共同责任(连带责任)。
第一步,将人和车作为一个系统整体,判定“人-车”系统和环境(包含道路环境和其他道路交通使用者)的责任划分,即当出现交通事故时,判定是否是外部环境原因导致。此项判定标准符合国家道路交通安全法规要求,可依据法规进行判定。
第二步,如果发生交通事故是由于“人-车”系统导致,此时就要分析是人的原因,还是车的原因导致此交通事故。判定的依据是发生交通事故时,人和车哪方掌握车辆行驶控制权。如果驾驶员主动接管车辆掌握车辆控制权,或者自动驾驶提醒驾驶员接管车辆但驾驶员未接管车辆,经过一定的提醒接管时间并自动系统地执行完最小风险控制策略后,驾驶员被动掌握控制权,则由驾驶员承担责任。
第三步,如果导致交通事故的原因是属于自动驾驶汽车导致,此时则由车企承担责任。由于汽车是由众多零部件和系统组成,车企可进一步分析事故的具体原因,将事故原因的问题点聚焦到零部件或系统,从而将责任分担到零部件或系统供应商,见图6。
图6 L3自动驾驶责任判定流程
(三)实践框架
当前中国L3自动驾驶车型即将面临上市,车企面对L3自动驾驶法律责任问题,需要考虑在整个自动驾驶汽车的研发、生产制造、销售服务方面做好设计应对策略,见图7。
图7 L3自动驾驶法律责任设计应对策略
行车数据存储。保障L3 自动驾驶事故责任原因分析得客观准确,对行车过程中的相关数据进行记录保存(尤其是发生交通事故前后的数据需要长期保存)。具体包括明晰“人-车”系统和环境责任的数据、人和车责任的数据。比如,通过车辆前后左右的雷达和摄像头识别车型周围环境、驾驶员状态检测系统识别人的状态、自动驾驶控制系统的CAN网络数据识别车辆控制权归属、车辆故障数据等,建立远程数据管理平台,对数据进行安全管理。高感知精度、高算力和冗余备份的系统计算平台。采用多源异构感知数据融合技术,将毫米波雷达、摄像头、激光雷达、高精度地图定位盒子的感知数据进行融合,形成对目标物的多重感知,达到感知识别率接近100%。比如前方的车辆目标识别,毫米波雷达能识别到前方障碍物,优点是距离远(探测距离能到200 m 以上),能精准识别障碍物距离和速度;前视摄像头能识别前方为车辆目标,优点是能直观识别前方障碍物类型;激光雷达能同时识别其为障碍物中的车辆目标,优点是精度高。将三种不同传感器感知数据进行融合处理,最终达到车辆对前方目标车辆识别的高准确率(高速99.9%、城区98%以上)。在感知识别目标后,采用决策规划控制技术(控制逻辑及算法,包含行为规划、轨迹规划、运动控制、底盘控制、执行器控制等),实现车辆的自动驾驶行为。以上感知融合和规划控制对自动驾驶的计算平台提出了更高的要求,至少需要220 TOPS(Tera Operations Per Second,1012/s)。为了保障L3自动驾驶的算力需求,高算力平台至少要达到500 TOPS。为了防止单个部件的故障而导致自动系统无法安全运行,确保整个L3自动系统的可靠性,需要对相关的关键部件进行冗余备份设计。包括动力系统备份、计算系统平台备份、控制器供电系统备份、转向系统备份、制动系统备份等。
数据管理平台。车企应对其自动驾驶汽车的安全状态进行监测和报告,建立数据管理平台,进行数据接收、数据上报、数据存储等功能,确保监测数据和报告的真实性、安全性、完整性。数据监测除了车辆行车数据,还要监测车内驾驶员的行为,对驾驶员影响L3 自动驾驶行车安全的行为(比如睡觉、沉浸使用手机等)进行提醒,必要的时候提醒驾驶员接管车辆。这就涉及了用户的个人隐私数据安全问题,比如Rannenberg[18]强调了行驶数据的收集可能导致的滥用问题,认为用户存在使用自动驾驶汽车的个人信息泄露风险,应注意自动驾驶汽车用户的隐私保护。建立数据管理平台,能有效地解决由L3自动驾驶汽车引发的数据及网络安全问题。
用户告知机制。由于L3 自动驾驶需要人始终具备接管能力,导致人机交互最为复杂,需要建立用户告知机制,分为静态告知和动态告知。静态告知,是指在用户首次使用L3自动驾驶功能之前,需要知道的必要信息,确保用户充分掌握智能网联汽车与传统汽车在操作、使用等方面的差异。告知信息包括但不限于自动驾驶功能产品功能及性能限制、车内安全员职责、人机交互设备指示信息、系统操作说明、功能激活及退出条件和方法、最小风险策略、系统潜在风险说明、人工接管预留时间、不可避免碰撞的响应策略等信息。动态告知,分车内和车外进行动态告知设计。车内告知必须有可能清楚地区分是否在使用自动驾驶系统及驾驶员的责任。人机界面的设计必须在任何时候都有明确的规定,个人的责任落在哪一边,责任的分配。用户在“驾驶”自动驾驶汽车时,需要了解自动驾驶汽车的功能(心智模型)、行车状态及环境的情景意识,以及处理好驾驶任务和非驾驶任务的关系(工作负荷)。车外告知要求车辆应合理使用声音、光信号等方式与其他道路使用者进行交互。自动驾驶汽车在道路上行驶,需要告知其他道路交通使用者关于自动驾驶汽车当前状态和行车意图。
用户考评机制。经过用户告知机制,用户对L3自动驾驶进行学习,并完成相关L3 自动驾驶任务。对L3自动驾驶人车共驾的绩效,需要对其进行评价。用户开启L3 自动驾驶系统,成为责任用户,在“人-自动系统”安全驾驶的过程中,L3 自动系统对责任用户的行为进行监测和评价,并将评价结果进行数据存储。如果驾驶员作为责任用户,没有达到自动系统对责任用户的要求,则驾驶员需要再次学习并考核合格,才能在下次继续使用L3自动驾驶功能。
L3自动驾驶保险机制。当L3自动驾驶汽车发生交通事故时,为了简化受害人的获赔程序、降低其获赔成本,便于其救济与保障,需要专门为L3 自动驾驶功能购买保险,同时覆盖车主和自动驾驶汽车。2022年8月,全国首个自动驾驶地方性法规《深圳经济特区智能网联汽车管理条例》正式施行。其中指出,开展道路测试、示范应用或者其他道路行驶的智能网联汽车,应当按照有关规定投保商业保险。自动驾驶保险尚处于萌芽阶段,虽然政府已出台相关规定要求,但是具体实施方案,依旧模糊,这需要汽车企业、保险公司、政府等共同完善实施方案。在保险实施方案未明晰的情况下,车企需要通过技术手段提前做好设计策略。对L3自动驾驶功能实行前期硬件预留,后期OTA(Over the Air Technology,空中下载技术)软件升级。L3 自动驾驶功能使用费用可以按使用时间收费(比如一年),费用包含了L3自动驾驶这项功能的保险费用(覆盖车主和自动驾驶汽车)。
五、结语
本文对自动驾驶伦理、法律法规的论述显示:关于伦理问题,其出现的1 个前提是不可避免的涉及生命安全的交通事故,2 个要素是控制权和决策权。通过分析,L0-L2自动驾驶汽车不存在伦理问题,伦理问题仅存在于L3-L5 自动驾驶汽车,并针对L3、L4 自动驾驶的伦理问题提出了设计策略及实践。关于法律责任问题,L0-L2、L4-L5 自动驾驶的控制权比较明晰,L0-L2 法律责任主体为人,L4-L5 法律责任主体为车企(车),L3 自动驾驶存在人机共驾过程中的控制权切换,故法律责任主体要视具体情况进行分析,并提出设计策略。最后重点分析了即将投入市场的L3 自动驾驶汽车法律责任方面的设计策略:车企一方面需要对L3自动驾驶法律责任判定,通过技术手段监测车辆周围环境、车辆系统及驾驶员状态,判断责任方;另一方面需要建立高感知精度、高算力和冗余备份的系统平台(保障系统安全)、数据管理平台(保障事故原因分析及定责数据的网络安全)、用户告知机制、用户考评机制、保险机制(覆盖车主和L3 自动驾驶),全方位保障L3自动驾驶行车安全及法律责任问题,解决用户的后顾之忧。虽然自动驾驶汽车的伦理问题是由人工智能引起的,但是这并不代表放弃自动驾驶的进程。相信在不久的将来,L5级自动驾驶伦理问题也能得到适当的解决方案。