APP下载

法理学如何应对自动驾驶的根本性挑战?

2020-01-09骆意中

华东政法大学学报 2020年6期
关键词:电车难题挑战

骆意中

一、何为自动驾驶的挑战?

科技追求创新性,一项技术的广泛使用往往能够改变我们的生活;而法律追求安定性,好的法律体系需要为人们的行为提供可以依赖的行为规则。所以,生活中的改变,尤其是公共生活中的剧烈变化,往往就是需要法律做出应对的时刻。当人工智能碾压式的战胜人类最顶尖的围棋选手时,更多的人开始意识到,人工智能完全可以做到人类所能完成的事情,并且做得更好。因此,一方面我们开始期待人工智能提升人类的生活质量,另一方面,我们也担心人工智能所带来的挑战和风险是不是可控的,以及应该如何控制。自动驾驶技术正属于人工智能中可能受众最广,并且在时间上最接近应用和推广的一种,因此,法律应该如何应对这项技术带来的挑战似乎已经是迫在眉睫的问题了。然而,确定法律如何规制自动驾驶的前提是,我们能够准确地判断这项技术是否会带来挑战,带来何种挑战,以及现有的法律制度是否足以应对这项技术。

基于法律本身以及自动驾驶技术的四种特性,我们可以对法律能够应对自动驾驶所带来的挑战保有足够的信心。第一,虽然自动驾驶是一项全新的技术,但是汽车驾驶却是一种已然受到法律规制的行为。从道德性质上而言,驾驶因为其高速的性质,是一种给他人和公众施加风险的行为,自动驾驶并没有改变这一性质,存有疑问的只是具体施加风险的主体究竟是传统意义上的驾驶人、汽车制造商、算法设计者还是某种具有拟制人格的汽车。但是,这一道德性质的确定能够帮助我们省去大量的论证负担,因为法律本身已经允许了这种风险施加的行为,并且予以严格侵权责任的制度设计来保护公共利益,所以,从法理的角度讨论自动驾驶问题时,除非论证目的是要推翻包括传统驾驶在内的一切驾驶行为,除此之外,我们可以合理地绕过驾驶行为是否是在道德上得以证成的一种行为这个问题。〔1〕茱迪斯·贾维斯·汤姆森(Judith Jarvis Thomson)否认存在着一种一般性的对抗风险施加的权利,seeJudith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, pp.243-245; 但是,这并不代表具体的施加风险的行为一定不会侵犯其他人的权利,具体到驾驶行为而言,有学者就认为,驾驶大型皮卡或者SUV 对于其他车辆施加不公平的风险,或者仅仅是出于消遣和娱乐的驾驶行为都是在道德上具有瑕疵的。Douglas Huska, “Vehicles and Crashes: Why is this Moral Issue Overlooked?” 30(3) Social Theory and Practice 351-370 (2004).

第二,自动驾驶这项技术的应用和带来的效果本身不具有太多的争议。驾驶给他人造成威胁,带来风险,而这项技术的应用却能在极大程度上降低这种风险,据科学家表明,自动驾驶技术将会降低90%的交通事故,因为八成左右的交通事故都是由于人类不当操作的行为引起的。〔2〕Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, “The Social Dilemma of Autonomous Vehicles” 352 (6293) Science 1573 (2016).考虑到每年全球会有约一百万人丧命于交通事故,以及中国近十年来,每年因为交通事故丧命的人数都在六万人左右,〔3〕数据参见国家统计局发布的《中国统计年鉴》(2009-2019 年卷),来源:http://www.stats.gov.cn/tjsj/ndsj/2019/indexch.htm,2020 年7 月20 日访问。自动驾驶技术的推广显然能将这种法律允许的风险以及这种风险所带来的伤害降到最低程度。这同样也在很大程度上降低了法律应对这项制度的难度,因为许多其他科技并不具有这种确定性,例如对于人工智能究竟能在何种程度上提升司法裁判合理性,这一结论仍然是不确定的。

第三,在前两点论证的基础上,认为自动驾驶技术在道德上是可以被证成的,这种看法似乎也不会引起太大的争议。因为无论从后果主义还是契约主义的角度,自动驾驶都是能够得到证成的:首先,基于第二点中自动驾驶在事实上能够带来的效果而言,这项技术能够在总体上提升对于人们生命权的保护,在技术允许的范围内,最大限度地实现最好的后果;其次,这项技术能够降低每个人遭遇生命权损害的风险,因此,自动驾驶在契约论上对于所有人而言同样是可以接受的。所以,在我们绕过驾驶所施加的风险本身是否是道德上可以被允许的这一问题之后,证成自动驾驶似乎也并不困难。〔4〕当然,这并不代表自动驾驶不会带来其他道德上的副作用,在文章的第二部分我们将会考虑这一问题。同样,这和其他种类的科技对于法律构成的挑战不同,例如在基因编辑是否应该合法化的这一问题上,最大的障碍在于这项技术本身在道德或者伦理上是否能够得到证成,是否会侵犯胎儿的自主权,等。〔5〕该问题上的争论,参见陈景辉:《有理由支持基因改进吗?》,载《华东政法大学学报》2019 年第5 期;王凌皞:《基因改造、人性与人类价值》,载《华东政法大学学报》,2019 年第5 期;刘叶深:《基因提升伤害平等和伦理了吗?》,载《华东政法大学学报》2019年第5 期;马驰:《人类基因编辑的权利基础》,载《华东政法大学学报》2019 年第5 期。所以,自动驾驶在伦理上也并不带来其他新的科技可能引发的问题。

第四,法律在性质上是规定权利和义务的规则体系,然而权利和义务本身却是稳定的;或者说,虽然科技在几百年来持续要求法律在具体制度设计上给出应对的方式,但是却并没有因此真正创造出许多新的权利和义务种类。当然,笔者在此处依赖于权利种类(type)和权利个例(token)之间的区分,例如我们拥有对抗他人诈骗我们财务的财产权,但无论是最古老的面对面言语进行的诈骗,抑或是新型的网络金融诈骗都只构成对于不同财产权个例的侵犯,而新型的权利侵犯行为并不能创造出一种新的权利类型。依据汤姆森的“限制命题”,权利的种类是有限的,要么来自服从道德规范以及每个人拥有固有个体利益的人类本性,即“自然性权利”;要么则是完全由承诺或者法律创造出的“纯粹社会性权利”。〔6〕Judith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, pp. 273-274.那么,具体到自动驾驶而言,这项技术同样也不产生新的权利类型,因为驾驶员或者乘客享有的运用车辆自由出行的权利已经被法律所确定,并且自动驾驶中可能出现的权利侵犯的情况,在传统驾驶的情形中大多同样出现。因此,如同下文中将会具体讨论的,自动驾驶并不会产生新的权利义务,而仅仅涉及具体权利义务在部门法中的归属问题。

根据上述四点,我们可以区分出科技对于法律提出的两种类型的挑战,我将其分别称为“根本性挑战”和“对制度设计的挑战”。〔7〕这一区分受到陈景辉教授“理论的挑战”和“实践的挑战”的启发,但是更偏向于现有的权利种类和法律制度是否能够应对科技的挑战这一区分标准,而不基于“信念”和“行为”的区分。参见陈景辉:《人工智能的法律挑战: 应该从哪里开始? 》,载《比较法研究》2018 年第5 期。简单来说,如果某一种行为模式在法律体系中完全没有规定,并且也没有类似的制度可以予以借鉴,因此需要创造出新型的权利种类予以规制,那么这种挑战是根本性的,需要突破现有法律框架内的权利义务关系;而如果一种技术的引进将会产生一种新的具体行为,但是其行为的性质,以及涉及的权利义务类型已经有法律所规制,那么,这种挑战只需要法律在具体的制度设计中予以调整,确定既有的权利义务(以及责任)的具体归属就得以应对。这个区分对于本文的论证目的而言是十分关键的,因为只有当自动驾驶能够在某个方面对于法律构成根本性挑战时,才需要在法理的层面对于如何应对该技术予以论证;否则,具体部门法的讨论就足以应对。

二、不对法律构成根本性挑战的问题

目前关于自动驾驶的讨论主要集中在两个方面,一方面是在应用伦理学的领域中讨论,在事故发生的不同场景中,究竟何种算法或者程序的预设在伦理上是正确的,例如自动驾驶汽车是否应当优先保护其乘客,以及当汽车必须在杀害更多的人还是更少的人中做出选择时,是否应当遵循某一种特定的道德原则;另一方面则是讨论具体的部门法究竟应该如何确定责任的归属。例如交通事故的侵权责任是否应该转变为汽车制造商的产品质量责任,以及虽然没有传统意义上的驾驶人,但是车辆的使用人是否应当承担侵权责任,等等。然而,法理学对于该问题的关注点与这两个方面的讨论并不一致,例如即使应用伦理学者能够在不同的场景中得出一个一致的道德原则,但是这个道德原则仍然可能不被具体的法律体系所采纳;而部门法学者讨论的目的正是在于,应对上文中所提到的自动驾驶对于法律制度设计上的挑战。因此,文章这一部分的工作将是排除一些常见的,但是与我们的论证目的却并不直接相关的讨论。

为了使论证更为清晰和精确,首先需要对本文中所使用的“自动驾驶”究竟是指什么,做出如下的两个范围限定.其一,人工智能中存在强AI(general AI)和弱AI(narrow AI)的区分,前者是指能大范围复制人类的心智能力,甚至超越这些能力的人工智能;而后者仅仅能够在特定任务上复制或者超越人类心智能力的人工智能。前者多出现在科幻作品中,而近些年来的科技进步主要体现在弱AI 的开发中。〔8〕John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7(1) Journal of Practical Ethics 63 (2019).因此,本文中的自动驾驶仅仅在弱AI 的意义上使用,所以自动驾驶汽车并不具有完全的自主性,例如它不可能主动替乘客决定目的地,而只能根据人类的命令规划线路并且完成行驶线路。换言之,我们不认为自动驾驶汽车具有道德主体的地位,因此仍然是物或者产品。其二,依据国际汽车工程师学会(SAE)标准,驾驶被划分为六个级别,其中L0 级是完全由人类操控的驾驶模式;而L1至L5 都具有一定程度的自动化,但是只有从L3 之后才是人们日常所理解的自动驾驶模式,例如L3在大多数情况下都由系统自动运行,但是在复杂情况中需要人类接管,而L5 则在任何情况中都由系统来操纵车辆,完全无需人类干预。〔9〕SAE International, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, https://www.sae.org/standards/content/j3016_201806/,accessed July 20, 2020; 所以当仅仅是人工操控和自动操控同时可能的情况下,需要在技术上保证能够最终“追溯”出引起伤害的操控是由人类实施的,还是自动系统实施的。See also John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence”7(1) Journal of Practical Ethics 83-84 (2019); 德国联邦交通和数字基础设施部伦理委员会,Report onAutomated and Connected Driving, https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.html?nn=187598, accessed July 20, 2020.据此,本文的讨论仅限于L5 完全自动驾驶的范围内,因而车内所有人的身份都是乘客或者车辆的使用者。

(一)分配正义

我们可以设想,当自动驾驶完全普及,许多人类的工作岗位将会消失或者数量大幅度削减,比如专职司机、交警、保险公司的现场勘查等。而自动汽车的研发、制造和销售方将获得更多的利益分配。因此,自动驾驶所带来的一个副产品将会是分配中的不平等和不公平。并且事实上,用法律来应对分配正义甚至是本末倒置的,因为依据约翰·罗尔斯(John Rawls)的政治制度四个阶段的序列,分配正义原则决定了正当的宪法框架,继而确定了具体的法律制度。〔10〕John Rawls, A Theory of Justice, Harvard University Press, 1971, pp.195-198.然而,之所以本文将分配正义排除在自动驾驶对于法律所构成的根本性挑战之外,其原因在于,首先,带来分配正义的问题并非自动驾驶这项技术某种特质所造成的,而是几乎任何一种新的技术得到推广时,都会有大量的人类工作岗位消失,因而,这并非是讨论自动驾驶问题时需要专门应对的问题。其次,如果一个法律体系所执行的分配原则是正当的,那么可能法律已经规定了某种再分配制度,例如,法律规定由新技术的获益者来保障失去工作群体的基本收入,所以因为科技发展而造成的失业也并不必然在根本上挑战法律制度。〔11〕塔西欧拉斯提到,经济学家对于科技所带来的就业问题也存有争论。美国几乎一半的工作岗位,以及英国三分之一的工作岗位都可能被自动化的技术所取代,但是在历史上,科技的创新往往也会创造出更多的工作岗位。See John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7(1) Journal of Practical Ethics 84 (2019); PhillippeVan Parijs, Yannick Vanderborght, Basic Income: A Radical proposal for a Free Society and a Sane Economy, Harvard University Press, 2017, p.105; Horst Eidenmüller,“Machine Performance and Human Failure: How Shall We Regulate Autonomous Machines?” 15 (1) Journal of Business & Technology Law 131(2019).

(二)责任归属

法学研究者对于自动驾驶的讨论核心集中在责任归属的领域中,例如自动行驶的车辆对他人的身体造成了伤害,而此时车辆并非由人类驾驶员所操控,那么究竟应该由谁来承担侵权责任,以及在构成犯罪时,由谁来承担刑事责任。〔12〕例如,王乐兵:《自动驾驶汽车的缺陷及其产品责任》,载《清华法学》2020 年第2 期;郑志峰:《自动驾驶汽车的交通事故侵权责任》,载《法学》2018 年第4 期;冯珏:《自动驾驶汽车致损的民事侵权责任》,载《中国法学》2018 年第6 期;彭文华:《自动驾驶车辆犯罪的注意义务》,载《政治与法律》2018 年第5 期。让我们以侵权责任为例来论证为何这一问题也不能对法律构成根本性挑战,其中最为核心的问题就在于,由于驾驶员成了车辆使用者或者乘客,而真正操控车辆的是预设的自动程序,那么由此产生的侵权责任是否一律由车辆的制造商来承担,以及承担的究竟是交通事故责任还是产品责任。这两种情况在《民法典》中都被规定为适用无过错责任的特殊侵权,所以无论是车辆使用者还是制造商,构成侵权责任都无需过错的存在。那么,剩下的问题就仅仅在于责任主体如何认定。进一步来说,根据特殊侵权的构成要件,由于对于他人造成的损害已然是客观事实,那么所需要认定的则是通过因果关系链条来反推究竟是谁实施了造成损害的不法行为。再进一步,车辆的使用者究竟是否在某种情况下应当对自动驾驶汽车所造成的侵权行为承担责任。〔13〕可能有人会认为,法律可以通过赋予自动驾驶汽车拟制人格的方式来独立承担责任。但是本文将不考虑这种情况,我们仍然能够合理将弱AI 的自动驾驶汽车视为是由人类预设的算法所操控,并且使用者同样是人类。因此,对损害的因果关系链条产生影响的要么是算法制定者,要么是使用者。如何让自动驾驶汽车来承担赔偿责任同样是存在争议的。See John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7(1) Journal of Practical Ethics 83 (2019).

我们依据产品是否存在缺陷为标准,分两种情况来讨论:其一,依据《民法典》第1202 条的规定,“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”。因此,当造成事故侵害的原因是因为产品本身的缺陷,那么很显然,此时应当由车辆的制造商来承担无过错责任。需要民法来具体确定的就只是如何认定自动驾驶的缺陷,以及在证明缺陷时是否应当使用举证责任倒置的制度安排。〔14〕例如我国的《消费者权益保护法》第23 条就规定:“经营者提供的机动车、计算机、电视机、电冰箱、空调器、洗衣机等耐用商品或者装饰装修等服务,消费者自接受商品或者服务之日起六个月内发现瑕疵,发生争议的,由经营者承担有关瑕疵的举证责任。”其二,更有争议的问题在于,当自动汽车并不存在缺陷时,也即损害的因果关系无法被归结到汽车制造商之上,那么,此时车辆的使用者是否应当开始承担相应的责任。事实上,依据现有的法律制度,我们似乎不需要对于第二种情况中,即汽车的使用者与侵权损害的造成之间是否存在因果关系进行单独认定,而仅仅采用法律推理的一般原则就能够推导出,使用者应当承担一定的侵权责任,或者说无论事实上是否存在因果关系,在法律上都应当认为使用者和损害的造成之间存在因果关系。

这个推理分为三步。第一,依据《民法典》和《道路交通安全法》的规定,当因为机动车的缺陷而对他人造成损害时,受害人既可以要求机动车一方承担机动车交通事故责任,也可以要求生产方承担产品质量责任。〔15〕参见程啸:《侵权责任法》,法律出版社2015 年版,第481 页。换言之,即使机动车的使用者与损害之间并不存在任何直接的因果关系时,法律也认为受害人可以要求使用者来承担具体的侵权责任。第二,而在机动车不存在任何缺陷时,也即制造商对于因果关系形成而产生的影响显著降低时,我们可以认为,相较于存在缺陷的情况,使用者对于该因果关系形成的影响则显著上升。第三,依据举轻以名重(a fortiori)的推理原则,当使用者在因果关系更弱的情况下都应当承担侵权责任,那么当因果关系显著更强时,车辆的使用者当然也应当承担责任。因此,我们可以得出结论认为,在不存在缺陷时,使用者应当对他人因为自动驾驶所造成的侵权损害承担责任。这一结论似乎也符合常识,因为无论自动汽车是否存在缺陷,对于车辆的使用必然在某种程度上引起了具体损害的发生。当然在具体的法律制度设计上,还有待部门法的最终确认,例如车辆使用者和制造商具体责任比例的分担,保险制度的完善,以及如果制造商承诺承担自动驾驶中的任何责任时,是否能够通过立法的方式来彻底免除车辆使用者的责任。〔16〕例如奥迪和沃尔沃等厂商就承诺承担所有自动驾驶中的侵权责任,但是这并没有形成行业标准,比如特斯拉则声称事故中的责任仍然需要由乘客来承担。但是,总的责任分担模式却是相对清楚的,制造商和使用者承担一个非真正的连带责任,无论两者内部因为合同还是最终责任认定的追偿,都不能对抗作为受害人的第三人。

基于这部分的讨论,我们也可以合理的认为,自动驾驶的责任认定中同样也不构成对于法律的根本性挑战,因为诸如因果关系的认定问题能够在现有的法律体系中得到解答,只是需要部门法以及相关的行业标准来最终确定责任分配的设定。

(三)部分电车难题

本部分最后排除的是,自动驾驶的伦理讨论中所最为依赖的理论模型,即电车难题。〔17〕例如Patrick Lin, “Why Ethics Matters for Autonomous Cars”, in M. Maurer, J. C. Gerdes, B. Lenz, and H. Winner eds., Autonomesfahren: Technische, rechtliche und gesellschaftlicheaspekte, Springer 2015, pp. 69-85; Ivo Coco-Vila, “Self-Driving Cars in Dilemmatic Situations: An Approach Based on the Theory of Justification in Criminal Law” 12(1) Criminal Law and Philosophy 59-82 (2018). 反对将电车难题运用到自动驾驶分析中的文献诸如:AmitaiEtzioni, OrenEtzioni, “Incorporating Ethics into Artificial Intelligence” 21(4) The Journal of Ethics 403-418 (2017); Sven Nyholm, Jilles Smids, “The Ethics of Accident-Algorithms for Self-Driving Cars: An Applied Trolley Problem?” 19(5) Ethical Theory and Moral Practice 1275-1289 (2016); Sven Nyholm, “The Ethics of Crashes with Self-Driving Cars: A Roadmap, I” 13(7) Philosophy Compass e 12507 (2018).当然由于电车难题的版本和变体无穷无尽,我们在此所排除的只是部分电车难题,这些讨论要么与自动驾驶的特质不相关,要么是传统驾驶中同样也会遇到的困境,因此,我们同样也不认为这部分电车难题构成对于法律的根本性挑战。

实际上,电车难题中最为经典和核心的场景都与自动驾驶所带来的根本性挑战无关。最经典版本的电车难题由汤姆森正式提出,因此让我们以此为例来讨论,何种类型的电车难题应当被排除。

司机案 一辆失控的电车正在轨道上飞速行驶,你不幸正是这辆电车的司机。轨道的正前方上有五个工人正在工作,而如果电车撞上他们,那么,这五个人都会被杀害。此时,前方轨道出现了分岔,如果你将电车转向,从而驶向右边的岔路上,那么你将杀害岔路上工作的一个工人,但是将会拯救正前方轨道上的五个工人。你会选择让电车转向吗?〔18〕See Judith Jarvis Thomson, “The Trolley Problem,” in her Rights, Restitution, & Risk, Harvard University Press, 1986, p.94. 电车难题的雏形由菲利帕·富特所提出,其目的是为了反对双重效果原则(Doctrine of Double Effect),从而支持积极和消极义务的区分对于意图是否影响道德责任这一问题的解答。See Phillipa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”, in her Virtues and Vices, University of California Press, 1978, p. 23.

这一版本的电车难题运用到自动驾驶中则变成了,当自动程序需要在杀害五人及杀害一人中做出选择时,应该如何决定。司机案所代表的是这一类的电车难题,也即风险的施加者如何在两个群体之间做出道德上正确的决定,而这一行为并不涉及司机的自救。而之所以强调这是一类情境,是因为我们可以在此基础上增加或者改变更多的设定,例如这五个人出现在此处是因为他们违反了相关的法律要求;或者当司机在五个人或者一个人做出选择时,却发现那单独的一个人是一个婴儿;或者如果司机选择转向一个人,那么这个人将必死无疑,而转向五个人时,他们只会受到重伤,等等。但是,对比自动驾驶和传统驾驶,我们会发现这一类型的电车难题同样会出现在传统驾驶的情况中,因此我们也可以将其排除在新的根本性挑战之外。

第二类被排除的电车难题是汤姆森认为真正重要的一类问题,即“旁观者案”。简单来说,此时要做出决定的不是施加风险的人,而是没有任何关联的旁观者。当失控的电车要杀害五个人时,旁观者能够按下一个按钮让电车转向,从而杀害岔道上的一个人。此时,旁观者让电车转向的行为是否是可以被允许的。〔19〕汤姆森在后期的文献中仅仅将旁观者案称为电车难题,因为最初版本的司机案中并不存在太大的争议,下文中会解释这一点。之所以这是最为重要的电车难题,是因为人们直觉上会认为旁观者让更少的人被杀害的行为是可以被允许的,但是汤姆森将此案与移植案相对比,在后者中,外科医生的五个病人各需要一个器官,否则他们将会死去,那么外科医生能否杀害一个健康的人,用他的器官来拯救这五个病人的性命。但是,人们的直觉上显然又认为外科医生不得这样做。正是通过这种对比,汤姆森试图尝试回答何种伤害或者杀害是可以被允许的。但是因为在移植案中医生不得这样做,并且移植案和旁观者案在结构上是相同的,因此汤姆森认为在旁观者案中,旁观者同样也不得这样做,从而她认为并不存在所谓的电车难题。See Judith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, pp. 177-180; Judith Jarvis Thomson, “Turning the Trolley” 36(4) Philosophy & Public Affairs 374 (2008); Judith Jarvis Thomson, “Kamm on the Trolley Problem”, in F. M. Kamm, The Trolley Problem Mysteries, Oxford University Press, 2016, pp. 114-117.但是,这一类仍然与自动驾驶无关,因为自动驾驶可能会带来的问题必然是施加风险的一方(使用者或者制造商)应该如何抉择的问题,而并不存在旁观者做出决定的情形。

第三类被排除的电车难题是,即将被杀害的五个人此时只能通过设置路障的方式来保护自己,但是这会使得电车转向而杀害另一个人,那么这五个人的行为是不是可以被允许。〔20〕F. M. Kamm, The Trolley Problem Mysteries, Oxford University Press, 2016, pp. 79-80.这一类电车难题的本质是,被施加风险的无辜方能否通过伤害或者杀害他人的方式来紧急避险或者自救。而这一问题同样与自动驾驶中的伦理困境无关。

那么,我们可以总结上述三种被排除的电车难题从而得出,自动驾驶可能对法律产生根本性挑战的电车难题情境,究竟应当具有何种结构上的属性。首先,在这一情境中做出决定的必须是施加风险的一方,而不能是旁观者或者可能会受到伤害的一方;其次,施加风险的一方必须是在保护自己还是做出牺牲之间做出决定,而不是在其他的选择之间做出选择。只有满足这两个条件的电车难题才有可能帮助我们识别自动驾驶能够对法律产生何种根本性的挑战,而在下一节中,我们就将在这两个必要条件的基础上,发掘出一个真正对法律带来这种挑战的难题。

三、个体层面正确的选择 vs 集合层面错误的选择

上一节中我们总结出了,想要通过一个电车难题的情境来解释自动驾驶会对法律产生何种根本性的挑战,那么这个情境必然需要施加风险的一方在两难的困境中做出选择,并且这个困境中的一方是施加风险的本人。那么很显然,符合这两个必要条件的情形是,当自动驾驶车辆必须在保护自己牺牲他人和自我牺牲从而保全他人之间做出选择,自动驾驶的程序应当如何进行选择。当然,有读者立马会质疑,传统的驾驶中也会存在类似紧急避险的情况,为何不将其排除在外呢?一个传统的驾驶者在紧急情况发生时,同样也会面临究竟要不要撞上一个完全无辜的路人并导致其死亡,从而避免自己遇难的后果,以及这种选择在道德上是不是被允许等问题。但是,正是出于这一考虑,上文中才认为,所总结的两个条件只能构成根本性挑战情境的必要条件,而非充分条件。那么,我们需要将传统驾驶和自动驾驶中的紧急情况的发生和选择相对比,从而最终确定这种根本性挑战是什么。为了简化这一问题,让我们仅仅考虑车辆的驾驶者(使用者)为了自救而杀害一个无辜路人的情形。

首先,传统驾驶的紧急情况发生时,做出最终行为决定的是处于紧急情况中的人,而自动驾驶做出最终决定的主体是对于紧急情况进行预测,并事先做出决定的自动程序。因此,传统驾驶最终决定的做出,完全取决于个人的道德信念以及在紧急情况下个人的理性能力,而自动驾驶中做出最终决定的是制造商的程序设定,因此通常是一种团体决策。

其次,更为重要的是,法律如何能够评价和规制这两种决定的方式。在传统驾驶的紧急情况中,法律给予了行为人一个行动的理由,即允许行为人在符合比例原则的情况下,通过给他人的人身或者财产带来损害的方式实现自我保护。但是法律同样也仅仅能够给予行为人这样一个理由,但是却不能最终决定,行为人在紧急情况下会如何做出决定。例如驾驶者完全可能在紧急的情况下失去理性能力,从而无法遵循理由来行为;或者驾驶者可能是一个纯粹的利己主义者,因此其行为决定总是试图最大化自身的利益,而不顾对他人所造成的损害。那么,在传统驾驶中,法律更重要的角色在于行为发生之后,对于行为和责任事后的认定和评价,而并非在事先做出最终的行为选择。在自动驾驶的紧急情况中,法律所发挥的作用则恰好相反,法律的规定最终决定了自动车辆的程序在紧急情况发生时,将会如何进行实践推理,并形成最终的决定。因此,如果法律禁止通过杀害一个人的方式来实现车辆使用人的自救,那么汽车制造商将不得植入以杀害他人的方式而保护乘客的算法,因而,也将不会出现通过违法行为而实现紧急避险的行为决定。所以,自动驾驶中,法律的作用具有决定性,可以完全排除不当的紧急避险行为,但是这种代替行为人做出最终行为决定的特性,将会使得自动驾驶陷入两难的困境之中,而这一困境则正是自动驾驶对于法律所造成的根本性挑战。

具体而言,假设法律最终认定,通过杀害无辜的第三方而实施自救的行为是无法证成的,因而不能将对应的自动驾驶的算法认定为合法,那么最终市场中合法的自动车辆在遇到这样的紧急情况时,就不会优先保护乘客的利益。依照可欲性(desirability)和可行性(feasibility)的区分,法律选择了一项具有可欲性的规定。但是,在这种情况中,可欲性将会使得自动驾驶的可行性被消减。依据一项科学数据的调查,人们认为,如果自动驾驶的规定遵循功利主义式的不偏不倚的原则,那么这种规定是更应当被接受的,或者更具有可欲性的。但是同时,接受调查的人们表示,他们只会接受在任何情况下都会优先保护自身安全的自动驾驶车辆,而无论这种保护将会给他人带来何种损害。〔21〕Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, “The Social Dilemma of Autonomous Vehicles” 352(6293) Science 1575(2016).借用塔西欧拉斯的表述,“如果情况是这样的话,那么确定电车难题的正确答案可能最终在事实上被证明是与实践无关的,因为并不会有足够多的人们将会选择购买这种类型的车辆,从而导致这种车辆根本不值得被生产出来。”〔22〕John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7(1) Journal of Practical Ethics 68 (2019).当法律确定了一种在个体层面上能够得到证成的规定,也即禁止优先保护乘客人身财产的自动驾驶车辆进入市场,那么这将彻底推翻自动驾驶技术在实践中的可行性,因为大多数人会选择传统驾驶的方式,将自己的生命和身体完整的命运掌握在自己手中。

最后,我们的现状(status quo)是法律允许驾驶,即驾驶行为给他人施加的风险在法律上是被允许的,那么当自动驾驶技术的出现能够极大地降低这种伤害的风险,很可能,法律就不是可以允许这种技术,而是应该允许这种技术。〔23〕或许特斯拉创始人伊隆·马斯克(Elon Musk)的这一观点并非太过荒谬:他认为当自动驾驶能够在如此的程度上降低伤害的风险,那么选择传统人工驾驶出行的人们,就在道德上做出了一个错误的行为。所以,在这里我们就诊断出了,人工驾驶技术真正对法律造成根本性挑战的问题:也即当法律做出一个在个人层面上正确的决定(即禁止通过伤害他人的方式来保护自己)时,那么从集合的层面来看,法律则做出了一个错误的选择。因为在两种不同的风险之中,法律将会选择一种给人们带来更大的伤害风险的行为模式(传统驾驶)。或者说,当法律只考虑紧急情况中,具体选择的可欲性时,这会使得在一般层面上,一种更具有可欲性的行为模式不再是可行的。

基于上述论证,我们最终确定了自动驾驶对法律的挑战所在,即法律究竟应当选择个体层面上正确、集合层面上错误的决定,还是反之。

四、电车难题与自动驾驶的可行性

无辜的路人拥有对抗人类驾驶者和自动驾驶中车辆使用者要求不被伤害的权利。拥有这项权利意味着,当驾驶员和使用者将不可避免地侵犯这项权利时,其应当在事先获得权利拥有者的解除(release),而如果事先解除的获得是不可能的,那么应当进行事后的补偿。〔24〕Judith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, p.98.如同上一部分中所分析的,传统驾驶和自动驾驶在紧急情况下,做出最终行为决定的时间不同,导致这样一个差别的出现:传统驾驶员在紧急情况发生时,不可能获得权利拥有者的事先解除,因此法律只能通过事后的补偿来保护这一权利;但是在自动驾驶中,正是因为事先获得解除至少在时间上是可能的,所以,法律能够在市场准入的过程中,防止这种权利侵害的发生。那么,这一部分就将论证,当法律是否可能完全防止自动驾驶中类似权利侵害行为的发生,以及即使可能,法律为什么不应该这样做。笔者将通过两个方面的论证来证明这一观点。首先,电车难题这一思想实验的性质决定了,法律不可能在自动驾驶中确保做出个体层面上正确的决定;其次,法律应当选择确保自动驾驶的应用可行。到目前为止,笔者的论证预设了这样两个前提:(1)实践中的现状是,驾驶施加的风险被法律所允许;(2)如果自动驾驶汽车不优先保障其乘客的安全,那么自动驾驶技术将无法被大众接受,因而更多的人仍然将会选择传统驾驶。笔者将预设这两个事实性的前提为真。然而,还有一个可能存在争议的前提是,当紧急情况发生时,驾驶员或者自动驾驶汽车通过伤害他人来保护自己或乘客,这是一个道德上错误的行为。

可能有人会认为,假设A 和B 同时溺水,并且水中只有一个救生圈,那么A 率先抢到救生圈实现自救,而让B 溺水身亡的行为似乎并非是道德上错误的决定。因为在这种情况下,道德并不对A 施加一个利他主义的义务,要求其自我牺牲。但是这个场景中,如果认为A 不得让B 溺水身亡,那么A所承担的将是救助他人的积极义务,而B 因此享有的是一个被他人救助的权利,但是人们并不享有被救助的一般性权利。因此,更准确的情境是,当A 在溺水的情况下,需要踩在B 的身上导致B 溺亡才能获救时,他的这种行为是不是道德上被允许的。此时相关的是A 承担了不得伤害他人的消极义务,而B 享有的是不被他人伤害的权利。或者说在第一个场景中,A 只是被动允许了B 的死亡发生,而第二个场景中,A 则是主动杀害了B。〔25〕Phillipa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”, in her Virtues and Vices, University of California Press, 1978, p.27; Judith Jarvis Thomson, “Kamm on the Trolley Problem”, in F. M. Kamm, The Trolley Problem Mysteries, Oxford University Press, 2016, pp. 127-128.因为我们通常认定人们确实负担一项不得伤害他人的道德义务,因此,如果自动驾驶汽车通过杀害无辜路人的方式来拯救乘客,那么这将是一个道德上错误的行为。并且还有一个因素能够使得这一判断更为稳固:不同于上面的第一个场景,自动驾驶汽车的场景中,风险的施加本身就是由车内的乘客所带来的。我们同样可以通过设想两个场景来反应这一因素:假设A、B 同时乘坐一个热气球,但是此时热气球发生了故障,无法同时承载两个人的重量,如果A不把B扔下去则两个人都会最终摔死。如果有人认为A可以通过踩着B,让B溺亡的方式实现自救,那么他们同样也会认为A 可以把B 扔下去。那么对这个场景加以修改,如果A 正在某景区内翼装飞行,突然他发现自己的设备出现了故障,即将坠亡,而此时在他坠落的路线上,B 恰好乘坐合法的热气球经过,但是热气球只能承载一个人,因此A 只能通过将B 推下去的方式来自救。参与翼装飞行显然是A 自愿所参与的高风险运动,那么对比A、B 共乘热气球的场景,A 此时是将两人置于风险和危机之中的原因,所以他不得将B 推下去应该是更不具有争议的。而自动驾驶的乘客同样本身就是施加风险的一方,因此,通过伤害他人而自救的行为是道德上错误的,这个看法应该更没有争议。那么,为什么法律不应该预先切断所有这种道德上错误行为发生的可能性呢?

在关于自动驾驶应用伦理的讨论中,学者们经常运用上述电车难题的模式来尝试回答,究竟何种算法是符合伦理要求的。本文的第二部分中,我们已经排除了部分电车难题的相关性,但是,这并不意味着电车难题对于解决个体和集合层面的困境完全是没有帮助的。实际上,在仔细分析电车难题这种思想实验的特性之后,我们会发现为何这种难题不能够适用到法律的决定中,以及为何法律在事实上不可能在个体和集合的困境之间,选择正确的个体决定模式的原因。

在笔者看来,电车难题是这样一种道德论证的方式,即通过设想不同的场景,尤其是当后果主义和康德主义会得出不同答案的场景,从而考察人们依赖自己的道德直觉将会给出何种答案。并且更重要的是,尝试在所有情境的答案中通过一般化的方式来发现一种融贯的、具有一致性的道德原则和理论。正如F. M. 卡姆(F. M. Kamm)所言,如果我们得出了一个一般性的原则与对于这些案例的直觉判断相符合,那么我们需要探讨的是,该原则是否“反映了一些背后道德上重要的概念或者价值。”〔26〕F. M. Kamm, The Trolley Problem Mysteries, Oxford University Press, 2016, p.60.这种通过个案中的道德直觉,来得出一般原则的论证方式被认为是“西季威克式的(Sidgwickian)”。但是有学者认为,西季威克事实上对道德直觉进行了限定,只有当我们的道德教育和经验能够给予可靠的回应时,直觉才是可以依赖的。与此相反,无论是康德,还是诸如密尔和边沁在内的功利主义者,都是从理性欲望和行为一般性的本质讨论中得出基本原则,但是这些原则并非要提供一套道德算法,告诉我们在具体的电车难题中应当如何行为,而是“更一般性的指引我们,应该或者不应该以某种方式来思考,我们应当如何行为这一问题。”〔27〕Allen Wood, “Humanity as End in Itself,” in Derek Parfit, On What Matters (Volume Two), Oxford University Press, 2011, p.59, 68. 同样对于电车难题作为道德论证的方法论提出反对的,see Roger Scruton, On Human Nature, Princeton University Press, 2017, pp. 92-94.虽然基于本文的目的,我们不需要回答究竟何种道德哲学的方法论是正确的,但是对于电车难题这种一般性的质疑,对我们回答法律如何在一般性的层面上,规制自动驾驶中与道德判断相关的行为选择却是具有启发意义的。

艾伦·伍德(Allen Wood)认为,采用电车难题方法的学者们拥有这样一个习惯,他们总是想要定式化地对这些场景中各种事态的好坏进行排序,并且想要让这种排序达到精确。但事实上,这些假想的情境中却体系性的省略了在真实生活中,对于我们道德思考具有决定性意义的一些事实。〔28〕Allen Wood, “Humanity as End in Itself”, in Derek Parfit, On What Matters (Volume Two), Oxford University Press, 2011, pp. 68-70. 伍德的这一批评并不完全准确,例如汤姆森在讨论电车困境的时候就考虑到了诸如时间、受害者本身是否具有责任等事实性的问题,并且探讨这些不同的事实情况是否会得出不同的答案。Judith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, pp.180-194.反之,也正是因为实践中同一道德原则将会适用于无数种事实的情形之中,所以道德理论并不能对于个体在每种场景中应该如何行为提供明确的指引。但是这些事实却又是如此的重要,会决定在具体场景中一个一般化的原则是否适用。例如,通常我们会认为“在森林中,A 放声歌唱是可以被允许的”这个判断是真的,但是如果时间和地点发生了变化,比如“在会场上,A 放声歌唱是可以被允许的”则就显得荒谬了。〔29〕这个例子来源于Judith Jarvis Thomson, The Realm of Rights, Harvard University Press, 1990, p.194.

法律规范与道德规范在这一点上是相似的:两种规范都具有一般性,通常法律规范只是规定某种抽象化的行为模式,并施加相应的法律后果。例如在传统驾驶的紧急避险中,法律只是抽象地规定驾驶员可以适当地紧急避险,但是具体何种紧急避险能被认定为适当,最终只能通过事后的责任认定来反应法律的态度。换言之,法律对于紧急避险予以了原则上的允许,但是同时不可能杜绝所有不当的、道德上错误的紧急避险行为的发生。因此,如果在自动驾驶中法律要求的是:在所有紧急情况中,自动程序的算法所给出的行为决定都是道德上正确的,这将是不可能实现的。这需要工程师如同采纳电车难题的道德哲学家一样,尝试考虑尽可能多的紧急场景,并且对于这些场景一一给出回答来决定“正确的”算法;要么则需要采纳某种一般性的道德原则,并将其应用到所有的场景之中,但是正如伍德所说,道德原则的任务从来就不是提供一套道德算法,告诉人们在每一个场景中如何选择。并且现实生活与电车难题的场景不同的是,电车难题中每一种行为选择的结果都是确定的(例如杀害一个人或者五个人),而现实是,在最终事实结果形成之前,我们无法对行为的后果予以科学般精确的预估。〔30〕Jeffrey K. Gurney, “Crashing into the Unknown: An Examination of Crash-Optimization Algorithms through the Two Lanes of Ethics and Law” 79 (1) Albany Law Review184-185 (2016); John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7 (1) Journal of Practical Ethics 70-72 (2019).所以,无论是首先确定某种“由上至下”(top-down)的一般性道德原则,并且依靠自动程序的道德推理来应对各种场景,还是通过程序积累尽可能多的情况,最终形成一个“由下至上”(bottom-up)的一般性规律,这都不能保证某一套事先确定的算法能够帮助自动汽车以道德上正确的方式应对各种场景,至少在面对这些具体场景时,何种选择是正确的都将是具有争议的,或者说让我们做出这些困难选择的情景,本来就是“我们的道德愿景在根本上失灵的情形”。〔31〕Allen Wood, “Humanity as End in Itself”, in Derek Parfit, On What Matters (Volume Two), Oxford University Press, 2011, p.81. 由上至下和由下至上被认为是自动驾驶中应对不同场景的两种机制,前者靠一套正确的算法预设来应对任何场景,而后者则靠着自动驾驶自己累积的经验不断对这套算法加以修改,因此这种自动驾驶程序最终做出的决定可能是算法的制定者不能预料的。但是,在道德和法律上,最终评价和责任承担的主体都将是人类,那么即使是由下至上的路径中,认为自动程序的修改方式最终也来源于人类所预设的算法,这种观点似乎是合理的。See John Tasioulas, “First Steps Towards an Ethics of Robots and Artificial Intelligence” 7(1) Journal of Practical Ethics 64 (2019).

依据上文,自动驾驶对于法律构成的根本性挑战在于,如果要求自动驾驶的算法在所有的场景中,都做出一个个体层面道德上正确的选择,那么自动驾驶技术的推广将不具有现实可行性,从而导致更多人受到伤害。但是,基于上述论证我们发现,法律在这一挑战中,根本不可能确定何种算法能够保证,紧急情况中的行为决定一定是正确的,并且在立法技术上也根本不可能实现。从另一个角度来说,法律也应当允许自动驾驶车辆在紧急情况中优先保护乘客,从而使得这项技术具有现实可行性。首先,法律已经赋予了人们通过驾驶高速车辆给公众施加风险的权利,而无论这种风险的施加在道德上是否正当。在此基础上,自动驾驶技术的出现能够让这种风险降低90%,那么如果立法者的选择使得人们在事实上没有选择这种风险显著更低的出行方式,这将是立法者犯下的错误。

其次,法律本身也只将人视为是人,这意味着法律所认定法律主体“存在非理性、脆弱性和其他所有弱点”,与此对应,法律也做出了许多可能并非道德上正确的规定。比如在道德上我们会认为,当契约的双方基于自己的自主选择而达成了一致时,那么契约具有效力,并且义务方的单方行为无法解除契约的义务。但是法律允许了承担义务的一方单方面解除一个生效合同的情形,例如在网络购物中形成的合同,买家可以在特定的时间之内无理由解除。〔32〕Horst Eidenmüller, “Machine Performance and Human Failure: How Shall We Regulate Autonomous Machines?” 15 (1) Journal of Business & Technology Law 131 (2019).再者,人可以犯错并因此承担相应的法律责任,这似乎正是法律尊重个人自主选择以及个人自由的体现。当自动驾驶中紧急情况出现时,乘客想要尽可能保障自己的生命安全,这种想法虽然不一定是道德上正确的,但是却并非完全不具有合理性。所以,在规制自动驾驶时,法律也无需要求作为人类行为代理(proxy)的自动驾驶一定要完全符合道德的要求,因此在面对紧急情况的发生时,最好的选择似乎仍然是允许一般性的紧急避险权,并对失当的紧急避险行为加以法律责任的矫正。

读者可能会质疑:如果乘客的道德信念要求他或者她必须不得给他人造成伤害,并且由于风险本身就是自己带来的,因此在任何情况下都不得通过伤害他人来保护自己。那么我们的结论有可能会违背这部分人的道德原则。但是,我们的结论只是,法律可以允许自动驾驶汽车做出个体层面错误的决定。忠守于自己道德原则的人们在传统驾驶的场景中,可能会选择牺牲自己而保全他人,那么自动驾驶汽车需要允许使用者预先选择,当紧急情况发生时,是否优先保护他们。而允许这部分人进行选择,并不会让大部分想要优先保护自己的群体放弃自动驾驶技术,进而让其失去可行性。

总结这部分的论证,电车难题作为一种道德论证的方法论并不适用于自动驾驶的场景,其原因在于,电车难题想要证成某种符合人们直觉的道德原则,因而可以完全在规范的层面中展开;但是自动驾驶要面对的是如何在现实中不同事实条件的场景之间做出选择的问题。然而,法律只能约束一般性的行为模式,因而不可能通过约束预先内置的算法来试图让自动驾驶做出道德上正确的行为决定。并且,由于法律对于人的预设中包容了犯错误的可能性,因此也无需对自动驾驶采纳一种超过通常法律主体预设的方案,以至于使得自动驾驶不具有可行性,而将更多的人置于伤害的风险之中。

五、结语

科技总是将未知的情形带入到现实世界中,而法律只能通过立法者的前瞻性对未来世界进行规制和调整。因此从时间差上来看,科技总是持续挑战着法律的制度安排。但是,之所以法律仍然得以保证一定的稳定性,这是因为无论科技如何变化和创新,人和人所享有的权利以及负担的义务是相对稳定的。法律正是处理这种权利义务分配的规则体系。因此,科技并不总是能够在根本上挑战法律制度,至少通过本文的分析,自动驾驶技术并不会给法律造成这种挑战。当自动驾驶技术能够将人们日常生活中所最频繁面临的威胁降到最低时,法律应当最大限度地保障这项技术的应用,甚至逐渐让它取代给公众造成更大风险的传统驾驶模式。当然,在紧急情况中,优先保护乘客确实不是一个道德上无瑕疵的决定,但是我们同样也应当考虑到,这种具有瑕疵的决定每天都在被人类驾驶员做出,但是自动驾驶技术的出现却同样能够在根源上最大限度地防止这种紧急情况的出现。

猜你喜欢

电车难题挑战
狗之难题
难题大作战
巧解难题
由电车引出的故事
电车奶奶
第52Q 迈向新挑战
健康难题征答