无人驾驶汽车之电车难题的命运值策略
2023-04-29云太真潘晓辉
云太真 潘晓辉
[摘要]无人驾驶汽车技术发展中尚需解决的一个重要问题是紧急避险的规则。问题在于,无人驾驶在紧急避险情况下,如何进行规避,如何选择碰撞目标,是一个类似于电车难题的伦理悖论。功利主义和义务论的伦理学说提出了对立的选择规范,无人驾驶汽车的发展要求提出可实现的规则,论文将两种对立的规范进行折衷,提出一种基于“命运值”的比较策略。
[关键词]无人驾驶;电车难题;概率;功利主义;义务论
[中图分类号]D922.14;D923;D922.284 [文献标识码]A
[DOI]:10.20122/j.cnki.2097-0536.2023.11.009
随着自动驾驶技术的不断发展和人工智能的日益成熟,完全自主、无需人工干预的自动驾驶正在向我们走来。自动驾驶技术从智能辅助驾驶、需干预的自动驾驶到无需干预的自动驾驶,符合技术发展的阶段性,也符合社会接受的阶段性。未来的趋势必然是自动驾驶技术完全成熟,发展到无需人类驾驶员,独立完成驾驶任务。本文谈到的无人驾驶汽车,就是这样完全自动、无需人工干预的自动驾驶形式,也就是L5级的自动驾驶[1]。
当前,无人驾驶技术面临的一个困境主要是伦理和法律上的。人类驾驶汽车在面临紧急避险等两难选择时,面临的情况和无人驾驶的情况有很大区别。人们不为难自然人在短时间的选择,但无人驾驶必须提前对很少发生的瞬时困境做出的选择进行规定,这就要求对电车难题的解决提出一个可行的方案[2]。
一、无人驾驶与紧急避险
对人类驾驶员来说,驾驶是一种有风险的行为,当这种风险可能造成巨大危险后果时,如果驾驶员做出某种选择,能使这种风险后果明显变小,就是紧急避险。从法律上来说,紧急避险是一种在不得已的情况下,损害一方利益以保护更大利益的行为。一般来说,紧急避险不承担刑事责任,但要承担民事责任。紧急避险是法律鼓励的行为,这种行为有利于减小社会总体风险,对社会整体是有益的[3]。一般来说,紧急避险的避让原则是驾驶员自主掌握的,在紧急情况下,即使驾驶员做出了不太合理的选择,人们也不会太做计较。毕竟,紧急情况下思考、反应的时间有限,只能依据本能和朴素的感情迅速做出决策。
无人驾驶的情况下,紧急避险的规则有所不同,必须事先制定合理的规范。因为无人驾驶本质上是计算机软件在计算,程序员必须事先考虑到所有情况,才能让无人驾驶汽车在特定时刻做出特定的行为,计算机不可能处理程序员没有预料到的问题。人工智能技术虽然具有学习能力,但对没有考虑过,也没有提供相应场景的事件,往往会做出人类难以理解的怪异行为,这是不可接受的。最合适的,显然是人们事先制定好规则,让它按规则执行。不过遗憾的是,这里面临一个伦理困境。
本文根据伦理学中功利主义和义务论两种对立的学说对这种紧急避险的规则进行了研究,将两种观点进行折中,提出无人驾驶紧急避险的一种概率策略。这种策略不是最优的,但却是一种可行的方案。
二、无人驾驶与电车难题的伦理问题
对无人驾驶技术来说,无人驾驶的紧急避险如何决策是一个值得深思的话题。因为无人驾驶技术是依靠计算机编程实现的,是依靠内置的规则执行的,他不是依据人类本能和朴素的感觉在短时间内判断的,因而许多避让的规则必须细化、明确化。毕竟无人驾驶只是一种计算机程序,它并不能真正思考,人们必须事先假定各种场景予以规范,做出决定,由程序员写成代码。不过,有些场景容易做出决定并制定规则,有些场景很难做出决定并制定规则。例如假定在某种情况下,汽车高速运行而刹车失灵,唯一能做的就是调整方向。突然发现前方有人和物体的阻拦,应当撞向物;当前方发现人和动物阻挡时,应当撞向动物,因为人的安全是第一位的;但如果在前方能调整的方向上都是人,怎么办?这就是电车难题的伦理悖论在无人驾驶紧急避险上的表现。
电车难题的原始版本大致可以描述如下:一辆失控的有轨电车在轨道上行驶,前方是一个道岔,道岔旁边站了一个人,他刚好有机会做出选择。如果什么都不做,电车将直冲过去,前面的轨道上绑了5个人,他们会被撞死;如果扳动道岔,电车拐到另外一股轨道上,上面绑了一个人,他会被撞死。请问这个人是否应该扳动道岔?很显然,如果他什么都不做,电车将撞死5个人;如果他扳动道岔,电车只撞死1个人。简单思考一下,似乎扳动道岔比较有利,死1个人总比死5个人好一些。但生命是无法比较的,那1个人犯了错,凭什么为那5个人牺牲?如果换一种情况,5个人都是80岁以上的晚期癌症患者,那1个人是风华正茂的科学家,难道就该反过来吗?电车难题是没有答案的,对电车难题的一系列思考,就是对人类伦理本身的反思[4]。电车难题反映到自动驾驶方面,就是无人驾驶的紧急避险规则的研究,这要求规则必须符合伦理的要求,要在伦理角度能站的住脚。
三、功利主义和义务论
电车难题,或者说无人驾驶汽车如何规避和选择碰撞的规则,伦理学上主要涉及到两种对立的观点。一种是功利主义。功利主义要求人们根据行为的后果或结果来判断行为的好坏,导致结果变好的行为就是好的。对社会整体来说,功利主义要求社会整体的福利最大化和损失最小化。在社会整体功利的角度上来说,对社会价值最大的行为就是好的,对社会损失最小的行为就是好的。另一种观点是义务论。义务论认为行为本身就有道德性,合乎道德的义务或规则的行为就是好的,违背道德行为就是坏的,这和行为的目的无关。例如撒谎和失信是坏的,不能因为在某些情况下撒谎和失信能带来好处,就认为这种行为在这些情况下是好的。哪怕说真话和守信会带来坏处,也不能认为这种行为就是坏的[5]。
功利主义者认为人类的道德规范不是从天上掉下来的,而是在人类社会交往中,发现某些行为对人和社会有好处,从而普遍的将这些对大家有好处的行为定义为好的行为或善的行为;反之,某些行为对人和社会有害,从而将其定义为恶。也就是说,道德来自于行为对人类社会是否有益,利益是行为是善或恶的判断标准。因此,边沁提出道德的最大幸福原理,也就是功利主义。需要特别说明的是,这里的“功利”一词应理解为利益或好处这样比较中性的词语,不能简单的理解为狭隘的个人私利或者个人的低级趣味。
另外,功利主义原理指向的利益包括物质利益和精神利益,它所服务的不只是行为人本人的最大利益,而是社会全体的最大利益。我们知道,高尚的人会因为自己的高尚而感到幸福,高尚的人也会使别人幸福,这对整个社会都是有益的。很多时候,高尚的人在使别人幸福的时候,减少了自己的物质利益,但能使自己感到精神的快乐,这正是因为精神幸福也是利益的一种。很多仁人志士愿意经受痛苦的生活,付出汗水和鲜血甚至生命,正是因为希望舍弃自己的幸福,给自己的同胞带去幸福的生活。他们的目的是付出自己的牺牲,带来社会整体的最大幸福和利益。在功利主义看来,一种牺牲如果不能给他人带来利益,这种牺牲就是浪费,功利主义唯一赞成的自我牺牲,就是这种牺牲能提高他人的幸福[6]。
功利主义认为现存的道德观念正是人类在长期的社会实践中发现的一些行为对社会有利,因而认定某些行为是合乎道德的,这种观念世代流传,就产生了人类的道德规范。通常情况下,直接遵循这些道德规范并没有什么问题,但如果遇到难以判断的道德困境的时候,理解道德的第一原理是很有必要的。
义务论否认行为的后果的重要性,不认为符合个人或者社会最大利益的行为就是合乎道德的。一种行为的道德与它造成的后果无关,行为本身就具有内在的道德价值。义务论认为功利主义为了社会的整体利益,牺牲少数群体的利益是不可接受的。极端的例子是一个城市发生了极其恐怖的谋杀案,现有的证据和线索很难在短期内破获案件,整个社会恐慌不安。此时,警方抓获了一个有前科的嫌疑犯,和这个案件只有部分关联。功利主义的做法是立即将该嫌疑犯定为罪犯处死,这样整个城市的恐怖气氛就消失了,社会重新获得了安全感。义务论坚决反对这种做法。按罗尔斯的说法,每个人都拥有一种基于正义的不可侵犯性,即使以社会整体利益的名义也不能抗衡。为了社会最大利益剥夺一些人的自由和生命是不正当的,不能因为多数人的利益剥夺少数人的自由和生命,自由和生命是不可侵犯的。
关于道德规范的来源问题,罗尔斯提出一种和社会契约论类似的“原初状态”,在原初状态下,没有人知道他在社会中的地位,也就是阶级、社会出身、先天资质、能力、智力和体力等因素,在这种“无知之幕”的背景下,所有人都是公平的,基于理性,人们制定的行为规范必定是公平的、正义的。人们不会同意为了让某些人享受较大的利益而损害他人,哪怕这样做能让整体利益最大化。人们会平等的分配基本权利和义务,同时,财富和权力的占有者应当倾向于保护穷人和弱者。罗尔斯明白原初状态并不存在,但他认为可以通过“无知之幕”屏蔽个人因素,使人们反思从而推导出行为的合理性[7]。
功利主义和义务论类似于发展社会经济时效率和公平的争议。在社会发展落后的时候,公平很重要,因为所有人都要生存。在社会公平基本满足后,人们又希望提高社会生产效率,把经济总量做大。经济总量发展一段时间以后,贫富差距变大,又必须回归社会公平,否则社会就会不稳定,阻碍社会发展。功利主义和义务论就是这样的一体两面。
四、无人驾驶电车难题的命运概率策略
对电车难题来说,关键是选择碰撞目标。如果采取功利主义的做法,需要判断双方的“价值”,我们可以使用函数和分别表示目标a和b的“价值”。如果>,则撞向b,否则就撞向a。至于和如何取值,可以有很多方案,需要进一步细化。例如,首先,人数是最重要的考量,人多价值就大;其次,要看年龄,老人和小孩的价值不如成年人;再次,罪犯的价值不如普通人。诸如此类的判断可能有很多规则,但不需要规定过多,因为在很短的时间内,未必能观察到过多的信息,一般来说,能观察到人数就不错了,更多的参数在实践中恐怕无法获取到。从单纯道德的角度来讲,制定这样的规则似乎很残酷,但对于功利主义来说,道德最终就是要靠社会最大福利和社会最小的损失来衡量的。从现实的角度来说,法律上的损害赔偿最终也是靠类似的规则来支撑的[8]。
对义务论来说,不允许牺牲少数人保护多数人的生命,生命和自由不可比较。实在无法全部保护的情况下,只能选择抽签和随机的办法,大家都承认抽签是一种公平的选择。这在程序设计中实际上是可以实现的,现代程序设计语言和计算机系统中提供了随机函数,随机函数可以生成一个0到1之间的随机数,我们可以利用随机函数获得抽签一样的效果。具体的,对a和b双方来说,就是分别运行函数,我们记为和,如果>,就撞向b,否则撞向a。
在电车难题这样的悖论中,无论采取功利主义的做法还是义务论的选择,都会引起巨大的争议,总会有人认为是道德上无法接受的。鉴于这种争论的客观存在,本文采取了折衷的做法,就是将两种对立的方法综合一下。具体来说,就是根据前面的分析,计算和,如果>,就撞向b,否则撞向a。之所以用乘法,就是我们既要考虑双方的价值,又要考虑双方以随机函数的方式进行的命运抽签,最终乘法运算出来的就是双方的“命运值”。最终,以“命运值”的大小比较,来选择碰撞的目标。
这样,既考虑了功利的因素,也给了双方平等的机会。这样选择碰撞目标,当然很难说是最好的,但却是可行的方法,既可以避免纷争,也是具体可实现、可操作的。
五、结语
无人驾驶技术在面临紧急避险时,如果遇到不可避免的多个碰撞目标都是人类的情况时,就遇到了“电车难题”的伦理悖论。功利主义的基本选择是牺牲少数人保护多数人,实现社会损失最小化。义务论则认为生命不可比较,生命都是平等的,只能通过抽签决定。本文将两者结合起来,提供了一种比较“命运值”的策略。这种方法可能不是最好的,但却是一种可行的,能避免纷争的可操作方法。
参考文献:
[1]佟日.自动驾驶已来,无人驾驶可期[J].检察风云,2022(21):13-15.
[2]杨延超.机器人法[M].北京:法律出版社,2019:416-418.
[3]黎宏,丁文焯.紧急避险视角下自动驾驶中的碰撞选择[J].湖湘法学评论,2022,2(3):80-89.
[4]杨丽娟,耿小童.无人驾驶汽车的伦理困境及法律规制[J].沈阳工业学报(社会科学版),2021,14(4):371-376.
[5]程炼.伦理学导论[M].北京:北京大学出版社,2008:166-171.
[6]穆勒.功利主义[M].北京:商务印书馆,2019:7-31.
[7]罗尔斯.正义论[M].北京:中国社会科学出版社,1988:11-39.
[8]肖君拥,李浩骥.无人驾驶道德决策的法理难题及法益调谐[J].湖湘法学评论,2022,2(2):50-65.
作者简介:
云太真(1977.1-),男,汉族,河南巩义人,硕士,讲师,研究方向:人工智能法学,数据法学;
潘晓辉(1978.3-),女,汉族,新疆乌鲁木齐人,博士,副教授,研究方向:人工智能法学、数据法学。