自动驾驶汽车两难伦理困境应对方案研究
2020-12-28张武举胡泽恩
张武举,胡泽恩
(西南政法大学,重庆 401120)
一、背景介绍与问题提出
自动驾驶是汽车产业与人工智能、物联网、高性能计算等新一代信息技术深度融合的产物,是当前全球汽车与交通出行领域智能化和网联化发展的主要方向[1]。据估计,超过百分之九十的交通事故属于人为因素造成,如违反交通规则、疏忽大意、操作不当等[2]。具有自动驾驶功能的汽车可以通过高度集成的自动驾驶系统代替驾驶员驾驶汽车,降低由人为因素造成交通事故的风险。据统计,2018年北京市已经为8家企业的56辆自动驾驶车辆发放了道路临时测试牌照,自动驾驶车辆道路测试已安全行驶超过15.36万公里。预计到2022年,北京市智能网联车辆测试区域面积达到500平方公里、开放道路里程达到2000公里。
根据国际汽车工程师学会制定的标准,自动驾驶汽车分为L0~L5六个级别。L5级别的自动驾驶汽车可以在任何区域实现完全自主驾驶并处理各类突发情况,在任何情况下都不需要用户介入。完全自主意味着L5级别的自动驾驶系统能够应对其在执行驾驶任务中可能遇到的所有情形,当然也包括了某些一直困扰着人类并尚未得到定论的情况,比如“电车难题”。当自动驾驶系统完全掌握了汽车的驾驶权限时,就已经深度融入人类社会的生活当中,其所作的每一个判断和决定都会对社会成员产生直接或间接的影响。故其需要掌握的不仅仅是汽车行驶所必备的交通规则,同时还必须了解人类社会中的道德伦理和法律规则,以确保作出的决策符合人类的基本道德伦理并且不严重违法。这就要求自动驾驶汽车的制造商在设计阶段就将道德伦理与法律规则嵌入到自动驾驶系统的决策过程当中。
1967年,福特在讨论堕胎问题时提出了电车难题,并在此基础上演变出来无数的版本。“电车难题”是指一方的重大法益只有通过侵害其他人的重大法益才可能得以保全,此时该如何选择的困境问题[3]。自动驾驶汽车在执行驾驶任务过程中同样会遇到类似的情况,在某些特殊情况下并不存在一个完美的解决方式。自动驾驶汽车可能不得不进行一个选择,并且每一种选择都将带来相当的损害。当这种损害严重到需要付出人类生命的代价时,这个选择将会变得异常艰难,尤其是对于自动驾驶系统这样一个人工智能系统来说。不同于单纯的驾驶任务,两难伦理困境中的选择带有强烈的伦理色彩,自动驾驶汽车内置的交通法规显然不足以应对。所以,必须要解决自动驾驶汽车在面对两难选择的伦理困境时如何进行决策的问题。这个问题又包含了几个小问题:(1)决策的主体是谁,具备高度智能的自动驾驶系统是否能够代替人类作出这样的决策;(2)决策的方式是怎样的,在危急情境中,生命的损害已经无法避免,但谁才是牺牲者,谁又是幸运儿;(3)决策的法律后果如何,既然存在了侵害生命法益的行为,决策主体是否存在承担刑事责任的风险。
二、伦理层面的选择
(一)以人类为中心
任何社会都需要承认、遵循基本的伦理[4]。自动驾驶汽车作为人工智能的一种应用形式,将被广泛地运用在社会生活当中。机器人道德不可能也不应该脱离人类道德[5]。倘若人工智能系统所作出的决策和行为不能遵循人类社会的基本伦理,那么其应用就必然会导致原有社会伦理关系的紧张。人们一直在试图为人工智能定制一套其专属于人工智能的伦理体系。这种尝试最早可以追溯到阿西莫夫的机器人三大法则。三大法则的内容分别是:第一、机器人不得伤害人类;第二、必须服从人类的命令;第三、在不违背前两条法则的前提下,保护自身的存在[6]。
除此之外,在《基地与地球》一书中,阿西莫夫还借机器人之口提出机器人不能伤害人类,也不能由于不采取行动而导致人类受到伤害[7]。阿西莫夫把“人类高于一切”深植于机器人的脑中,是一种人类中心和人本主义的体现,这种“充满希冀的寓言”是“希望假定为至善至美的科学伦理能够产生良好的社会政治效果”[8]。阿西莫夫的机器人法则最为重要的一点就是确立了人类在机器人与人类关系当中的主体地位,为后世人工智能伦理的研究奠定了基础。
这种思想一直被借鉴并流传,关于人工智能伦理的最新成果是2019年欧盟发布的《可信赖人工智能的伦理准则》(Ethics Guidelines For Trustworthy AI),当中仍然可以找到其法则精神的存在。该文件提出确保伦理目的的关键指南之一是确保人工智能以人为中心并规定了人工智能的四个伦理原则,分别为:(1)尊重人类自治原则;(2)预防伤害原则;(3)公平原则;(4)可解释原则。
回到“电车难题”当中,不难发现自动驾驶系统在面对两难困境时,无论自动驾驶系统作出何种选择,对人的伤害结果已经无法避免。伤害的必然结果在两难困境形成之初就已经确定,自动驾驶系统的决策并未对其产生积极的影响。此时,自动驾驶系统只能进行简单的制动措施,才能体现其严格恪守了不伤害人类的基本原则。如果自动驾驶系统在两难伦理困境中自主决策,牺牲一方,拯救另一方,那么其对被牺牲方的损害结果产生了积极推动的作用,存在违背不伤害人类原则的风险。
根据上述的推导,似乎可以得到一个结论,自动驾驶汽车在面对“电车难题”时应当以不作为的方式来避免作出可能伤害人类的决策。这与康德的“人是目的”学说结论相同,但得出该结论并非以康德的学说为基础,也并不意味着决策过程当然地采用了某一学说。自动驾驶系统只是受限于不伤害人类原则的限制,被动地停止了两难困境中的选择,而非主动地选择不作为,是其贯彻以人类为中心的表现。
(二)个人化的伦理设定
先进的科技受限于伦理,不能发挥任何积极作用,具有强大计算能力的自动驾驶系统面对紧急情况却毫无作为。反思上述的推导过程,过分重视人工智能不能伤害人类的非犯罪原则,却忽视了其他原则的存在。尊重人类自治原则,同样具有极为重要的意义。人类自治意味着人类不受从属或胁迫的影响。人类与人工智能系统交互时必须对自己保持充分有效的自我决定。人与人工智能的分工应当遵循以人类为中心的设计原则,并为人类的选择留下有意义的机会[9]。该原则可以将人类的判断引入人工智能的决策当中,使人工智能在实现决策的过程当中充分保证人类的决策自主权。人类的参与可以解决上文中自动驾驶汽车在两难选择中只能不作为的窘境。自动驾驶汽车在两难伦理困境当中的避险行为是在执行人类的决策,是一种机械的执行行为,而非自动驾驶系统在实现某一既定目标过程中的独立决策行为。
回到“电车难题”,仍需要确定如何确保自动驾驶汽车的决策过程可以充分尊重人类的自主权。有学者认为推行一种强制的伦理设定(mandatory ethics setting)是符合全社会成员最大利益的做法,个人化的伦理设定(personal ethics setting)将会带来“囚徒困境”[10]。强制推行某一固定的伦理设定虽然符合功利主义对社会整体的损害最小,但存在政府对公民个人自由过度干预的嫌疑。在尊重个人权利和自由的今天,想要抛开地区、民族、文化等差异,追求纯粹的功利主义推行某一固定标准是极其不现实的。人工智能系统的开发、部署和使用必须是公平的,确保个人和群体免于不公的偏见、侮辱和歧视[10]。但完全无限制的用户个人化伦理设定可能会导致自动驾驶系统违反公平原则。用户不合理或不道德需求可能会借此被带入自动驾驶系统,例如对肤色、宗教、性别等的歧视。自动驾驶系统若是接受这些不合理或不道德的设定就必然违反公平原则。
既然单一的强制伦理设定和无限制的个人化伦理设定都存在不同程度的障碍,那么能否为个人用户设置若干种合理的选择。制造商可以在政府的监督之下为用户提供个性化的设定选项。在满足用户个人需求的同时,将个人化伦理设定限定在法律可控的范围内。确保人工智能在进行某些关键的决策时,能够接受人类的引导,防止人工智能自主产生的某些决策和行为严重违反人类伦理。当然,在将这种权限下放到个体的同时,仍然“需要政府和非政府组织的干预,以确保那些存在被排斥风险的个人或种族能够平等获得人工智能的利益和机会”[10]。
三、刑法层面的规制
(一)责任主体
自动驾驶汽车在“类电车难题”情境下的决策通常会造成人身或财产的损害,那么如何确定其可能产生的刑事责任也就成了一个急需解决的问题。传统交通肇事罪的责任主体以肇事司机为主,因为司机在驾驶过程中作出决策并控制汽车做出相应的动作。自动驾驶汽车若是交通肇事则更复杂得多。作为一个高度集成的系统,自动驾驶汽车执行驾驶任务实际上是一个多方相互配合的工作,可能涉及的主体有自动驾驶汽车制造商、通信服务运营商、监管方、车主、驾驶员、乘客等。
引发交通事故的原因也有很多,大致上可以分为人、机和环境三个方面。若是机械、环境等客观因素造成自动驾驶汽车处于一个不得不进行避险的情境中,那么损害结果的责任均不是紧急情况下的决策和避险行为的责任,而是与产品质量、使用义务等有关的责任。自动驾驶汽车即使质量符合相应的国家标准并通过相关监管方的检验,也不能避免其在使用过程中可能导致的事故。客观上制造商设计的自动驾驶系统直接参与了驾驶行为,可以说其与任何一起自动驾驶汽车导致的交通事故都有直接关联。但这种关联可能导致的责任可以被“被允许的危险”所阻隔。客观归责理论中,程序设计行为如果不属于制造不被允许的危险,就可以直接排除归责。自动驾驶汽车中的程序设计行为与被允许的危险这一法理相契合,只要满足概括性的利益衡量和有立法设定的注意义务,就可以成为被允许的危险[11]。若是自动驾驶汽车本身质量存在问题,未符合法定的标准导致了交通事故,那么损害的结果将归于制造商,仍然与避险行为的主体无关。所以在设置的情境中,自动驾驶汽车是在一个功能完备、未受任何环境不良影响的情况下,进入了一个不得不进行避险的困境,只有在这种情况下,自动驾驶汽车的避险行为才直接造成了损害结果。根据罪责自负原则,避险行为的主体需要对该行为所产生的后果承担责任。至于构成何种犯罪或者是存在何种出罪事由,则要置于具体的情境中进行讨论。
同时考虑到上文中将自动驾驶汽车的伦理设定权以某些固定选项的方式授权给个人,在选项设置合法合理的前提下,可以将可能的责任主体缩小到车辆伦理设定的个人。由于自动驾驶汽车的特殊性,驾驶员和乘客的界限可能会逐渐模糊,车主对于车辆的影响尚不确定。即使个人有权决定自动驾驶汽车的伦理设定,但究竟是由自动驾驶汽车的所有者还是使用者来决定,或者在驾驶员这一角色消解之后,由自动驾驶汽车内的人员集体决定,都有待商定。故将可能的责任主体确定为直接参与具体决策的主体,但决策的参与者仍需进一步的讨论。
(二)具体情境下的刑事责任
结合自动驾驶汽车的运行环境,决策可能影响的双方法益主体主要分为两种情况:一是车内用户与车外主体之间的法益选择;二是车外主体之间的法益选择。
车内用户与车外主体之间的法益选择具体情境可以描述为:用户乘坐自动驾驶汽车,在完全自动驾驶状态下,自动驾驶汽车即将撞上前方障碍物。以当前车速,若是直接撞击障碍物将会严重威胁车内用户的人身安全。为了避免直接撞击障碍物,自动驾驶汽车唯一的选择是向右侧避让。但检测到右前方有行人,当前车速撞击行人也将严重威胁行人的人身安全。那么在此种情况下,自动驾驶汽车如何进行决策就成为一个问题。
车外主体之间的法益选择具体情境可以描述为:以不危及车内用户人身安全或者车内无人员为前提,自动驾驶汽车在完全自动驾驶状态下,检测到前方有若干行人,唯一选择是向右侧避让,但同样检测到右前方有若干行人。选择向前会损害前方行人的生命,选择向右同样会损害右前方行人的生命。此时,自动驾驶汽车应当如何进行决策,又是否允许自动驾驶汽车根据某些因素进行选择性避让,例如行人的人数、行人与自动驾驶汽车所有人的特殊关系等。
上文中排除了人、机、环境三个主要因素中的机和环境两大因素后,造成交通事故的主要因素只剩下了人。即使进入了全面自动驾驶时代,人也将是交通系统最大的潜在风险因素。同时基于对自动驾驶汽车以及相关技术(比如车用无线通信技术(1)车用无线通信技术(Vehicleto Everything,V2X)是将车辆与一切事物相连接的新一代信息通信技术,支持实现车与车(Vehicleto Vehicle,V2V)、车与路侧基础设施(Vehicle to Infrastructure,V2I)、车与人(Vehicle to Pedestrian,V2P)、车 与 云 平 台(Vehicle to Network/Cloud,V2N/V2C)的全方位连接和信息交互。参见于润东等著《C-V2X标准化进展与测试验证》,《信息通信技术与政策》,2018年第7期第61页。)的预期,在自动驾驶时代,自动驾驶系统与交通规则、交通基础设施之间的契合程度远高于人类。在一个完善的交通系统中,严格遵守规则的各方不会陷入“类电车难题”情境。“类电车难题”的出现意味着在参与交通的各方当中至少存在一方不遵守规则。而鉴于自动驾驶汽车对交通规则的绝对遵守,可以说使自动驾驶汽车陷入“类电车难题”的情境当中,必然存在至少一方是不遵守规则的人类或者人类控制下的交通工具。对于自动驾驶汽车针对其他自动驾驶汽车避险行为的避险,可以将前一避险行为视为人的行为,因为自动驾驶汽车在紧急情况下的避险决策和行为仍然受特定人的伦理设定引导。但理想状态多是停留在理论当中,在发展的过程当中,仍需要考虑即使在各方均遵守规则时陷入“类电车难题”的情境。
考虑到人的因素是可能造成“类电车难题”的主要风险因素,同时结合被选择双方法益主体的分类,将具体情境分为以下五种。
图中黑色行人标志代表不存在违反交通规则的主体,或者主体虽然存在违规行为,但该违规行为与即将出现的危险处境无关。红色行人标志代表存在违反交通规则的主体,并且该违规行为直接或间接地促成了即将出现的危险处境。
在A、B、C情境中,自动驾驶汽车前方存在两方行人,D、E情境中,自动驾驶汽车前方存在一方行人。结合上文对自动驾驶汽车的设定,该情境中的自动驾驶汽车不存在违规行为。假如自动驾驶汽车进行了紧急制动后,仍然侵害某一方或者双方的法益,鉴于自动驾驶汽车并未存在违规行为,损害的发生属于意外事件。依据《刑法》第十六条之规定,行为即使在客观上造成了损害结果,但不存在主观上的故意或过失,而是由不可抗拒或不可预见的因素导致的,不属于犯罪。对于自动驾驶汽车不存在故意,应当理解为:自动驾驶系统在检测到前方行人后并未发出继续行驶的指令,属于不存在直接的故意;自动驾驶系统在检测到前方行人后发出了制动或者其他有利于减少行人损害的避险指令,属于不存在间接的故意。对于自动驾驶汽车不存在过失,应当理解为:自动驾驶汽车在行驶过程中运行的自动驾驶系统是符合法定标准的系统,并且在整个驾驶过程中用于保障驾驶的系统持续运行且功能完善,视为不存在过失。在符合这些要求时,自动驾驶汽车即使造成了损害结果,也不属于犯罪行为。
根据上述的分析,所有情境下自动驾驶汽车进行普通的制动所造成的损害属于意外事件,并不属于犯罪。但并不意味着该情境下自动驾驶汽车可以自由进行决策和避险,均属于意外事件,不需要承担刑事责任。当自动驾驶汽车做出了改变原有法益侵害状况的决策和避险行为时,则意外事件可能不能作为违法阻却事由。
这里讨论两种可能的避险决策:一是改变损害对象的决策,例如原本碰撞的对象是左侧行人,自动驾驶汽车作出了改变方向撞击右侧行人的决策;二是减少损害的决策,例如原本碰撞对象是双方,自动驾驶汽车作出了相应调整后,使碰撞对象减少为一方,以减轻损害。
1.改变损害对象的决策
改变损害对象的决策并未改变侵害法益的数量,但为了救助原本将在意外事件中可能受损一方的生命法益,而侵害了另一方的生命法益。这样的决策侵害了被牺牲一方的生命法益,引导自动驾驶汽车作出该决策的设定者对于被牺牲一方生命法益的损害是放任的心态,属于间接故意。显然该决策所导致的被牺牲一方生命法益的损害已经不属于意外事件。那么该行为是否需要承担刑事责任,还要进一步考虑是否存在其他阻却事由,在这里最有可能的阻却事由是紧急避险。而该避险行为是否成立紧急避险的关键在于法律是否允许以牺牲他人生命的方式来实行紧急避险。传统理论认为,任何法益均可因紧急避险的介入而做出牺牲,惟有人的生命属于例外,因为人的生命价值是不存在差别的[12]。紧急避险造成的损害必须小于所避免的损害。为了保护一个合法权益而损害的另一个合法权益,既不能等于、更不能大于所保护的权益[13]。但是也有诸多不同的观点,黎宏教授认为,牺牲他人生命保全自己生命的行为是法律不能控制的,是人的原始本性的一种复苏[14]。张明楷教授认为,保护多数人生命而不得已牺牲一人的行为不属于犯罪[15]。前田雅英教授认为,在没有选择的情况下,为了拯救多数而牺牲少数的行为,不具有必须处罚的违法性[16]。上述这些观点实际上都承认在某些特殊情况下可以牺牲他人生命来进行避险。完全禁止针对他人生命的避险确实存在一定的不合理。紧急情况下,要求行为人放弃避险措施,克制自己的求生本能,牺牲自己来保全他人,这样的行为是极其高尚的。这样的标准可以用来评价道德高尚与否,但刑法打击的对象不是不道德的行为,更不可能将高尚的道德标准作为刑罚的尺度。如果将这样不够高尚的行为认定为犯罪,既违背了人之常情,又无法实现刑罚一般预防与特殊预防的目的[17]。具体到自动驾驶汽车的紧急避险决策当中,应当承认紧急情况下车主对于自己生命的救助行为,即使这种行为可能危及第三方的生命。
根据具体情境中是否包含违反交通规则导致危险处境的行人,对五个情境进行分类讨论。
在B、C情境中,均存在违反交通规则的行人,且危险处境的出现均由该行人的违规行为导致。可以引入防御性紧急避险的概念来帮助自动驾驶汽车进行避险决策。所谓防御性紧急避险,是指避险行为人为从危险之中救助自己或他人的合法权益,将诱发危险的当事人作为避险对象侵害其合法权益的情形[18]。在B、C情境中,违规方的行为直接导致了必然有法益受到侵害的危险处境。作为危险的产生方,其法益的保护性相对于完全遵守规则的无辜者的法益有所下降。这就意味着,在行为人不得已导致了危险来源者死亡的情况下,如果该行为所保护之法益的价值与生命法益相比并不存在明显的失衡,该行为就有可能以防御性紧急避险之名获得合法化[19]。那么在B、C情境中,不论原先路线的撞击对象是哪一方,自动驾驶汽车经过决策后撞击导致危险处境的违规方进行避险的行为应当得到允许。在B情境中,自动驾驶系统若是选择撞击非违规方,则必然不构成防御性紧急避险。如果说该情境下,必然造成生命法益的损害是由不能抗拒或不能预见的原因引起的,属于意外事件,但在可以选择撞击违规方构成防御性紧急避险的情况下,选择损害完全遵守规则的无辜方将直接导致无辜者的死亡,且不存在不可抗拒或不能预见的原因。故B情境中,选择撞击非违规方属于违法行为,应当被禁止。
在A情境中,危险局面的产生纯属偶然,没有任何一方需要对此承担责任,也不存在某一方法益的保护性下降。面对危险的双方都是无辜的生命,但既可能是一个人,也可能是几个人,甚至更多的难以预测的情形。将目光聚焦在应该坚持功利主义或是自由主义上只会让人类陷入道德困境,无助于问题的解决。不同的人在这种两难的情境下会作出不同的判断,这些判断并不一定都是那么符合哲学上的原则,但却充满了人性的怜悯与善意。在一项针对“电车难题”的心理学研究中发现,参与测试者作出功利性道德判断的比例均大于百分之五十,且存在强烈的恻隐之心[20]。从中可以看到张明楷教授所指的“社会一般观念”是确实存在的。
同时,研究结果还表明功利性道德判断的测试者比非功利性道德判断的测试者内心更加煎熬和痛苦,更加同情设定情境中的被牺牲者[20]。这种痛苦产生的根源在于被牺牲者的伤亡与测试者的决策紧密关联在一起,测试者清楚地知道自己的决策导致了对被牺牲者生命的侵害。第三方的决策者是否有权决定他人的生死,功利主义与自由主义有不同的选择。但是在紧急情况下,自动驾驶系统客观上不得不作出一个决策。在双方均是无辜者、生命法益保护性完全相同的情况下,作出一个可能改变相关个人命运的决策是极其艰难且需要高度谨慎的。当这个决策方式被预先设定,并被社会大众所知悉时,那么就需要加倍地谨慎。如果必须要有一个决策者,那么最有可能成为该决策者的就是危险处境中那些个人生命受到严重威胁的人所组成的共同体。避险的决策会直接关系到共同体内部成员的生命安全,基于对自己生命权的绝对支配,共同体内部成员均有权参与决策。在A情境下,双方均为无辜者,其生命法益应当受到同等的保护,原则上不应当作出改变撞击对象的避险决策,损害结果源于意外事件。如果确实存在某些特殊的情形,可以考虑危险处境中的共同体内成员通过集体决策的方式来作出改变撞击对象的决策。
在D、E情境中,车内乘客同样面临生命法益受损的威胁,自动驾驶汽车需要判断是否可以优先保护乘客的利益。博纳丰(Jean-Francois Bonnefon)等人在《科学》杂志发表的论文就提出了当自动驾驶汽车面临行人和乘客生命法益相冲突时的道德选择困境。研究显示大多数人都赞同通过程序设定使自动驾驶汽车对人的总体伤害降到最低,即使牺牲车上乘客的生命[21]。这样的结果并不出乎意料,功利主义的结果大多数时候都是易被大家所接受的。但是当人们真正对自己的自动驾驶汽车进行伦理设定时,是否还能以相同的心态选择可能导致自己牺牲的设定尚不可知。假定车主并未选择紧急情况下功利主义的设定,而是选择优先保护自己或者乘客的利益,那么是否属于紧急避险?在D情境中,行人存在违规行为,自动驾驶汽车优先保护乘客可以视为防御性紧急避险行为。在E情境中,行人不存在违规行为,其生命法益的保护性与乘客相当,无法通过防御性紧急避险阻却违法。若要使优先保护乘客利益的决策正当化,仍可以考虑攻击性紧急避险。乘客乘坐自动驾驶汽车的行为表示其接受该车的相关伦理设定。伦理设定者虽然是车主,但当乘客接受了这种设定时,相关的设定同样可以视为乘客的意思表达。危险处境中,自动驾驶汽车优先保护车内人员的行为可以视为乘客集体的自救行为。法律无法要求个体必须作出牺牲自己救助他人的决策,只要侵害的利益不大于所保护的利益,从整体上看具有社会相当性,就应当允许这样的行为[22]。故在D、E情境中,自动驾驶汽车优先保护车内人员利益的行为属于紧急避险。
进而考虑一种更加特殊的情况,自动驾驶汽车的伦理设定者(车主)与自动驾驶汽车相分离。在B、C、E情境中,车主成为情境中的违规方并直接导致了危险处境的产生。此时若自动驾驶汽车根据车主的设定作出了优先保护车主生命法益的决策,侵害第三方无辜者的法益,是否可以构成自招危险的紧急避险?违规者自招本人危险的行为同时带来了容忍义务,使其需要在一定程度上承担自己行为所导致的危险。在自招本人危险的情况下,只有所保护法益价值明显大于损害法益价值时才可能构成紧急避险[23]。那么该情境中,违规方由于自己行为招致的危险使得自己法益的保护性下降。如果通过侵害无辜者的生命法益来保护违规方的生命法益,就属于牺牲较大的法益保护较小的法益,显然不符合紧急避险的要求。故该特殊情形不构成紧急避险。违规方的车主若通过自动驾驶汽车设定进行了保护自己的避险行为,则应承担相应的刑事责任。同样,在A、D情境中也可能由于车主对自动驾驶汽车的设定影响,作出优先保护车主生命法益的决策。那么在不存在牺牲大利益保护小利益的前提下,应当允许自动驾驶汽车依据车主设定作出优先保护车主生命法益的决策。
2.减少损害的决策
减少损害决策是指自动驾驶汽车原有驾驶姿态可能会同时损害双方的生命法益,为了减少损害调整自动驾驶汽车只侵害其中某一方法益的决策。这里需要说明的是减少损害并非是指单纯受损害方人数的减少,而是受损害方整体的减少。具体又可以分为两种情况:牺牲方特定和牺牲方不特定。对于牺牲方特定的情形,损害的产生并非源自于决策带来的避险行为,决策也没有导致损害结果的加重或者减轻。减少损害的决策并未对损害结果产生实质上的影响,损害的发生属于意外事件。对于牺牲方不特定的情形,损害的结果与决策确实存在一定的联系。但减少损害的决策没有推动危险上升的积极作用,并对损害结果产生了极力抑制作用,决策本身并未侵害任何法益。决策产生的避险行为使得本应处于危险处境中的部分个体脱离了危险处境,且并未加重未脱离危险处境个体的损害。未脱离危险处境的个体所受损害来源于意外事件,避险行为并没有阻断损害结果与意外事件之间的因果关系,牺牲方的死亡结果仍然归因于意外事件。救助一方法益的行为并未侵害被牺牲方法益,故减少损害的决策及其避险行为并不具备违法性,不需要受到刑法的规制。其中涉及决策的部分,可以依据自动驾驶汽车的伦理设定进行自由选择。
四、决策方案的设定
自动驾驶汽车与人类社会生活的高度融合,要求其决策既要合乎人类伦理,又必须严格限定在法律强制性规定内。对于自动驾驶汽车“类电车难题”情境中避险决策思路,应当在法律允许的范围内,充分发挥伦理设定的作用。
(一)坚守法律底线
人工智能系统的行为要严格限定在法律允许的范围内,以避免其实施犯罪行为。人类无法完全避免人工智能系统可能沦为某些人的犯罪工具。但相关智能系统在其特定领域内,应当预先设定对犯罪行为的绝对排除,这是对法治社会最基本的尊重。即使是极其轻微的犯罪,当这种许可被嵌入到人类社会不计其数的智能系统中也会导致难以估量的后果。具体到自动驾驶系统的避险决策中,当自动驾驶系统面对两个选择,即一个选择构成紧急避险,另一个选择构成交通肇事罪时,自动驾驶系统必须作出紧急避险的选择。这样的设定表面上限制了用户自由决策的权力,实则是为自动驾驶汽车用户的伦理设定排除了可能的刑事责任风险。
(二)宽容的伦理设定
宽容的伦理设定是对个人自由的充分保障。人类应该具有作出自身人身决定的自由[10]。任何组织或个人都不得将某一特定的价值观或某些特定群体的利益强制附着于伦理设定当中。在法律允许的范围内,用户通过伦理设定使自动驾驶系统的部分决策成为自身意志的一个延伸。结合本文所设置的两难选择情境,从以下几个方面设置伦理设定的选项。
1.优先利益的设定
根据紧急情况下所要优先保护的利益,可以设置以下几个选项:(1)自私拒绝原则;(2)自我牺牲原则;(3)最小损害原则。这三项分别从自身利益最优先、他人利益最优先、社会整体利益最优先的角度出发,自动驾驶汽车根据用户的设定在紧急情况下直接作出相应的决策并作出相应的避险行为。当然仅凭上述三个基本设定并不足以模拟人类在面对相同情境中复杂的利益权衡过程,这只是在利益权衡当中的三个特殊点。在其间还可以根据实际情况对利益优先的设定进一步细化,例如自私保护原则可以将利益优先的主体扩大为配偶或者家人。
在两难的道德选择中,不同的伦理设定体现的是用户自身的认知以及对各方利益的权衡。但这样的设定都隐藏了一定的伦理风险,这种风险在A情境中达到最高值。A情境中双方生命法益的保护性完全相同,而用户的设定将被牺牲者从本来安全的状态引向死亡,从而换取被营救者的生命。伦理的设定者作为危险情境中的第三方,似乎掌控了危险处境中各方的生命,表面上是为了各方的利益,实则是对他人的生命随心进行处分,这对于危险处境中的其他人来说是极其不公平的。
2.特殊的决策方式——损害自决原则
为了应对特殊情境中潜在的伦理风险,避免任何一个人的生命被他人所肆意操控,需要采用一种特殊的决策方式。既然“损害衡量的判断就必须按照符合法益主体意思的基准而进行”[24],可以将紧急情况下的避险决策权转移给危险处境中的所有成员。相对于第三人的决策,该共同体的决策更能体现受损法益的主体意志,尽可能使个体对其生命的支配权最大化。以传统观念来看,这样的方案显然是没有任何价值的,因为其根本就不具备实行的可能性。紧急情况下,危险处境中的各方缺乏必要的时间、情绪等要素,不存在作出有效决策的可能性。但是信息技术的发展,该方案目前是具备一定技术基础的,存在实行的可能。
信息的交互是作出决策并实施的基本前提。5G技术推动了物联网的发展,万物互联的时代使得信息的传输效率大幅提高。车联网作为物联网的一大热点应用,已经取得一定的技术积累。车用无线通信技术可以将车辆与一切事物相连接。以V2P技术为例,V2P是指弱势交通群体(包括行人、骑行者等)使用用户设备(如手机、笔记本电脑等)与车载设备进行通信[25]。在特定场景中,当汽车从发现前方有状况到自动实施紧急制动的过程,按照最大时延和最高汽车速度计算,在20 ms的时延下,车辆的反应时间所对应的前移距离仅为0.44 m。在5G标准中将会进一步提升,其时延对应的移动距离为2.2 cm[26]。可以说车联网的信息传输速率完全可以满足在紧急情况下危险处境内部成员的信息交互。
当信息的传输速率足够时,所要做的是在有限的时间内实现效率的最大化。为了保证在极短的时间内危险处境中的共同体成员能够达成一致,可以要求个体提前签订避险协议。便于紧急情况下智能系统能够迅速获取个体意见,从而作出尽可能符合共同体意志的决策。避险协议的设置也可以按照所要优先保护的利益进行划分,即自私拒绝原则、自我牺牲原则和最小损害原则。个人事先根据自身需求预先进行设置,并通过手机等随身设备进行存储和传输。
具体到A情境中,需要明确如何通过避险协议,快速得出共同体的避险决策。从决策结果来看,仅存在两种可能的结果:不改变撞击对象和改变撞击对象。A情境中,对于按照原始路线可能的牺牲方来说,生命的损害虽然属于意外事件,但生老病死乃人之常情,这个世界上无时无刻不在发生着这样的悲剧。选择的双方都是独一无二的生命法益,避险决策不是在避开一场悲剧的同时制造另一场悲剧。每一个生命都是无比珍贵的,具有同等的价值。不存在哪一个人的生命比其他人的生命更珍贵。任何人的牺牲都必须是其自主选择的结果,否则就侵犯了其生命平等和神圣的尊严[27]。在A情境中,如果要改变撞击对象,那么该决策必须是极其谨慎的,应当是危险处境下共同体成员意见的高度一致。所有成员的设定均为最小损害原则或自我牺牲原则,不存在任何自私拒绝原则的设定。当某一个体选择了自私拒绝原则优先时,就意味着该成员以自身利益优先。为了防止避险决策及措施损害自身利益,拒绝通过集体决策的方式进行避险处置,那么即使存在多数方意见,也无法形成整体意志的高度一致,存在牺牲非自愿的可能,也就无法作出改变撞击对象的决策。
这样的决策方式仍考虑了以下几个方面:(1)选择自私拒绝原则意味着在任何情况下,以自身的利益优先,他人或者整体利益次之。选择最小损害原则或者自我牺牲原则是对整体利益的一种承认,并允许在某些情况下让渡自己的利益。当危险处境的共同体中存在任何一个个体选择了自私拒绝原则,不论该个体处于具体危险情境中的哪一方,都意味着共同体内部无法达成对于整体利益优先的一致。那么自动驾驶汽车就不能做出改变撞击对象的避险动作,即使不改变撞击对象可能会造成更多的伤亡。(2)改变撞击对象的决策对自私拒绝原则的绝对排除可以避免在设定环节出现“囚徒困境”。防止个人抱着侥幸的心态,既想在处于少数方时能够避免成为避险行为的牺牲对象,又能在处于多数方时依靠人数的优势取得生存的机会。(3)可以引导公众正确理解并选择最小损害原则。避险协议的设定是在未发生具体危险时,任何一个人都无法预测自己在可能发生的危险处境中处于哪一方。当某一个个体陷入危险处境时,处于人多一方的概率显然要大于人少一方,选择最小损害原则能够提高个体在可能发生的危险处境中的存活概率。
如果说A情境下避险决策应当适用损害自决原则是因为第三方车主无权肆意操控他人的生命,而必须通过损害自决原则进行决策。那么在其他情境中,车主当然也可以放弃这种权力,并将决策权交予某个危险处境中的成员所组成的共同体。如果将A情境中的强制适用损害自决原则视作强制的损害自决原则,那么可以将设定者主动放弃决策权而选择的损害自觉原则视为设定的损害自决原则。强制的损害自决原则将优先于自私拒绝、自我牺牲、最小损害三大原则,设定的损害自决原则与三大原则是并列关系。
五、小结
最后,对自动驾驶汽车面对两难伦理困境如何进行决策的三个小问题:主体、方式和责任分别进行总结。
(一)决策的主体
在自动驾驶汽车的两难伦理困境当中,人之生命被一个决策所左右。一方面,人工智能系统应当始终以人类为中心,遵循人类的意志,不得伤害人类。自动驾驶汽车不可以自主作出一个可能伤害人类的决策,这是极度危险且必须被禁止的。人工智能时代人类仍然应当保持充分有效的自我决定权,这是对自治原则的一种保障。另一方面,人类社会也不可能彻底信任人工智能。即使在L5级别自动驾驶汽车的应用阶段,人们信任并愿意乘坐自动驾驶汽车出行。但这种信任是指人类相信自动驾驶系统能够遵守交通法规,并操纵汽车安全行使,而不是左右人之生死的信任。所以在自动驾驶汽车的两难伦理困境当中,决策的主体仍然是人类,而不可能是自动驾驶系统。
(二)决策的方式
在自动驾驶汽车的两难伦理困境中,自动驾驶系统需要受到人类的指引进行避险操作。一般情况下,自动驾驶系统可以通过车主预先设置的伦理设定完成伦理困境中的利益判断,作出体现车主意志的避险措施。根据设定者所期望优先保护的利益,分别有自私拒绝原则、自我牺牲原则、最小损害原则三种设定。在特殊情况下,避险决策权可以转移给危险处境中成员形成的利益共同体,利用损害自决原则进行避险决策。避免出现第三方车主肆意左右他人生死的情况,尽可能使危险处境中的个体实现对其生命支配权的最大化。
在作出具体决策时,首先要绝对排除的是可能构成犯罪的决策。这里的可能是指该决策所指向的是违法行为,但考虑责任划分、最终的损害结果等要素,可能在犯罪构成上不符合。其次要确定当前情境下,自动驾驶汽车需要的是改变撞击对象的决策还是减少损害的决策。若是属于减少损害的决策,则直接根据牺牲者是否特定,分别进行决策。若是属于改变撞击对象的决策,则需进一步判断是否需要适用强制的损害自决原则。如果适用强制的损害自决原则,那么避险决策权将实现转移。如果不属于适用强制的损害自决原则情境,则依据相关的伦理设定作出避险决策。决策的流程如图2所示。
图2 决策流程图
(三)决策的责任
对于决策可能导致的法律责任问题,首先要考虑的就是决策的类型。减少损害决策,不仅没有积极推动危险,还极力阻碍损害结果的产生。避险行为并没有阻断损害结果与意外事件之间的因果关系,最后的损害结果来源于意外事件,对于其他避险决策所导致的损害结果,则要考虑具体情况下实施的避险行为是否存在阻却事由,如表1所示。
根据上述结论,在两难伦理困境中,自动驾驶汽车存在一种绝对禁止的避险决策。在大多数情况下,自动驾驶汽车均可以根据相应的伦理设定作出避险决策,且不存在承担刑事责任的风险,肯定了自动驾驶汽车依据个人伦理设定进行避险决策的思路在法律层面上的可行性。
人工智能时代的到来已经成为无法改变的历史趋势,如何接受和适应人工智能时代所带来的改变对于每一个学科来说都是一个巨大的挑战。自动驾驶汽车很可能是第一个被广泛应用到社会生活当中的人工智能产品,面对这种改变,刑法为其划定禁区的同时,需要给予技术足够的发展空间。“电车难题”是一个涉及伦理、道德、人性等各方面的综合题,现阶段这个难题还没有完美的解决方案,但社会的发展不可能因为一个难题而停滞不前,技术的进步不能够受制于此。搁置难题,建立决策机制,明确法律责任,才是自动驾驶汽车在两难伦理困境中的应对之道。
表1 具体情境下的决策方式及法律后果