APP下载

浅谈自动驾驶汽车困境中的道德决策

2022-04-14王启明

公关世界 2022年6期

王启明

摘要:无人驾驶汽车应如何应对不可避免的人身伤害?本文将自动驾驶汽车的案例作为算法道德决策的一个突出例子,这是一种在数字化商业世界中高速发展的新兴道德类型。作为其主要贡献,它使得和自动驾驶汽车的道德碰撞算法相关的困境决策情况与两个极端案例并列讨论:一方面是手动驾驶汽车面临现实生活中的案例——普通事故,另一方面是理论上构建的自动驾驶汽车中的困境情况。本文确定了案例在决策者、决策设计和决策结果方面的类比和反类比。从不同角度讨论了这些发现:可以找到类比的方面,自动驾驶汽车的情况被证明介于两种边界案例(Edge.cases)之间。作为主要结论,本文认为手动驾驶和自动驾驶汽车仅在有限程度上是设计道德碰撞算法问题的合适参考点。相反,在自动驾驶汽车和使用的情况下,两难决策情况的基本认识和概念分歧得到了证实。.

关键词:算法决策伦理 自动驾驶伦理 自动驾驶汽车的道德规范

一、介绍

尽管对于技术方面的人文管理是一个相对新兴的研究领域,主要是在过去十年中出现的,但它的文献涵盖了广泛的主题。关键主题包括技术设计研发中的管理实践产生的实际问题以及对相应术语和概念的理论研究。人文管理关于问题导向的研究在相关文献中不断得到发展。相关文献重点关注的问题首先是实践方面的人的尊严概念、可持续性和自由。而另一个广泛讨论的问题是人文管理在商业教育背景下的作用,以及它如何帮助转变教育计划,以更全面地理解技术设计的相关管理。

尽管主题覆盖面很广,但人文管理文献迄今为止很少致力于研究在数字化商业世界中高速发展的新型决策:因为越来越多的商业工作流程被转变为自动运行的复杂的技术系统,算法决策成为业务领域不可分割的一部分。它们对决策领域提出了根本性的变化,决策领域越来越多地进入各种各样的企业,它们也将成为管理实践的核心问题。为了赶上这一发展,人文管理一方面可以通过扩展其在算法决策方面的专业知识来进一步发展自己的学术范围,另一方面能够在算法自动化研究的早期阶段做出有价值的贡献。换句话说,将人文管理研究与算法道德决策结合起来,不仅具有加强自身领域的潜力,同时也促进了其他领域的相关研究。

二、算法决策:自动驾驶汽车的案例

在近十年的技术研发议程中,最具争议的技术创新之一便是自动驾驶。基本上,全自动汽车的愿景即代表一个全面的软件代码,通过它可以控制汽车在每种可能的驾驶情况下的行为。自然地,这需要无人驾驶汽车可能会发现自己面临“做出决定”的需要,即在可能的替代行动方案之间进行“选择”。除其他问题外,在不可避免的碰撞和由此造成的人身伤害的情况下的伦理解决方案,即所谓的道德困境通常是关于自动驾驶汽车的文献中争议性辩论的中心。它们代表了一种特定类型的道德决策问题,其中不相容的行动选择发生冲突,出于道德原因,所有这些选择既是对的又是错的。然而,在驾驶环境中出现的困境现象与道路交通本身一样古老。是什么让道德困境成为现在如此有争议的伦理问题?德国自动驾驶和联网驾驶道德委员会(ECAD)指出:“真正的两难抉择,例如在一个人的生命与另一个人的生命之间做出的决定,取决于实际的具体情况,将‘不可预测的’行为纳入受影响的各方。因此,它们不能被明确标准化,也不能被编程为在道德上是不容置疑的。”[ 1 ]在即将发生碰撞的前几分之一秒内做出的人类决定远不能与在紧急情况下生效的复杂算法相提并论,这似乎是合理的。

此外通过对相关文献进行阅读,所提出的分析還揭示了自动驾驶与两种边界案例都不对应的某些方面,而是介于两者之间。首先,自动驾驶可以利用在运行时和试驾期间收集的大量极尽详细的数据信息。但是,这些数据必然是不完整的,其质量也不是完全可靠的。一方面,数据的质量可能会受到传感器和摄像头技术容易出错的影响,例如由于天气或照明条件。 另一方面,技术人员对数据进行评估、解释和处理以使其可用于算法,但算法决策所造成的结果却不一定是正确的。这样,即使是高质量的数据也可能导致次优决策。其次,就结果的确定性而言,自动驾驶的决策介于两种边界案例之间,它使用依赖于风险估计和概率计算模型的方法。尽管它受益于大量的技术支持,但计算结果在一定程度上始终存在不确定性。第三,与现实情况的关系可以解释为是什么使自动驾驶与边界案例如此不同的总结。必须针对尚未成为现实的假设的、可想象的场景做出决定,可能发生的事情和真正发生的事情之间的隔阂使得算法决策变得如此具有挑战性。

三、道德决策主要难点分析

最终,分析揭示了自动驾驶汽车案例与边界案例有很大不同的地方。相关学者们指出了特别需要监管的领域。首先,无人驾驶汽车困境中的决策情况应该被描述为集体决策。关于如何解决自动驾驶道德困境的决策不是个人的任务,而是一个考虑各方需求和主张的过程。

一方面,由于决策的独立性和具体化,相应的决策理应是授权的,并且没有任何形式的直接个人参与。当车辆遇到两难情况时,在机器中实施的算法决策程序随时准备生效,算法的执行可能会影响各环节中的每个人。正是出于这个原因,授权决策者需要尊重各方在经济、生态、社会、道德和法律方面的利益。其次,在无人驾驶汽车的背景下,责任问题特别复杂。虽然大多数研究文章都涉及谁应对自动驾驶汽车造成的伤害负责的问题,但本文更关注的是在道德和法律上如何追究一个人的责任。帕特里克·林(Patrick Lin)强调算法的实现负有特殊责任:“程序员和制造商并不是在理性本能的引导下执行工作的,他们是在没有真正紧迫的时间限制下做出潜在的生死攸关的决定,因此与人类驾驶员在意外情况下的条件反射性反应相比,他们有责任做出更好的决定。”

另一方面,在不改变方向的情况下造成严重伤害或死亡的行为。转移到自动驾驶汽车的案例中,这意味着批准自动驾驶汽车改变方向并随后伤害甚至致人死亡的方式对汽车进行编程的实体是故意行为,因此将被拘留负刑事责任。这个结论似乎有问题,并表明将道德相关性附加到主动和被动伤害行为之间的区别对于算法决策几乎没有意义。虽然人类驾驶员仅在发生不可避免的碰撞采取规避行动时才会主动进行操作,但保持汽车的行驶轨迹被认为是被动行为。但是无人驾驶汽车没有需要对其算法执行进行审议的默认行为,也就是说,它没有自己的意图。无论选择哪种选项,汽车控制系统的程序员都会主动(尽管是间接地)对受影响的各方造成损害。无论如何,敦促司法管辖区制定一个复杂的解决方案,以解决个人和集体责任问题的复杂性,这些问题使自动驾驶汽车道德接近于饱和。第三,人类驾驶员的决定可以粗略地描述为由自发的瞬间决定产生的单一反应,因此仅与单一事件有关。而在自动行驶案例中做出的决定与各自版本的结构所构成的独特背景密切相关,而自动驾驶汽车使用的是单独的解决方案,这些解决方案一般情况下不会转移到其他案例中,因此对于自动驾驶汽车来说,需要一种道德解决方案,它不仅适合一种特定的环境,而且还适合多种其他环境。对单个解决方案进行编程以使决策对每个可以想象的场景的所有方面都能够全面的顾及到,这无疑构成了一个巨大的(如果不是不可能的话)现实挑战。正是由于这个原因,同时通过不同的标准对场景进行分类似乎是合理和必要的。然而,真正的困境情况总是单一的案例,无法完全标准化,这种困境的独特性与需要对各种反应概括性描述的实际需求之间有着巨大的隔阂,这似乎是与自动驾驶汽车伦理相关的最复杂的问题之一:确定的行动不是唯一的,而是多次重复的。因此,自动驾驶困境中的道德决定不是单独的,而是可以描述为一种反复出现的行为模式。这意味着碰撞算法的决策范围比手动驾驶中的个别、狭窄的范围更广。这个问题的复杂性在涉及不止一辆无人驾驶汽车的困境情况下尤为明显。假设所有自动驾驶汽车将使用相同的碰撞算法的情况是合理的,这意味着所有算法在面对特定情况时都会以相同的方式做出反应,从而可能引发不可预测的严重事故。与此相关的是标准化算法在产生特定结果时会受到偏见的影响,当两辆编程相同的自动驾驶汽车发生事故时,由此产生的累积效应可能还会产生低效的结果。例如,想象一下,两辆无人驾驶汽车相互靠近,然后都转向并撞墙牺牲了他们的乘客。这个场景说明协调是自动驾驶汽车之间做出反应必不可少的一环,而不是盲目地遵循预先实施的规范。[ 2 ]

四、结论

简而言之,自动驾驶汽车相关的困境决策情况与手动驾驶的案例之间只有很少的共同之处。这一发现具有重要意义:在讨论碰撞算法的伦理时,手动驾驶的实际现实视角不能成为广泛的标杆。相反,所提出的分析证实了自动驾驶汽车背景下的决策情况与边界案例之间的基本认知和概念的距离。本文讨论的问题对引入自动驾驶汽车提出了挑战,其特点是需要监管,同时考虑到在无人驾驶汽车困境中制定道德决策的具体因素。

除此之外,本文讨论的无人驾驶汽车困境案例可能被解释为对从道德角度看待和评估人工智能技术的一般方式具有更广泛的影响。机器伦理研究人员普遍认为,自治系统缺乏归因于人类的完全道德代理的能力。机器不具备真正的人类能力,如现象意识、情感、高阶推理、意向性和自由意志。[ 2 ]尽管自治系统的实施方式可能使它们能够根据伦理原则、某些价值观或观察到的道德直觉行事,但它们无法将人视为具有人文意义的内在价值和尊严的承载者。正是由于这个原因,算法程序通常被认为是非个人的和死板的。人文管理视角或许能够开辟将“人为因素”整合到看似不人道的机械化事物中的方法。通过这种方式,它可以作为一个重要的贡献者,为算法决策提供研究进路,为有意义和谨慎的管理实践铺平道路。

【参?考?文?献】

[1]白惠仁. 自动驾驶汽车的伦理, 法律与社会问题研究述评[J]. 科学与社会, 2018, 8(1): 72-87.

[2]高华, 陈红兵. 论人工智能与人类智能之差异[J].东北大学学报 (社会科学版), 2021, 23(2): 15.

(责任编辑:姜秀靓)