APP下载

自动驾驶技术道德算法困境探析

2024-01-19郑凯歌

中国军转民·下半月 2023年9期
关键词:伦理困境

【摘要】在人工智能时代,人工智能的普及孕育出一系列的伦理问题。人工智能自动驾驶技术中的道德算法困境,包括电车难题和隧道难题。现有的伦理主张,如功利主义、罗尔斯式算法以及将选择的权利让渡给车主的道德旋钮等,但这些伦理主张本身也存在一定缺陷。想要解决自动驾驶技术道德算法困境,需要采用强制性的、互利的算法伦理程序,并从依赖单一伦理理论转为达到共享理解。

【关键词】自动驾驶技术∣道德算法∣伦理困境

人工智能技术已经应用到人们日常生活的各个方面,逐渐开启了人工智能时代。而人工智能的普及也孕育出一系列的伦理问题,自动驾驶技术中“电车难题”应运而生:面对即将发生碰撞的行人,是直行直接撞向行人,还是急转弯撞向一旁,将乘车人置于险地。自动驾驶技术作为人工智能时代的产物,这一伦理难题的解决决定着自动驾驶技术在未来能否顺利推广。自动驾驶汽车只有被提前置入具有伦理道德的事故算法,公众才会放心购买使用。

一、自动驾驶汽车道德算法困境的提出

自动驾驶汽车在行驶过程中,需要自动驾驶系统自主做出行驶决策,这就需要设计者和伦理学家提前为自动驾驶汽车嵌入道德算法,在此期间产生一系列伦理难题,比较典型的包括电车难题和隧道难题。

(一)电车难题

“电车难题”是指当自动驾驶汽车发生不可避免的碰撞时,关于碰撞目标如何选择的问题。这一问题最初由菲利帕·福特提出,经典表述是:一辆失控的电车在电车轨道上高速驶来,轨道上有五个人,碰撞马上发生。此时,你可以拉动一个拉杆,让电车开到另一条轨道上。但另一个电车轨道上也有一个人,你是否会拉动拉杆吗?[1]。另外一种表述为:一辆失控的电车在电车轨道上高速驶来,轨道上有五个人,碰撞马上发生。此时你站在轨道上方的天桥上,天桥上有一个胖子,若推下胖子就可以挡住即将碰撞的电车,拯救轨道上的五人。考虑以上状况,你会推下胖子吗?一项关于“电车难题”的调查显示:89%的人认为拉动拉杆拯救五人是可接受的,但只有 12%的被调查者同意推下胖子。这一调查结果表现了谋杀和放任死亡的差别,对此调查的解释还有很多,这也反映了伦理困境的复杂两难,而自动驾驶道德算法设置就是这一复杂伦理困境的现实化。

(二)隧道难题

隧道难题是电车难题的变型,但本质上具有差异。“电车难题”表征的是面对不可避免的碰撞时,对碰撞目标的选择困境;“隧道难题”突出的是当乘车人和行人发生利益冲突时的选择困境。隧道难题的表述为:一辆电车正高速驶入隧道,此时一名儿童堵在了隧道入口处,悲剧即将发生。如果选择直行进隧道,会导致儿童死亡;如果选择撞向隧道的墙壁,会致使乘车者死亡。而这些复杂两难的伦理难题,必须在自动驾驶汽车投入市场前得到妥善解决。毕竟没有人会把自身和家人安危交给决策不明确的自动驾驶系统,这也是自动驾驶技术发展的首要难题。

二、自动驾驶技术道德算法困境的成因

(一)功利主义算法中的“损失厌恶”困境

让·弗朗索瓦·伯尼法等学者力图寻找一种即能降低社会事故死亡预期,又符合大众道德偏好的伦理理论,以此作为自动驾驶道德算法的基础。因此,自动驾驶技术的道德算法选择面对一个问题: 是道德偏好和选择偏好本身就相互独立,还是因为购买情境导致道德偏好的转变?

调查显示,大众在选择偏好中会表现出道德偏好,但在购买情境中,选择偏好又会发生改变。因此,在置入自动驾驶汽车的道德算法时,不能简单地依赖大众在电车难题中表现出的功利主义偏好。道德偏好与选择偏好的相互独立表现出道德判断的双加工模型。在道德困境中,被试者在“非亲身性”情境中,理性的认知占主导,感性的情感唤起较轻,容易作出功利主义选择;而涉及直接伤害的“亲身性”两难困境,被试者更易感同身受。购买情境对被试者来说,更容易激发被试主体关于生存发展和个体安危的关注,其情感唤起度高于“非亲身性”的电车难题,影响了主体的行动偏好。

(二)罗尔斯式算法中的“反向不公”困境

尽管功利主义道德算法在调查中得到了大众的道德认同,也可以减少社会整体事故死亡率,但在购买情境中受到阻碍。因此,寻找一种既能保证大众购买意愿,又能提高社会整体安全预期的道德算法便成了当务之急。

“罗尔斯算法”为改变功利主义牺牲少数人的算法预设,提出“底线优先原则”。雷本提出以罗尔斯的“最大化最小值”原则为基础,建构一种底线安全最大化的新算法。罗尔斯式算法通过最大化弱势群体的收益推动博弈双方达成“帕累托最优”,改变了功利主义为达到生存最大化而舍弃少数人的方式。在乘车者和行人生命同时受到威胁时,罗尔斯式算法选择最大化生存率最低一方的生存率。

但罗尔斯式算法对事故主体生存率的评估是否准确却存在争议,另外一种观点关于反向不公:如果我们把事故中生存概率小的一方作为重点保护对象,那是不是事故中安全系数更高的一方就会成为 “靶子”?例如,据官方数据统计,戴头盔会让骑行者在事故中的伤亡率降低,但如果骑行者知道自动驾驶事故算法会优先保护生存率最低者,他们是否会不再戴头盔呢? 因为“头盔”很可能因其安全性而成为自动驾驶事故算法的 “靶子”,这显然是不公平的[2]。

(三)道德旋钮算法中的“囚徒困境”

获得大众支持的功利主义算法陷入了购买困境;具有“最大最小值”原则的罗尔斯算法带来了反向不公困境,使设计者不得不考虑另一个问题:如果统一的算法无法满足实际需要,那放弃统一算法,打造个人伦理算法,把选择权让渡给车主。自动驾驶汽车道德算法设置一直面对的问题:怎么为一个复杂两难的道德问题预设答案,个人伦理算法的提出,将统一性的道德算法变更为个体的独特选择,以“预设选择”代替“预设答案”。

贾斯帕·康提萨的“道德旋钮”架构是个人化伦理算法中最具有代表性的。该架构中,旋钮两端分别对应“利他主义”和“利己主义”,中央对应“功利主义算法”:即优先保护行人和优先保护乘客,以及完全中立。驾乘人员在“利他主义”与“自我主义”之间进行倾向性选择。“道德旋钮”优势在于:自动驾驶系统成为使用者道德選择的延伸,以“多元主体”代替“单一主体”,完成了设计者向使用者的权责让渡。并且,道德旋钮的利己主义选项可以完全保护乘车人的完全,缓解了大众对纯粹功利主义算法自动驾驶汽车的购买排斥。

三、自动驾驶技术道德算法困境对策分析

(一)采用强制性的、互利的算法伦理程序

个人化伦理算法与强制性伦理算法的本质,都是通过对有限资源的权衡以求达到生存率最大化的帕累托最优解。

个人选择事故算法会带来更多伦理难题,所带来的囚徒困境让个体更加不堪重负。以机动车道路通行原则作类比,我国采取右侧通行原则,而有些国家采用左侧通行原则。左侧通行和右侧通行无法判断谁更具有优势,但一定都优于谁快谁占道。在混乱的秩序中,采取一个统一的、强制的规则,更能打破僵局规范秩序。只有政府介入进行强制性的伦理设定才能使社会全体利益最大化,政府应该给自动驾驶技术制定统一的、强制性的算法标准。

(二)伦理理论相互融合以突破自身局限

如今学界,伦理理论已经出现相互融合之势。规则功利主义是功利主义对义务论的吸纳;康德式伦理学开始对后果进行考量;义务论和功利主义也逐渐承认美德的重要性并试图将美德纳入自身理论框架。不同伦理理论彼此吸收、相互融合正在發生,这一过程实际上也是伦理理论对自身局限性的认识和突破。

设计者从研究方法和实践操作层次上提出许多方案,目标旨在消解诸生命间的排他性冲突。多数道德算法都选择引用系统性的伦理理论,但又因为没有处理好自身缺陷而走向失败。因而,运用伦理理论相互融合的方式以突破自身局限,来处理好内部特征之间的关系。我们应该吸收和利用美德伦理学、义务论和目的论等可借鉴的伦理理论,形成备选规则系统库。

(三)从依赖单一伦理理论转为达到共享理解

改变规则思维,焦距达成共识。为了解决不同主体的伦理价值冲突,可以引用契约论精神。在自动驾驶汽车道德算法设定过程中,需要考虑的利益主体包括行人、乘车人、制造商以及政府,契约主义为事故中利益主体的商议提供了借鉴。另外,可以展开讨论,考虑不被接受伦理规则有哪些,进行反向启发,从而为达成共享理解。

在设计自动驾驶汽车的道德算法时,可遵循两大原则:综合性原则和个性化原则。基于两大原则的批评性反思的道德算法:调用一切伦理资源,形成备选规则库——综合性原则化;乘客自主地因情境采用不同的伦理规则——个性化原则。我们应尊重复杂的伦理直觉,调用一切伦理资源,因情境采用相应的伦理规则而非伦理理论。

四、结语

政府介入进行强制性的伦理设定可以提供社会整体安全预期,自动驾驶技术应制定统一的、强制性的算法标准。自动驾驶技术道德算法也需要伦理理论相互融合。伦理理论融合或许不能完全实现,但不同伦理理论彼此吸收、相互融合却正在发生。自动驾驶技术的道德算法的设计还有很长的路要走,需要改变规则思维,达成共识,并且在实践中不断完善。

参考文献

[1] 和鸿鹏.无人驾驶汽车的伦理困境、成因及对策分析[J].自然辩证法研究,2017(11):58-63.

[2] 余露.自动驾驶汽车的罗尔斯式算法——“最大化最小值”原则能否作为“电车难题”的道德决策原则[J].哲学动态,2019(10):100-107.

(作者简介:郑凯歌,沈阳师范大学马克思主义学院硕士研究生,从事科技伦理研究)

猜你喜欢

伦理困境
基于具体案例就保密原则分析社会工作的伦理困境
翻译职业道德准则的伦理困境
脑机接口技术:伦理问题与研究挑战
基层公务员政策执行过程中伦理困境及对策
潜在举报人秩序遵循伦理困境分析
本土文化视角下人力资源管理伦理困境的研究
宁养社会工作服务中的伦理困境及反思
社会工作的伦理道德观
关于高校心理咨询教师伦理问题的思考
论“举国体制”下运动员发展的伦理困境