自动驾驶遇难题
2021-10-15王治钧
王治钧
伊亚德·拉万(Iyad Rahwan)是叙利亚裔澳大利亚科学家,他的研究涵盖了计算机社会科学和人工智能所涉及的伦理规范等,处于计算机和社会科学的交叉领域,其中包括自动驾驶技术的伦理思考。
自动驾驶的道德困境假设
伊亚德·拉万在演讲中提出了自己的假设:在2030年的某一天,你和家人坐在一辆无人驾驶汽车里,悠闲地看着投放在车前窗屏幕上的电影。突然前方路口出现紧急情况,你的车根本停不下来。如左图,左拐,可能会撞上障碍物,车毁人亡;右拐可能会撞到等红绿灯的人群;直行会撞到路上的行人和狗。
此时,这辆车的自动驾驶技术该怎么做?又该是谁来预设这个算法呢?预设好的程序、基于某种目标算法的撞击方向、系统性的倾向,自动驾驶的技术问题就变成伦理道德问题。
刹车失灵引发的电车难题
其实上述假设是受到了电车难题的启发,这是几十年前由一群哲学家发起的对道德的考问。电车难题指的是一辆刹车失灵的电车面临铁路分叉口,一条铁轨上有5名工人,另外一条铁轨上有1名工人,如果你是扳道工或者司机,你会选择哪条路?
调查显示,大约90%的人会选择牺牲1人来拯救5个人的生命。
但是,当假设发生变化,即轨道上的5名工人可能会被电车辗轧,如果从天桥上推下1个人就可以让火车停下,你是否愿意去推这个人?这种情况下,大部分人会改变自己的选择,认为不应该有意去伤害一个人,应该让车自然行驶,即使这样会伤害到更多的人。
在自动驾驶领域也面临类似的道德困境——紧急情况下,技术应该优先保护哪些人或牺牲哪些人?此外,也可以引申出其他的道德困境,比如,如果让你从以下两辆车中选择——一辆车在事故发生时总是试图拯救尽可能多的生命,另一辆则会不顾一切地拯救你的生命,你会购买哪辆车?如果汽车开始分析并考虑车里的乘客以及他们的生存概率,情况又会怎样?一个随机的决定会不会比一个以“最小化伤害”为原则事先设计的决定更好?
电车难题最早由英国哲学家菲利帕·福特(Philippa Foot)于1967 年提出
伊亚德·拉万以这一系列问题制作了一份调查问卷。他发现,人们认可无人驾驶汽车能为交通带来整体改善,但是如果在极端事故中乘驾人的生命安全不是被优先考虑的,那么他们并不会购买无人驾驶汽车。
道德机器——电车困境的升级版本
此后,伊亚德·拉万又设计了13个无人驾驶汽车刹车失灵场景。大家需要把自己当成无人驾驶汽车,来决定把车开向何方。
这13个场景预设了很多不同的变量,以此来确定被调查者更倾向于选择拯救多数人还是少数人,牺牲年轻人还是老人、宠物还是人类、正常行人还是闯红灯者,甚至还会在社会地位不同的人中作出选择。
如右图,当无人驾驶汽车刹车失灵时,选择撞向老先生还是小男孩?
当无人驾驶汽车刹车失灵时,选择撞向人群自救,还是撞向障碍物,最终车毁人亡?
未来的挑战
俄罗斯科幻小说家艾萨克·阿西莫夫在20世纪40年代,就写下了著名的机器人三大法则:(如右图)机器人不能伤害人类,机器人不能违背人类的命令,机器人不能擅自伤害自己——这是按重要性由高到低排序的。
但是现实中太多具体事件不断挑战这些法则的底线,于是阿西莫夫又引入了第零号法则——机器人不能伤害人类这个整体。针对自动驾驶技术来说,交通事故中无法避免的那些人员附带伤害不仅仅是个技术问题和法律问题,它还是一个社会合作的伦理问题,是各种算法的组合,也是开发者和监管者需要考虑到的道德困境。
数据分析表明,不同国家被调查者因文化、经济和背景不同,决策存在广泛差异。这些差异预示着为自动驾驶技术建立一套普适性的道德原则是不太可能的
图为俄罗斯科幻小说家艾萨克·阿西莫夫
無人驾驶汽车会是首批大规模融入人类生活的人工智能产品之一,所以在自动驾驶方面所发生的一系列事情都将为其他人工智能和机器人技术定下基调。但是有一条需要谨记——算法是有价值观的,因为算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观上的缺陷。伦理难题既非自动驾驶技术所专有,也无须由自动驾驶技术来终结,更不应该成为其应用推广的阻碍。