论人工智能发展中的伦理调适
2020-12-28严卫钱振江应文豪肖乐周立凡
严卫 钱振江 应文豪 肖乐 周立凡
【摘要】本文深入探讨了智能汽车和人工智能机器必须能够做出伦理决策的原因和面临的困难。分析了人工智能机器的部署所带来的大部分挑战可以通过人类的法律和技术监管来解决。最后指出,将当前的人工智能伦理道德问题建立在诸如电车难题等极端不正常的情境上是一个严重的错误。
【关键词】人工智能 伦理 智能汽车
【基金项目】“2019年江苏省计算机学会‘计算机伦理与职业修养专项课题”(JSCS2019ZX012)的研究成果;“江苏省高校‘青蓝工程优秀青年骨干教师培养对象项目”(2017)的研究成果;“江苏省高校‘青蓝工程中青年学术带头人培养对象项目”(2019)的研究成果;“江苏省‘333高层次人才培养工程培养对象项目”(2018)的研究成果;“江苏省教育科学‘十三五规划课题”(No.B-b/2016/01/34)的研究成果;“高等學校计算机教育研究会2018年度教育研究项目”(2018)的研究成果;“常熟理工学院2018年度高等教育研究项目(GJ1808)”的研究成果。
【中图分类号】G64 【文献标识码】A 【文章编号】2095-3089(2020)45-0035-02
1.批判性概述
1.1智能汽车需要伦理规范的理由
智能汽车通俗讲可被视为学习型机器。而他们的程序主要用来收集信息,处理信息,得出结论,并相应地改变他们的行为方式,而不需要人类的干预或指导。因此,这样的一辆车可能会启动一个指令比如不超过速度限制,并得出安全行驶的结论。鉴于这些智能汽车可能会造成事故,因此智能汽车需要能够区分“错误”和“正确”的伦理决策。这些智能机器更需要在造成无法避免的伤害时,例如需在两种伤害之间做出选择的情况下,这一点已经引起了人们的广泛关注。这些讨论通常从电车难题的适应性开始,即汽车无法及时刹车,被迫在继续行驶和撞到行人之间做出选择,或者转向到对面车道上迎面驶来的车辆[1]。简而言之,智能汽车和其他人工智能机器在做决策时需要伦理指导。
1.2让智能汽车做出伦理决策的两种方式
人工智能和神经科学伦理学专家温德尔·瓦拉赫提出了两种方法,即自上而下进路和自下而上进路[2]。在自上而下进路中让智能汽车和其他智能机器能够自行做出伦理选择。其伦理规则被编入程序,在程序员的指示下,智能汽车在特定条件下以最合乎伦理的方式安全行驶。在此,没有必要重提各种伦理学派之间的争论。鉴于这些不同之处,我们只需指出,很难给一台能够自行做出伦理决定的机器编写程序,无论是使用这些伦理哲学中的一种,还是这些伦理哲学的一种组合。研究发现指出,人类能够处理细微差别和模糊的决策,但在实际操作中,计算机程序员发现这样的决策特别费力。简而言之,自上而下进路是有局限性的。
第二种是自下而上进路,希望机器在没有被教导任何正式的规则或配备任何特定的伦理哲学情况下,通过观察人类来做出伦理决策的行为。也有人提出,智能汽车可以通过某种聚合系统,作为一种群体思维或利用群体智慧,从数百万人类司机的伦理决策中学习。然而,人们应该注意到,这很可能导致智能汽车获得一些不道德的偏好。例如,学习了许多人的做法,智能汽车很可能会随意加速、突然变道等。人们还必须注意到,当面对电车难题所带来的选择时,大多数受访者希望智能汽车在不牵涉其中的情况下做出实用的决定,即对他们自己来说,他们想要的车会优先考虑自己的幸福,而牺牲别人的幸福。
简而言之,自上而下和自下而上的方法都面临非常严重的困难。这些困难不仅仅是技术上的,更是涉及人类所使用的伦理哲学的内部联结等。
1.3智能机器的自主性探讨
有关智能机器的自主性有些人认为,所有发生的事情都是由充分的先决条件造成的,这种因果决定论使得伦理责任的分配变得不可能。然而,这并不意味着同样的情况也适用于机器。有些工具没有自主性但可以通过外部的力量完全解释它们的行为。例如,GPS系统当被问及从起点到终点最好的方法,比较几个选项,并推荐一个,但它的建议是基于一个人为的程序算法,计算最短的路线或花最少的时间。
深度学习是一种相对较新的人工智能形式,它基于神经网络来实现由大数据、超级计算和先进算法的转变,通过深度学习,系统能够自己找出问题所在。然而,深度学习看上去很智能,但实际上并非如此。因为深度学习依赖于大数据并且缺乏对新环境的自适应反应能力[3]。
2.人工智能伦理调适的关键点
2.1法律实施和个人选择
如果智能汽车和其他这类机器没有能力自己做出伦理决策,它们怎么能遵循人类的伦理偏好呢?在回答这个问题时,必须首先考虑伦理和社会价值观在人类世界中的两种截然不同的实现方式,然后再考虑如何将这些价值观引入智能机器领域。
伦理和社会价值在社会中实现的主要方式是通过法律实施和个人选择。许多伦理和社会价值体现在法律中,即它们是国家制定并强制执行的。例如,为了提高安全性,汽车必须在停车标志处停车。通过学习交通安全法等来促进对这些价值观的遵守而违反这些价值观的人则会受到处罚。但是,诸如是否购买环保汽油或最便宜的汽车、是否购买污染更少的汽车、是否为搭便车的人提供服务、是否允许朋友使用自己的汽车等问题的最终决定权还是留给了每个人[4]。区分法律实施和个人选择是至关重要的,因为通过立法机构颁布的法律是由国家强制执行的,原则上不受个人考虑和选择的限制。智能汽车必须遵守法律,就像所有其他汽车一样,如果他们认为超速、污染等行为是合乎伦理的,他们就没有必要深思熟虑。诚然,这些法律可以根据这些汽车的特点进行调整。尽管如此,智能汽车仍需要遵守法律,就像所有其他汽车一样,否则将被禁止上路。甚至它们的所有者、程序员和制造商将对造成的任何损害承担责任。
法律没有规定的伦理决定通常由个人或智能汽车自行做出。我们已经看到,试图为这些智能汽车写入程序,使它们能够自己做出这些决定,是一项非常艰巨的任务。我们能做些什么呢?让个人指导他们的汽车遵循他们的价值偏好。在一定程度上,这可以通过设置选项来实现。例如,根据特斯拉官方的介绍,司机的手放在方向盘时才会改变车道,而且每一次改变都会被震动或铃声提醒。当然,司机也可以选择取消通知提醒。
接下来,我们建议,对智能机器加强伦理引导应该采用一种新的人工智能程序,它将“解读”主人的伦理偏好,然后指示这些智能机器注意这些偏好。我们称之为伦理机器人。伦理机器人是一个人工智能程序,对个人伦理偏好可以通过分析成千上万的商品信息来解读其特定行为的真正含义。从本质上讲,伦理机器人在伦理选择方面所做的工作,与许多人工智能程序在发现消费者偏好并相应地针对其投放广告时所做的工作类似。
2.2离群值谬误
电车难题在智能汽车上的应用受到了惊人的关注。就像其他的心理实验一样,它们可以作为激发对话的引子。然而,作为智能机器及其人类伙伴进行决策的模型,这样的故事往往适得其反。因为电车难题是精心设计的。他們通常只留给参与者两个选择,而这些选项和其他条件都不能修改。例如,在铁轨主干道上有20人被捆绑无法脱身,这时一辆火车疾驰而过,一场特大事故即将发生,幸运的是工作人员发现旁边有一个杠杆,只要启动按钮就能让火车改到另外一侧铁轨主干道上。但另外一条铁轨主干道上恰巧也有1个人被捆绑。在这种极端情况下,工作人员可以启动按钮让火车改道行驶吗?事实上,人们对不同人的生命价值观是不同的。
芭芭拉弗里德指出,“电车难题促使一些哲学家更多地关注‘边缘的一组古怪案例,而不是现实生活中的大多数案例,这些案例实际上存在对他人造成意外伤害的风险。”[5]
法律学界有句重要的格言:“艰难的案件会导致糟糕的法律”,因为由极端的情况而引起的案件,往往会导致针对例外情况的法律或裁决,更会导致糟糕的规则[6]。人工智能伦理案件亦如此。我们注意到,这对于机器学习程序来说是一个广泛的问题。第一,在样本概率分布归纳时,有一些离群事件是很难预测的。第二,人类也面临同样的问题,而且往往做出不可预测的反应,有时更会导致所谓的“人为错误”。这对于机器学习来说仍然是一个具有挑战性的研究课题。在大多数情况下,智能机器可以通过法律手段保持一致。而在其他情况下,他们可以遵守用户的伦理偏好。但总会有一些无法预见的事件。在这些情况下,最好的选择是分析哪一方将受到伤害,并做出合理决策。如果这些情况重复出现,人类将需要更新法律指导或伦理机器人的指导规则。
3.结语
应该承认,在机器中植入伦理或者教授机器伦理,充其量是一项非常费力的工作。我们指出,智能机器在做出的许多伦理决策时,不需要也不应该由它们自行做出,因为大多数的决策可以通过相关立法机关和法律为机器做出规范的指令。剩下的许多伦理决策都可以由伦理机器人做出,它们会根据车主的伦理偏好调整汽车的“行为”。诚然,无论合法的还是合乎道德伦理的智能机器都无法掩盖极端的异常情况。
参考文献:
[1]储陈城.自动汽车程序设计中解决“电车难题”的刑法正当性[J].环球法律评论,2018(03):82-99.
[2]温德尔·瓦拉赫,科林·艾伦. 道德机器:如何让机器人明辨是非[M].北京:北京大学出版社,2017:68-69.
[3]何静.人类学习与深度学习:当人脑遇上人工智能[J].西南民族大学学报(人文社科版),2017(12):84-88.
[4]Etzioni A ,Etzioni O. Incorporating Ethics into Artificial Intelligence[J].The Journal of Ethics, 2017.
[5]Fried,Barbara H. What does matter? The case for killing the trolley problem(or letting it die)[J].The Philosophi?鄄cal Quarterly,2012(62).
[6]Lucas Jr.,George R. Engineering,ethics and industry:the moral challenges of lethal autonomy In Killing by remote control:the ethics of an unmanned military[M].New York:Oxford University Press,2013.
作者简介:
严卫(1980-),男,江苏常熟人,常熟理工学院助理研究员、实验师,硕士,主要研究方向为人工智能伦理、高等教育管理。
钱振江(1982-),男,江苏常熟人,常熟理工学院计算机科学与工程学院副院长,副教授,博士,主要研究方向为计算机工程教育。
应文豪(1979-),男,江苏常熟人,常熟理工学院副教授,博士,主要研究方向为数据挖掘技术。
肖乐(1981-),女,江苏苏州人,常熟理工学院副教授,硕士,主要研究方向为人工智能。
周立凡(1984-),男,江苏常熟人,常熟理工学院讲师,博士,主要研究方向为深度学习。