智能机器“嵌入式伦理”问题初探
2022-07-16陈星伊赵男兵刁景华
陈星伊,赵男兵,刁景华
(1. 海军勤务学院 海防工程系,天津 滨海新区 300457;2. 北京疾病预防控制中心,北京 西城区 100035;3. 海军勤务学院 教学考评中心,天津 滨海新区 300457)
0 引言
随着新型芯片和机器学习算法等智能技术的不断发展,推动着智能时代的到来,自动机器人、无人驾驶汽车和自主武器等智能机器开始广泛应用于人类的生活生产中。2021年9月,国家新一代人工智能治理专业委员发布《新一代人工智能伦理规范》,深化将伦理道德融入人工智能。智能机器通过传感器和通信手段收集信息来计算外界环境状态,利用编程语言设定的规定动作,自动做出反应,实现各种动作,这些机器具有了情况评估和决策分析判断的自主行为。因此,我们在开发具有自动决策功能的智能机器时,不得不将工程技术伦理问题考虑其中,使其满足人类的伦理关系与法则,降低滥用带来的风险。
1 智能机器相关伦理问题
一般认为,与智能机器相关的基本伦理学主要有三类:一是规范伦理学(Normative ethics),即通过某些特定的伦理规范来判断一个人或一个行为;二是元伦理学(Meta-ethics),即规范伦理和应用伦理中所使用的公理概念;三是应用伦理学(Applied ethics),即处理特定领域中实际情况时的伦理要求。
George Edward Moore将伦理分为规范伦理学和元伦理学两个方面。在规范伦理学中,其主张的是一种理想主义理论,规范伦理学着眼于价值分析,即某种形式的功利主义理论,他认为行为的“正当性”就可以等同于行为的“有用性”,也就是说,“有用”的行为效果和“善”是同一的[1]。而在元伦理学中,对于“善”和“正当”等,都有着与规范伦理学不同的定义,其根本特点在于“中立性”,同时也是“超规范性”。元伦理学理论认为:科学的伦理学只能是对道德进行语言逻辑分析,不制定任何道德规范,也不对事物给出价值定义,对于任何道德规范、价值标准都采取宽容、容忍的态度,保持“中立”的立场[2]。
在《应用伦理学辞典》中,认为“应用伦理学”相对于其它伦理学不同的是,着重研究和回答现实生活中各个领域的具体伦理问题和道德难题[3]。在《应用伦理学概论》一书中,将“应用伦理学”定义为“研究如何运用道德原则去分析解决现实生活中具体的、有争议的道德问题的学问”[4]。
通过对比以上基本伦理学的界定,不难看出,应用伦理学有着比规范伦理学和元伦理学更加强烈的工程实践性。
2 基于“电车悖论”的伦理框架
根据上述基本伦理学理论,可以建立三种伦理框架:
(1) 结果主义伦理学,采用自上而下的方法,首先,进行顶层设计,将伦理作为制定行为规范的相关规则,然后,依据规范伦理学对行为规范再次进行分类,并对不一致的规范重新排序。在这个伦理框架中,试图获得最好的结果,而不考虑获得效应的手段。
(2) 义务论伦理学,与规范伦理学相对立,强调对社会和他人的贡献[5],按照康德“义务往往是需要自我牺牲的”思想,人们应当不顾利害,自我牺牲,这才是真正的道德价值[6]。在这个伦理框架中,只关注决策的性质必须是好的或中性的,而无论其后果如何。
(3) 双重效应伦理理论,将应用伦理学与规范伦理学进行结合,决策的结果应当出现好的结果和坏的结果比例相等,也就是说人们从不希望看到坏的结果出现。在这个伦理框架中,包含三项规则:义务论规则、附带损害规则和相称规则[7]。
对于面临伦理困境的编程语言,要为用户与机器交互环境中提供决策并作出解释[8],从结果主义伦理学、义务论伦理学和双重效应伦理理论三个伦理框架来研究对可能的决定的不同判断,设计并完善初始框架模型,大体可分为4步:①事实和可能产生的决定;②计算事实和决策特征的函数;③根据事实和决定的特点,优先排序的关系;④判断函数用于计算每个框架对可能的决策的判断。
2.1 问题假设
我们可以在智能机器内加入一个代理人概念,并做如下假设:
① 代理人在一个复杂的动态环境中行动和决定;
② 从代理人的角度考虑伦理困境;
③ 每一种伦理困境,代理人都需要做出决定;
④ “袖手旁观”也视为一种决定;
⑤ 面对伦理困境时,代理人知道每一种决定的影响和后果。
代理人对于决定为好(或者不好)、积极(或者消极),可以判断为:如果这个决定符合道德价值观,那么这个决定就是好的;如果这个决定无视道德价值观,那么这个决定就是不好的;如果对代理人有利,那么就是积极的;如果对代理人不利,那么就是消极的。
2.2 “电车悖论”模型
上世纪60年代,英国学家菲丽帕·福特(Philippa Foot)最早提出了“电车悖论”[9],现在,我们对原初版本略加修改为:你站在天桥上,看到下方的轨道上有一辆失控的电车,而正巧轨道上有5个正在工作的人,他们无法躲避电车的碾压,同时,在天桥上,你的身边有一个体型巨大、体重超重的无关者,若把胖子推下去,可以挡住失控的电车,解救5个人,但是代价是无关的胖子将死去。以上状况,你会怎么做?
世界的初始状态
i=[fat,f5]
(1)
式中,fat表示“胖子”活着;f5表示五个人活着。
在这种情况下,代理人有两种可能的决策:
d1=袖手旁观
(2)
d2=推“胖子”
(3)
这些决策导致了事件的发生。事件是通过事件函数从决策D中获得的:
e1=车子撞到5个人
(4)
e2=车子撞到“胖子”
(5)
对事实做出决策,就会改变世界的状态。因此,每一个可能的决策都会导致一个新的世界状态,通过结果函数Consequence从世界和事件的初始状态可以计算出来,并得到效应结果Si:
(6)
(7)
3 基于“电车悖论”的伦理判断
3.1 基本设定
为了将伦理概念转化为可计算的概念,提出以下基本设定。
每一个模型都会输出一个判断:可接受acceptable(√)、不可接受unacceptable(×)或未确定undetermined(?),对初始状态做出的决定,通过判断函数Judgement,根据模型,用u,d,dde进行索引。
为了计算判断,每个模型的推理过程包括其评估条件为:如果某项决策的所有条件都得到满足,则该判断是可接受的。否则,该判断要么是不可接受的,要么是未确定的。
这些模型基于以下概念:
① 一方面是事实,另一方面是决策。我们将考虑积极的事实和消极的事实,以及好的决策、不好的决策和中性的决策。此外,事实可能属于一个区域。
② 事实之间的优选关系u,允许一个事实优于另一个事实。
③ 决策性质的关系d,被定义为:bad 这种关系使得义务论框架可以计算其判断,具体如下:如果决策是neatral或good(>dbad),则该判断是acceptable,否则该判断是unacceptable。 ④事实之间的比例关系p,允许一个事实与另一个事实成比例。关系>p,将>p扩展到事实的子集。这些关系使得双重效应学说足以评估一个决策所导致的一组(消极的)事实是否与同一决策所导致的另一组(积极的)事实成比例。 代理人将根据一个或几个模型作出决定。每个模型都会对一项决定作出判断,例如,对决定的性质、事件的后果等作出判断。此处,V代表集合: V={acceptable,undermined,unacceptable} (8) 所有的判断都有相同的特征: Judgement:D×S→υ (9) Judgement(d1,i)=acceptable,i∈S 具体分析如下。 3.2.1 结果主义伦理学 因为大多数人工智能代理人和自动化机器都被设计成是有益的,而不是自私的,所以我们将专注于积极和消极功利主义相结合的功利主义框架。根据这个框架,代理人将试图获得最好的结果(即最好的效果或最小化的不好效果),而不考虑获得效应的手段(即事件)。 这个模型能够比较几个事件对应于代理人的不同可能的决策的效果,即比较一组事实。因此: ——我们将区分一个效果中的积极事实和消极事实。 ——我们希望能够计算效果之间的偏好,即比较一个效果的一组积极(或消极)事实和另一个效果的一组积极(或消极)事实。 积极和消极函数如下: Positive/Negative:S (10) 两个函数的参数都是由一个事件(即一个效应)计算出的世界状态,且都返回这个估计为积极(或消极)效应的事实子集。 假设,对于一个效应S: Positive(s)∪Negative(s)=φ 例如:在“电车悖论”中,i=[fat,f5] (11) (12) (13) (14) (15) (16) 功利框架认为,涉及事件e1的决策d1(事件(d1)=e1)比涉及事件e2的决策d2(事件((d2)=e2)更好,因为对于i∈s: Positive(Consequence(e1,i))>uPositive (17) Negative(Consequence(e1,i))>uNegative (18) 两个等式都传达了功利主义的概念: ——是积极的功利主义(17),即试图获得“更多的益”。 ——是消极的功利主义(18),即试图获得“较少的恶”。 Judgementu(d1,i)=acceptable, (19) 如果这两个特性都得到满足,那么: Judgementu(d1,i)=Judgementu (20) 如果至少有一个属性没有得到满足,就不存在最佳解:在有两种以上可能的决定的困境情况下,最佳决策定义优于所有其他决定的决定。如果不存在这样的决策,就不可能用功利主义伦理学确定一个可接受的解决方案。不过,如果存在一个决定d1和另一个比d1更好的决定d2,那么d1被判定为unacceptable,因为d1不可能是最好的。 例如:因此,对于“胖子”的困境而言,可得出以下结论: Judgementu(d2,i)=acceptable (21) Judgementu(d2,i)=unacceptable (22) 3.2.2 义务论伦理学 这种伦理框架只关注决策的性质,无论其后果如何。事实上,代理人想要做出一个接近于遵守规范或康德理论的伦理决策。因此,我们必须对决策的性质进行界定。 从代理人的角度看,一个决策可能是好的、中性的或不好的,其中N为集合: N={good,neutral,bad} (23) DecisionNature函数输出决策性质: DecisionNature:D→N (24) 针对“电车悖论”,假设: DecisionNature(d2)=bad (25) DecisionNature(d1)=neutral (26) 在N上定义一个 bad (27) 意思是说,good决定优于neatral决定,并且neatral决定同时也是bad决定。 我们假设: bad (28) 我们还定义了以下关系: =d,例如,good=dgood ≤d:a≤db当且仅当a 则有判断函数: DecisionNature(d)≥dneutral⟹ (29) DecisionNature(d) (30) 例如:i=[fat,f5], Judgementd(d1,i)=acceptable (31) Judgementd(d2,i)=unacceptable (32) 3.2.3 双重效应伦理理论 基于之前的定义,我们可以评估一个决策是否符合DDE规则。 义务论规则:根据义务伦理学,决策d必须是good或neatral。 附带损害规则:消极事实既不能是目的,也不能是手段:“恶意的初衷”(作为目的的消极事实)不纳入考虑,因为我们假设代理人的设计不是恶意的。 相称规则:消极事实的集合必须与积极事实的集合相称。 如果一项决策d对于DDE并没有违反以上三条规则,d是acceptable,这意味着: [DecisionNature(d)≥dnetural] (33) ∧∀fn∈Negative(s),∃/fp∈Positive(s),fn→Ffp (34) ∧Negative(s)⊂pPositive(s) (35) ⟹Judgmentddc(d,i)=acceptable (36) 例如: 对于“胖子”的两难困境来说, 尊重规则(√),违反规则(×),则下表 Decision(33)(34)(35)d1√√×d2××√ 因此:Judgementdde(d2,i)=Judgementdde(d1,i)=unaccepable(37) 对于结果主义伦理学,推“胖子”的行为是可以被接受的;对于义务论伦理学,人们更应该袖手旁观;对于双重应用伦理理论,两者并没有本质上的区别,都被认定为不可接受。双重理论中两者都不可接受的行为,在现实社会中是不存在的,这使我们想到,无法仅凭一个框架计算出一个伦理决策,这是不足够的。事实上,有必要考虑各种伦理框架,以便就特定情况获得尽可能广泛的看法。 (1)由于伦理困境问题本身存在的性质,因此,我们所研究的伦理框架不可能在所有情况下都适用的。事实上,一个特定的框架可能以同样的方式判断两个不同的决策.例如,事实之间的功利偏好关系,作为一个偏序关系,可能无法优于其他事实。在这种情况下,一些潜在的决策可能没有可比性。此外功利偏好还取决于环境。就义务论伦理学而言,判断一些决策的性质可能是非常棘手的,甚至是不可能的。“双重效应原则”禁止自我牺牲,然而,当人的生命受到威胁时,难道不应该期待代理人或机器的自我牺牲吗? (2)许多问题的局限性主要在于它所涉及的不同关系。事实上,我们还没有描述如何评估秩序:其中一些秩序必须被设定,另一些则可以被学习等等。此外,可能很难在两个概念之间确定一个秩序(偏好)。另一方面,这种方法是基于假设为确定的事实,这与现实世界又是不同的,因为在现实世界中,有些影响是不确定的或意外的。3.2 模型判断
(Consequence(e2,i))
(Consequence(e2,i))
Judgementu(d2,i)=unacceptable
(d2,i)=undetermined
Judgementd(d,i)=acceptable3.3 总结
4 结论