APP下载

人工道德智能体的发展路向*
——基于道德判断问题的分析

2022-06-08

中州学刊 2022年5期
关键词:直觉机器伦理

余 天 放

伴随人工智能或自主式机器人在我们生活中的愈加介入,关于人工道德智能体(artificial moral agents, AMAs)的构想也得到更多的讨论,而这些讨论的目的在于回答这样两个问题:第一,一种具有自主行动能力的机器人应如何对待人类?第二,一种参与人类生活的机器人应如何有道德地行动?这两个问题分别针对两种不同的场景而被提出,前者仅将人工智能体(artificial agents)看作一类人造物,因此它们需要有道德地对待人类,或者至少对于人类而言是无害的;后者则将人工智能体看作一些类人(human-like)的存在物,它们需要像人类那样拥有道德,既包括与人类的关系,也包括与其他人工智能体的关系。对于第一个问题,学者们经常会考虑应用阿西莫夫的三定律来作为限制机器人行为的规则,即便这些规则被表明为不适当的;对于第二个问题,学者们已提出了诸多在人工智能体中置入人类道德规范的建议,这些建议无疑推动了人工道德智能体的设计与发展,但同时却并没有使得人工道德智能体的发展路向问题得到真正的澄清。

据此,有关人工智能体能否有道德的讨论中出现了这样一种分歧:部分学者否定了一种赋予人工智能体以道德的构想,他们相信,由于机器人的道德责任归属是不同的,所以不应该期待一种能够实现人类道德的人工智能体;与之相反,另一些学者则持有更为积极的态度,他们不仅提供了发展人工道德智能体的理由,同时也已经构想了多种实现方案,包括“自上而下的”“自下而上的”以及混合的方案等。针对这一分歧,我们将表明,在构想某种人工道德智能体时我们会被引向对于一种与人类道德能力相一致的智能体的期待,然而这个期待是误导性的。我们更应该期待一种作为道德实体的人工道德智能体,它们将参与我们的社会活动,但并非真正的道德主体。

一、人工道德智能体的分类

在对人工道德智能体所可能具有的形式进行构想时,学者们会使用一些分类法(taxonomy)来区分不同类别或不同等级的道德智能体,其中最常见的有这样两种:一是由莫尔(James. H. Moor)所提出的按照人工智能体实现道德的程度而进行的分类;二是由艾伦(Colin Allen)等人所提出的按照人工道德的设计方案而进行的区分。这两种分类法并不是相互排斥的,事实上一种综合了这两种方法的新方案能够更加全面地总结现有人工道德智能体的发展。此外,分类法还具有的一个潜在作用则是为人们提供一个未来发展的预期目标,它通过展示一个等级次序而告诉我们应期待怎样的人工道德智能体。对此,我们指出,莫尔的分类法中对于这个最终目标的设定是有误的,它将我们错误地引向对于一种充分实现了人类道德的智能体的期待,并进而产生有关机器伦理的诸多争论。

在莫尔的分类法中,他将机器伦理的可能形式区分为“伦理作用智能体”(ethical impact agents)、“隐性的伦理智能体”(implicit ethical agents)、“明确的伦理智能体”(explicit ethical agents)以及“完全的伦理智能体”(full ethical agents),这一区分是根据机器中所实现的伦理等级而做出的。第一等级的“伦理作用智能体”仅能够被动地产生一些伦理效果,例如,我们应用机器设备取代了一些高风险、大劳动量的工作,从而产生了一些好的伦理效果,此时这些机器即被看作一类“伦理作用智能体”。第二等级的“隐性伦理智能体”在第一等级的基础上实现了对于人类而言的安全性和可靠性,此时机器被编入了一定的代码,从而保证它在与人类的互动中遵守既定的规则。莫尔举例说银行的自动取款机以及飞机的自动巡航模式即扮演了这样的角色,它们将按照既定程序很好地完成自己的任务,从而避免发生与安全性相关的伦理问题。第三等级的“明确的伦理智能体”则能够更为清晰地展现一些伦理范畴,并且能够按照某种道德要求去进行决策或行动。在当前有关机器伦理的研发中,诸多计算模型或系统已朝向这一目标在进行设计,例如,MoralDM,Jeremy以及W. D. 等多个决策模型都被视为“明确的伦理智能体”,它们能够根据被植入的道德算法而处理特定场景下的道德困境。最后是第四等级的“完全的伦理智能体”,它们实现了与人类的平均水平相似的道德判断(moral judgment)能力,同时也被要求具有意识、意向性以及自由意志等,从而成为一类完全意义上的道德主体(moral agents)。很明显的是,这类“完全的伦理智能体”目前只是一种可设想的方案,它的出现将依赖于我们在多久的未来能够实现通用的人工智能。

此外,在艾伦等人的分类法中,人工道德智能体则按照在其中实现伦理价值的方式而被区分为“自上而下的”(top-down)、“自下而上的”(bottom-up)以及“混合的”(hybrid)三种类型。“自上而下的”方式要求将一种或多种道德理论和原则作为机器人进行决策时所遵循的规则,此时它们只需要考虑如何最大化某种道德价值(义务论方案)或者计算如何使得最终结果最优(后果主义方案)即可。与之相对的是,“自下而上的”方式则并不要求在机器中预先植入某些道德理论和原则,而是提供让机器人在其中获得奖惩的环境,从而使得它们能够自主地产生对于道德价值的敏感性。“自上而下的”方式部分地模拟了我们人类的道德教育,即将那些已得到普遍同意的道德法则以知识的形式植入另一个主体当中。然而这一方法所面对的挑战是,不同的道德理论和原则之间可能存在冲突或者矛盾,以至于我们无法决定应选择哪种道德原则去遵守,此时就出现了某种道德困境或者道德不确定的情况。此外,对于机器人来说,“自上而下的”方式还可能存在运行上耗时过长的问题,因为在处理任何一个行动决策的问题时都需要进行大量的计算,而这在面对一些瞬间的特殊情况时被认为是不可能的。因此,为避免这些问题,“自下而上的”方案要求我们模拟人类进化过程中道德价值的产生方式,通过设计一些场景或平台而使得机器人可以自主地学习如何有道德地行动。然而这一方案也存在一些特定的困难,例如,让机器自主学习将无法保证它们的道德行为是必然的,以至于可能出现我们无法预测的非道德行为。并且这种“自下而上的”设计所需经历的时间是不可估的,最终的效果也是不确定的。据此,一种结合了“自上而下的”和“自下而上的”混合方案得到了部分设计者的青睐,例如,在一种名为LIDA(Learning Intelligent Distribution Agent)的认知结构中就同时使用了以上两种设计方案,它通过区分反应层和元认知层来实现这一点。在反应层,机器人将通过监测情绪反应而限制机器人可能存在的一些伤害行为;同时,在元认知层,又植入了一些类似康德式绝对命令的规则来保证机器人的基本行为。

二、对发展人工道德智能体的批评

莫尔的分类法反映了直觉上人们对于发展人工道德智能体所拥有的这样一种想法:我们应该让机器也可以像人那样有道德地行动。然而这一想法也许在观念上有自相矛盾之处,就如同我们无法训练一只猎犬既能够自主地行动同时又符合人类的道德要求一般。因为对于猎犬这样的自然物而言,自主性和有道德似乎是很难共存的。关于这一看法,学者们对人工道德智能体的发展提出了诸多诘难,而这些诘难总体上可以被区分为这样两种态度:一是设计人工道德智能体时所需面对的技术挑战是无法克服的;二是让人工智能体拥有道德的观念是不适当的。

第一,如果一个机器可以拥有道德,那么我们需要考虑伦理规范如何从它的程序中产生出来,而这种方式已被艾伦等人归纳为上面的三种:“自上而下的”“自下而上的”以及“混合的”。然而这三种方式各自所面对的困难也是显著的,并且这些困难反映了一个更加基础的元伦理学问题:如何通过算法解决道德问题?也就是说,如果我们把人类道德构想为一系列的指令或代码,那么此时会存在一个伦理规范向道德命题还原的问题,以至于部分的伦理学家可能会反对这样一种结合了道德实在论和道德认知主义的观点,而倾向于支持非实在论或者非认知主义的立场。或者他们至少质疑说,在人类中间没有形成关于什么是“善”的一致性看法之前,如何让机器人按照“善”去行动?此时,那种“自下而上的”方法似乎也无法绕开这一障碍,因为即便我们可以构造一种基于刺激—反应模式而行动的道德智能体,但我们依然很难说它就是一个真正意义上的道德主体,因为它可能并不明白自己为什么这么做,并且这样做与“善”有怎样的关系。此外,发展人工道德智能体还将面临的一个技术性挑战是,我们如何让机器人理解并识别某一道德场景,从而可以准确、迅速地调动特定的算法来处理当前问题?对于人类来说,这一能力似乎已发展为一种道德直觉,以至于我们在面对一些典型状况时会产生相应的道德情感来提示我们其中可能存在的道德价值。但对于机器人来说,我们又该如何通过设计而产生这种道德直觉,并且让它敏感于特定的价值呢?再退一步来说,即使以上的问题都得到了解决,但任何一个实现了人类道德推理(moral reasoning)能力的机器人在某个场景下所进行的运算都是巨大的,我们似乎很难要求这个智能体能够在极短的时间内完成对当下诸多可能性的运算,更不用说这些可能性能否完全体现预期的结果。因此,如果要实现机器伦理,我们至少需要克服这样几个技术上的困难:(1)在机器中实现的道德反映了人类的真实道德状况,而不是部分人的道德,或者部分理论所支持的道德;(2)机器人能够自主地做出道德判断,具有价值敏感性;(3)进行道德推理时,所需要的运行时间是受限的。

第二,发展人工道德智能体可能在观念上就是不可行的,因为这将有悖于它们只是一些机器的看法。与这一观点相一致的批评是多样的,例如,范·韦恩斯伯格(Aimee van Wynsberghe)等人指出,我们需要区分一个道德上可指责的情境和对一个道德角色的代表。当动物被人类训练而用于一些治疗的场景时,这些动物对于人类安全的保证只是处于一个道德上可指责的情境当中,而不是真正代表了一个道德角色,就像一个成年人所具有的那样。因此,无论人工智能体未来的发展是怎样的,我们都只可能把它们作为一类达到某种目的的工具或手段,而不可能被作为目的本身。与之相类似,通肯斯(Ryan Tonkens)提出了在发展机器伦理时所难以避免的“伦理上不一致”的问题,这就是说,机器所被植入的伦理法则将无法与创造它们时所需遵守的伦理法则一致。例如,在建造一个其行为符合康德式义务论的伦理机器人时,我们却不能够将它仅作为目的而不作为手段;或者在建造一个符合功利主义原则的机器人时,研发过程中所消耗的各种资源也明显地破坏了“满足最大多数人的最大幸福”原则。据此,从观念上而言,对机器伦理的发展至少需要解释这样两个问题:(1)我们应如何对人工智能体进行道德责任的归属,是归属于创造者还是归属于智能体本身?(2)在同一个伦理框架内如何实现创造人工智能体所遵循的道德规范与它们自身被植入的道德规范一致?

三、发展人工道德智能体的更多理由

尽管存在以上诸多反对发展人工道德智能体的理由,然而这些理由似乎并没有对将道德规范植入人工智能体的现实计划产生明显的阻碍,特别是近年来在自动驾驶、医疗保健、增强现实技术等领域中对智能体的应用,人们更加期待一种具有较高道德水平的智能体的出现。因此,针对这样一个现象我们需要考虑,仍然有哪些理由支持着我们发展人工道德智能体?这些理由是对于机器伦理的误解还是对以上挑战的回应?

福摩沙和瑞恩虽然给出了一个有关人工智能体之责任归属问题的解决方案,但他们并没有真正回应批评者所隐含的这一质疑:为什么必须要让机器人具有道德?因为一种明显的可能是,我们可以始终让人类扮演那个最终道德责任承载者的角色,即便当机器人需要在瞬间做出决定时,我们也可以通过对责任偏好的预先设定来解决这一问题,例如,让智能体的使用者在利己偏好和利他偏好之间在先地进行程度选择。因此,一种能够为发展人工道德智能体进行更强辩护的观点需要对我们的直觉进行解释,即说明为什么我们会期待机器像人一样有道德。这种直觉同样也体现在莫尔的分类法中,他通过区分“明确的伦理智能体”和“完全的伦理智能体”来表明,我们似乎可以期待一种完全地实现了人类道德能力的人工智能体,只不过同时也需要实现我们对于人工智能体所期待的其他困难目标,例如意识、意向性、自由意志等。因此,让机器人具有道德的直觉性要求很大程度上来自我们对于通用人工智能的期待,我们似乎无法接受一个高度类似于人的智能体却是对道德无感知的。

四、人类道德判断的方式与特征

在此,我们将给出一个关于人类道德判断的一般性描述,这一描述的目的并不在于形成一个在解释上具有较大前景的理论模型,而仅仅是通过对相关因素的考察来表明人类在做出某一道德决策时所可能受到的影响是怎样的,并且我们将在较大程度上依赖于近年来的一些经验性研究。

第二,道德原则。与机器伦理中的“自上而下的”方式相类似,人类道德的产生也存在这种“自上而下的”理解,即认为我们可以通过一系列道德原则的约束而产生做某事的动机或欲望。这一模式与道德认知主义者关于道德本质的看法相一致,他们相信,道德判断以一种认知的方式起作用,我们通过将一些具有普遍意义的道德原则应用于特定情境即可获知此时应怎样行动。而这些道德原则能够以命题的形式表达为一些具有真值的道德知识,同时具体的道德原则将由某个规范伦理学理论来确定,例如康德式的义务论或者密尔式的功利主义。因此,在道德推理时我们似乎进行了双层的操作,第一层决定选择哪条道德原则应用于此情境,第二层则在先地决定选择哪个规范性理论。需要指出的是,第二层的决定可能是隐秘的,或者是模糊的,因此我们并不总是意识到它。虽然这一考虑道德动机产生方式的观点近年遭到了道德非认知主义者的批评,然而,我们依然可以为一种弱化的立场辩护说,我们所具的道德动机和意向至少部分是来自道德原则的,否则道德教育就是不可能的。

综上所述,人类的道德判断涉及道德推理与道德直觉两种能力,其中道德推理相关于某人所具有的信念、意向性以及道德原则等内容,而道德直觉则相关于某人的情感、情绪以及对于道德情境的识别等。并且海特、格林等人相信,在一般的道德场景中,我们只是使用我们的道德直觉处理相关道德问题,并且主要依赖我们的情感反应;而在一些复杂场景中,当我们的道德直觉无法准确给出相关道德判断时,则会诉诸另一种基于理由的道德推理模式。据此,上文所引入的莫尔分类法中,“明确的伦理智能体”和“完全的伦理智能体”之间存在着设计上的本质区别,前者无论是采用“自上而下的”还是“自下而上的”设计方案,它们都只能在最大程度上实现道德推理的模式,而非另一种以情感为基础的道德直觉模式。同理,当一些学者试图通过在机器中植入人类道德原则的方式而实现人类道德时,即便我们接受此时在机器内部也许会产生一些具有内容的意向状态,但这一模式仍然可能是非人类的,它只是实现了人类的道德推理能力,而非另一种依赖于情感、情绪的道德直觉模式。

五、从道德主体到道德实体

由于一种以推理规则为基础的道德实现方案并不同于人类真正的道德判断模式,因此莫尔的分类法事实上将我们引向了这样一种误区:“完全的伦理智能体”似乎是“明确的伦理智能体”的更高实现,前者是在后者的基础上伴随有意识、自由意志、意向性等。然而,根据我们在上文中所提供的理由,这两种智能体之间存在着根本的区别。“完全的伦理智能体”被构想为对人类道德的完全复制,因此它至少需要同时实现道德直觉与道德推理两种能力;并且更为重要的是,当我们能够突破“机器意识”这一困难问题而实现了机器人自主的情感反应时,道德推理能力也将顺利地被实现。相反,“明确的伦理智能体”更大程度上依赖于将人类道德规则编入机器算法中,而这就使得机器人不需要那种为人类所具有的“双加工”模式,在面对任何道德情境时都只需要机器人按照既定规则运行即可。因此,从对于道德规则的遵守而言,“明确的伦理智能体”才是“完全的伦理智能体”的更高实现,后者将由于道德情感的存在而出现诸多道德直觉与道德推理不相一致的情况,此时一个近似于人的道德智能体也许会选择根据道德直觉来行动,从而产生一些非道德行为。

基于这些批判性的主张,我们又应该对于人工道德智能体有怎样的期待呢?事实上,这一问题首先是一个规范性问题,而不是关于我们在技术上能够发展出怎样的人工智能体的事实性问题。或者说,由于人工智能体并不是某种先于人类或者独立于人类而存在的自然实体(natural entities),而是一类人造物(artifacts),因此我们需要提供一些发展它们的规范性标准,而非一个对它们未来之可能性的客观观察。而这些标准的提出和我们应在机器中植入怎样的道德规范是两个界限清晰的问题,前者相关于我们设计任何一种工具时所包含的道德责任,即使是一个“傻傻的吐司机”,我们也需要考虑它伤害到人类的潜在风险,只不过它的自主行动能力远远低于人工智能体而已;相反,在机器中植入道德规范却是一种试图实现真正道德主体的打算,在此过程中我们的目标是让机器成为人类社会中的一员,而非一个工具。

在此区分下,人工道德智能体的发展路向得以明确:我们应期待某种具有较高自主行动能力的道德实体,而非某种道德主体。莫尔的分类法却模糊了这一区分,由于他将“完全的伦理智能体”看作“明确的伦理智能体”的更高实现,因此将我们引向了对一种与人类相等同的道德智能体的追求。然而,在上文中我们已表明,在机器中所可能实现的道德判断方式并不同于真正人类的道德判断方式,因此我们并不应该期待“明确的伦理智能体”在未来能够发展成为一种“完全的伦理智能体”,后者的实现更加依赖于对“机器意识”这些困难问题的解决,而非在机器中植入道德。事实上,这两种道德智能体之间的差别正如飞机和一个“仿鸟”(bird-like)飞行器之间的差别。当我们试图设计一架飞机时,我们并不必须完全地模拟鸟类的各方面能力,包括它们的飞行动作、对方向的感知,甚至它们的意识方式等,而仅需要部分地实现飞行的目标。相反,当我们需要设计一个能够完全地模拟鸟类飞行方式的飞行器时,仅满足空气动力学的要求则是明显不够的,我们需要在先地实现对于鸟类意识的模拟,而这被看作是与空气动力学的研究完全不相关的。

六、结论

通过对发展人工道德智能体的支持和反对意见的讨论,我们指出,尽管在机器中实现道德的尝试面对着诸多质疑,我们却始终持有这样一个强烈的直觉:机器应该像人一样有道德地行动。这一直觉反映在莫尔有关道德智能体的重要分类当中,当他将“完全的伦理智能体”看作“明确的伦理智能体”的一种更高的实现时,就暗示了我们在设计人工道德智能体时应朝向某种“类人”的智能体,因为只有后者才是对于我们人类道德能力的充分实现。然而当代有关道德判断的一些经验性研究却表明,人类在处理道德问题时依赖于一种“双加工”模式,其中道德直觉和道德推理都是道德判断所需要的,因此机器中根据规则而实现的道德判断能力并不同于人类,从而一种“明确的道德智能体”也不能够由于设计上复杂度的增加而达到“完全的伦理智能体”,后者更大程度上依赖于“机器意识”问题的解决。据此,莫尔的分类法事实上给我们带来了一些对于人工道德智能体的误解,他将我们引向对于“类人”智能体的期待,却忽视了这两类智能体在设计上的本质差别。

猜你喜欢

直觉机器伦理
《心之死》的趣味与伦理焦虑
机器狗
机器狗
“好一个装不下”直觉引起的创新解法
林文月 “人生是一场直觉”
一个“数学直觉”结论的思考
护生眼中的伦理修养
未来机器城
数学直觉诌议
医改莫忘构建伦理新机制