APP下载

人工道德能动性:从连续性进路到非连续性进路

2021-09-23王淑庆

关键词:行动者能动性连续性

王淑庆

(湖南师范大学 公共管理学院,湖南 长沙 410081)

在未来社会,人与智能机器的交互会变得越来越频繁。于是不少哲学家设想让智能机器能够像人类行动者一样讲道德。让智能机器明辨是非、成为人工道德行动者的前提之一是让其具有人工道德能动性(artificial moral agency)——这也是机器伦理(machine ethics)的核心目标。尽管以斯塔尔(B.C. Stahl)为代表的哲学家们反对人工道德行动者的构想(1)B. C. Stahl,“Information,Ethics,and Computers:the Problem of Autonomous Moral Agents”,Minds and Machines,Vol.14,No.1,2004.,但以瓦拉赫(W. Wallach)和艾伦(C. Allen)为代表(2)参见温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红主译,北京:北京大学出版社,2017年。支持这种构想的哲学家阵营更为强大。在人工道德行动者(artificial moral agent)的构造思路上,最容易想到的途径是模仿人类道德行动者的特性及其能动性的实现方式,这种思路就是所谓的连续性进路(continuity approach)。弗洛里迪(L. Floridi)(3)L. Floridi,J. W. Sanders,“On the Morality of Artificial Agents”,Minds and Machines,Vol.14,No.3,2004.、瓦拉赫(4)W. Wallach,“Robot Minds and Human Ethics:the Need for a Comprehensive Model of Decision Making”,Ethics and Information Technology,Vol.12,No.3,2010等哲学家就是基于此种进路探讨人工道德能动性的构建问题。近年来,有些哲学家,如比弗斯(A. F. Beavers)(5)A. F. Beavers,“Moral Machines and the Threat of Ethical Nihilism”,in P. Lin,et al.,eds.,Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge:The MIT Press,2012.、福舍(F. Fossa)(6)F. Fossa,“Artificial Moral Agents:Moral Mentors or Sensible Tools?”,Ethics and Information Technology,Vol.20,No.2,2018.,却明确反对这种研究思路:他们主张人工道德能动性在根本上不同于人类道德能动性,所以连续性进路是不可取的;他们更倾向于非连续性进路(discontinuity approach)——宣称人类道德能动性与人工道德能动性有着本质区别,并认为这是一种更有前景的进路。

在连续性进路的支持者们看来,人工道德能动性与人类道德能动性是同质的,因而完全模拟人类道德能动性的实现机制就可以制造出人工道德行动者。而非连续性进路则持异质的观点,主张人工道德能动性在本质上不同于人类道德能动性,因而完全模仿人类道德能动性的做法是无法实现的。那么,人工道德能动性与人类道德能动性到底是同质的还是异质的?哪一种进路更有前途?本文拟在分析以上两种进路内涵的基础上,反思道德能动性概念及其实现机制,并从人工道德能动性的实现机制(implementation mechanism)和功能主义(functionalism)的角度为非连续性进路进行辩护。

一、人工道德能动性及其特征

在最一般的意义上,能动性是指一个存在物或系统有能力实施行动的特性(7)M. E. Schlosser,“Agency,Ownership and the Standard Theory”,in J. H. Aguilar,A. Buckareff and K. Frankish,eds.,New Waves in Philosophy of Action,Hampshire:Palgrave Macmillan,2011,p.18.。也就是说,如果一个存在物或系统能够实施行动,那么它就可以被视作行动者。根据这种理解,也可以把能动性看作是使得一个存在物或系统成为行动者的那些特征的集合,即能动性与行动者是一种互相对应的关系。然而,有能力实施行动的特性具体有哪些呢?行动哲学家们对此问题有着不同的回答。比如,按照弗洛里迪和桑德斯(J.W. Sanders)的观点,一个存在物要成为行动者,只需要同时满足三大特征:自主性、交互性和适应性(8)L. Floridi,J. W. Sanders,“On the Morality of Artificial Agents”.。在此意义上,人类、其他高级动物甚至智能机器都可以成为行动者。不过,按照行动哲学的标准理论(即行动因果论),能动性主要体现为行动者的心理状态对其行动负因果责任或起到控制作用(9)K. E. Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties Must an Artificial Agent Have to be a Moral Agent?”,Ethics and Information Technology,Vol.11,No.1,2009.。显然,这里的能动性主要针对的是人类行动者。

人类能动性最为核心的特征有两个:一是意向性,二是自控力或意志力。首先,意向性是人类能动性最根本的特征。意向性是指心理状态(信念、欲望、意图、尝试等)指向外在对象的能力。人类行动者在实施行动的过程中,心理状态之所以能起到调控作用,主要在于其能够指向这些外在对象并把握这些对象的运动规律,因而人类能动性本身就蕴涵着意向性。正因为意向性内在于能动性之中,甚至可以说意向性是人类能动性的标记。心理状态的意向性有着多重后果,其中之一是它表明人类行动的自由性。比如,人类行动者在行动之前以及行动过程中,心理状态可以指向不同的目标和拥有达到目标的相关信念,进而根据自己的欲望来选择不同的行动或随时中止行动,这一现象本身就需要能动性过程中的意志自由发挥作用。

其次,行动实施过程中的自控力最能表现出人类能动性的主动意识。所谓自控力,就是控制自己的行动的力量,这种力量引导着行动者完成相关行动以达到自己设定的目标。正如弗兰克福(H. G. Frankfurt)所指出的,人类的能动性观念是指人们在实施行动时所感受到的一种操作机制,通过这种操作机制,行动者的身体移动被引导,并且这个过程是被保证的(10)H. G. Frankfurt,“The Problem of Action”,American Philosophical Quarterly,Vol.15,No.2,1978.。这个被保证的过程,就是行动者在行动中所控制的过程。此种控制其实就是实施行动过程中的“自我控制”:如果行动者没有对其身体动作进行控制,那么能动性就没有展现;而控制的强弱,也表明能动性的强弱——那些需要全神贯注和复杂思考的行动,就越需要行动者发挥其能动性。

当然,并非所有行动者都是道德行动者,也并非所有人类行动者都是道德行动者,只有拥有道德能动性的存在物才是道德行动者。比如,较高级的动物(如狗)和人类婴儿是行动者,但都不能作为道德行动者。道德能动性作为一种特别的能动性,它在自我控制上有其独特之处,特别是涉及到和他人(或他者)利益相关的事情,比如利已与利他。行动者要成为道德行动者,需要其行动有一定的道德效力。所谓道德效力,就是指行动者的行动能够导致道德方面的效果。因此,只要一个行动者能够产生道德上能被评价为善或恶的效果,那么它就是道德行动者。笔者认为,道德能动性的核心是利他性相关的自我控制,这种控制至少可以表现为两种形式:一是道德行动者会根据自己的道德判断,主动地去实施与道德相关的行动(如主动为善或为恶);二是主动地控制或调节自己的行动,以使得自己的行动不与某种伦理规范相冲突。而这两个方面恰好对应能动性的两个方面:所为与不为。道德上的“不为”甚至更能体现出一个道德行动者的道德能动性程度,因为它需要更多的“自我控制”。譬如,某个炎热夏天的中午,一个中学生在野外无意看到别人家地里种有很多西瓜,他意图去偷摘一个来解渴,但此时“偷窃是不道德的”念头突然在他脑海中闪过,于是他抑制自己要偷瓜的冲动——这就需要能够展现出较强的道德能动性。

道德能动性的意向性方面主要体现在道德判断上。道德判断是指在道德语境下,作为道德行动者认知到他自己所具有的责任、对善与恶的直觉以及理性认定。显然,道德判断是道德决策的前提,甚至进行复杂的道德推理时,也需要对某些基本的事实进行道德判断。从意向性的角度看,道德欲望和道德信念都会影响人类行动者进行道德判断。首先,按照休谟的情感主义伦理学,道德原则源于人的情感,而不主要是理性在起作用,因为理性“单独却不足以产生任何道德的谴责或赞许”(11)参见休谟:《道德原则研究》,曾晓平译,北京:商务印书馆,2019年,第138页。。休谟当然只是强调情感或欲望在道德判断中的地位,但实质上强调了情感和欲望作为意向性状态在道德判断中的作用。其次,在道德语境中,人类行动者除了依据自己的情感和欲望来判断外,道德信念对道德判断的作用更为直接。比如,在面对某种道德两难困境时,只相信功利主义的行动者或只相信义务论的行动者,他们所做出的道德决策肯定就会完全不同,这就源于他们的道德信念的根本分歧,这种分歧就是道德信念的意向性不同所引起的。

如果认为道德能动性不是人类行动者的专属,那么机器也可能拥有能动性和道德能动性——此即人工能动性和人工道德能动性概念。构建人工能动性和人工道德能动性的目标是试图让机器成为行动者和道德行动者。甚至有些学者认为,人工智能的目标就是让机器拥有人工能动性。比如,在蒂格兰恩(V.Dignum)看来,人工智能有三个目标:让机器拥有目标自主性能力,让机器通过学习应对场景的变化,以及让机器能够与环境和其他行动者进行交互(12)V. Dignum,Responsible Artificial Intelligence:How to Develop and Use AI in a Responsible Way,Cham:Springer Nature Switzerland AG,2019,p.17.。如果人工能动性是可能的,那么人们就有可能去设想人工道德能动性。所谓人工道德能动性,就是让机器像人一样具备道德判断、道德推理并进而进行道德决策的能力。设想智能机器可以模仿人类在道德上的自我控制,这在逻辑上是完全可能的:机器基于一定的道德目标,主动地采取符合伦理规范的行动,或者抑制采取不符合伦理规范的行动,以避免或放任某些不道德的行动。

至于智能机器能否拥有道德能动性而成为道德行动者,人工智能伦理学界目前对此问题有着很大的分歧。以艾伦、弗洛里迪、安德森夫妇(M. Anderson & S. L. Anderson)为代表的支持者们认为,道德能动性不只是人类行动者的专属,智能机器完全有可能拥有功能意义上的道德能动性,甚至智能机器成为完全的道德行动者也是有可能的。而反对者们,如约翰逊(D. G. Johnson)、知璨·赫(P. C. Hew)和斯塔尔等,则从人类道德能动性的必要条件出发,认为机器无法拥有自由性、无法承担责任性以及不能理解信息的意义,从而否认人工道德能动性在理论上是可能的(13)参见王淑庆:《人工道德能动性的三种反驳进路及其价值》,《哲学研究》2021年第4期。。事实上,人工道德能动性的哲学论争的分歧在于双方无法就人工道德能动性的内涵以及标准达到共识,从而这场争论也就会继续下去。本文无意于为人工道德能动性进行辩护或反驳,认为人工道德能动性是指让机器的决策与行动模式拥有与人类道德能动性相似的特征或功能,比如在道德敏感性的语境中根据道德规范进行道德判断、推理和决策——至少这种可能性是无法否认的。换句话说,本文假定机器伦理在一种较弱的意义上是可能的。至于机器能否拥有完整人类的道德能动性,则不是本文要关注的问题。

假设机器伦理在较弱的意义上是可能的,那么在构造人工道德行动者时,就必须要考虑到底是模仿人类道德能动性的能动机制,还是不模仿人类道德能动性而仅仅实现这种功能,这引发了人工道德能动性上的连续性进路与非连续性进路之争。

二、连续性进路与非连续性进路的核心观点及哲学后果

作为构建人工道德能动性的两种基本思路,连续性进路与非连续性进路有着不同的内涵和特征,它们依赖的理论基础各不相同,其哲学后果与意义也不甚相同。下面分别概括这两种进路的核心观点,再对它们的哲学后果进行分析。

(一)连续性进路及其价值

人类作为典型的道德行动者,主要在于人类个体能够根据一定的道德理想、道德榜样或美德实施相关行动,同时还能在各种复杂的情形下进行道德判断和道德决策。智能机器也可以像人类一样,能够根据情境进行相关的道德判断,并由此采取道德或不道德的行动,这就是连续性进路的基本设想。这一设想的基本前提就是,假定智能机器的行动在道德效果方面与人类行动者的行动没有实质性的差别,从而让人们相信它们在道德能动性上也不会与人有实质性的差别,否则人们可能依然把它们看作机器而不是行动者。此外,智能机器都是基于算法的,机器成为道德行动者,一定是存在着道德算法在背后起作用。换句话说,如果认为道德无法被算法化,又承认人工道德能动性是可能的,就有些自相矛盾。

根据以上直观分析,可以总结出连续性进路的两个核心观点:第一,人工道德能动性与人类道德能动性没有本质差别,此即所谓的同质性;第二,道德或伦理理论总体上是可以计算的(14)J. H. Moor,“Is Ethics Computable?”,Metaphilosophy,Vol.26,No.1-2,1995.。一方面,如果智能机器要成为道德行动者,它们和人类道德行动者在能动性上应该基本相同,不能有质的差别,否则机器模仿人类就是一个很困难的问题。另一方面,智能机器的本质在于可计算性,智能机器只能以算法的方式来模仿人类道德能动性,因而如果人类的道德决策或道德行动完全不可计算,机器就没法真正地模仿人类。

为了更好地理解连续性进路,需要注意三点:第一,认为人工道德能动性与人类道德能动性是同质的,并不意味着两者在程度上没有什么差别。相反,连续性进路否认机器的道德能动性与人类的道德能动性存在着较大差别,只是认为这种差别仅仅是量上的,而不是质的差别。第二,人类道德现象非常复杂,算法很难把人类能动性的所有方面都模拟出来。然而,即使机器不能对道德的所有方面进行计算,但只要对那些核心方面进行计算并达到与人的道德现象类似的结果,就可以说道德在总体上是可计算的。第三,在所有存在物中,人类是唯一能够展现出成熟的道德能动性的存在物,因此连续性进路的支持者们认为,机器伦理要制造出道德机器,最好是假定连续性进路,但这并没有否定还有其他思路。

连续性进路的哲学价值之一在于,它为人工道德能动性的构建提供了一个总思路。人们试图制造道德机器,本质上就是把人类所拥有的道德能动性移植到机器中去。既然构造人工道德行动者的关键在于将人类道德能动性“移植”到机器中去,那么这种“移植”在具体构造上就得依赖于人类道德能动性。当然,至于这种构想能否成功,目前还是一个悬而未决的问题。但正是这种不确定性,连续性进路才值得人们去探索,特别是以人类道德能动性为标杆,从低级到高级构造人工道德行动者。比如,瓦拉赫和艾伦把人工道德能动性分为三个层级:操作性的道德、功能性道德以及完全的道德能动性(15)温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,第20页。。这种分层背后就假定了连续性进路,因为只有认为人工物与人类在道德上能够实现本质无差别,智能机器才能从初级慢慢地“进化”到与人非常类似的完全道德行动者。

连续性进路的另一个哲学价值是它为智能机器未来成为人类“潜在的伦理指导者”(potential moral mentors)提供了可能性。如果人工道德能动性和人类道德能动性是同质的,而智能机器在很多方面要优于人类,比如“记忆力”、运算速度、“情感稳定性”、一致性、学习能力等,这就意味着当人工智能达到一定程度(如超级人工智能或接近超级人工智能)时,机器的道德能动性完全可以超越人类,这样机器在未来甚至能够像人类的道德圣人一样,即智能机器将来甚至能够成为人类的道德指导者。而要使这种设想成为可能,有必要假定:人工道德能动性与人类道德能动性是同质的,且智能机器的道德可以不断进化。

(二)非连续性进路及其后果

与连续性进路的看法相反,非连续性进路认为,不管机器多么高级,它们本质上只是一种工具。根据海德格尔等人的观点,作为工具的机器,其本质在于有用性,工具不可能拥有任何主体地位,更不用说道德主体(16)道德主体包括道德行动者和道德受动者,如果认为人们应当对机器进行道德关怀,就是承认机器具有道德受动者地位。地位——这种观点就是所谓的工具主义。工具主义在当代技术哲学中得到不少学者的拥护,并形成了新工具主义学派。比如,新工具主义的代表人物布赖森(J. J. Bryson) 认为,机器的有用性只能作为市场的需求,它在本质上只是人的“奴隶”,毕竟机器只是由人所设计的“基于一定目的工具”(17)J. J. Bryson,“Robots Should be Slaves”,In Y. Wilks,ed.,Close Engagements with Artificial Companions:Key Social,Psychological,Ethical and Design Issues,Amsterdam:John Benjamins,2010,pp.63-74.。在工具主义和新工具主义的视域中,即使可以从功能主义的角度制造出具有一定程度的道德能动性机器,它们也不可能和人类一样具有道德地位:不管是道德行动者地位,还是道德承受者地位。因此,在工具主义者和新工具主义者看来,连续性进路在根本上就是不成立的,因为它所假定的“机器与人类道德能动性是同质的”这一点在工具主义的意义上是不可能的。

非连续性进路与连续性进路在思路上完全相反,它的核心观点也有两个:第一,人工道德能动性与人类道德能动性存在本质差别。虽然人工道德能动性与人类道德能动性有相似之处,但非连续性进路认为,即使智能机器是没有心灵的,也可以享有道德能动性。人工道德能动性不要求具有传统的道德能动性的一些特征(如心灵、承担责任等),所以非连续性进路可以忽视基于传统的道德能动性对人工道德能动性的反驳。第二,智能机器无法拥有真正的道德地位(包括道德行动者和道德承受者两方面)。对连续性进路的支持者们来说,可以承认机器可能具有道德行动者或道德承受者地位。而非连续性进路的支持者们则更多地认为这只是一种隐喻说法,机器不管多么高级,也无法改变其作为工具的特性。比如,机器可以拥有一定的道德决策能力,但这种能力在根本上只是一种道德敏感性工具。

非连续性进路有时会反对机器有成为真正的道德行动者的可能性,但它不反对人工道德能动性的构建,因为机器不一定要成为真正的道德行动者。正如人工道德能动性的反对者约翰逊所认为的,智能机器的行动可以具有道德特性,这种特性需要在设计者、人工物以及使用者的网络中才能得到完整的理解(18)D. G. Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,Vol.8,No.4,2006.。由此可见,人们可以反对人工道德能动性的构想,但在非连续性进路的意义上,这些反对者甚至能够承认人工道德能动性是有可能的。因此,对于非连续性进路来说,如果执著地完全模仿人类道德能动性来制造道德机器,不仅会浪费更多资源,还会把人工道德能动性的构想带入歧途。

从哲学后果上看,非连续性进路会走向把智能机器只看作“道德敏感性机器”的立场(19)F. Fossa,“Artificial Moral Agents:Moral Mentors or Sensible Tools?”。如前所述,人工道德能动性的连续性进路把机器看作与人类在地位上平等的道德行动者,甚至把智能机器看作人类道德行动的指导者。非连续性进路则把智能机器仅仅当作工具从而不可能在道德地位上与人平等,更不认为智能机器能够作为人类的道德指导者。造成这种差异的原因,首先在于非连续性进路虽然不否定机器拥有道德能动性的可能性,但它不承认机器可以达到人类水平的道德能动性,因为从根本上说智能机器无法具有自主性的心灵道德情感,而只能从行为方面模拟人类的道德性(道德敏感性);其次,非连续性进路把智能机器当作“道德敏感性机器”,那么它的目的是在工具的意义上更好地服务于人类,人类无需认可智能机器的道德行动者地位,甚至连其道德承受者地位都可以不承认,比如为了人类自身的利益与情感偏好,人们可以不以道德的态度对待道德机器人。

由上可见,连续性进路与非连续性进路对人工道德能动性的看法存在着根本性的不同,它们对于构建人工道德能动性的指导意义也迥异。在连续性进路看来,至少在抽象概念的角度上,人工道德能动性与人类道德能动性可以是同质的:第一,在道德标准上,人工道德能动性与人类道德能动性都共享着自主性、交互性、适应性以及道德效力;第二,在道德自控上,人工道德能动性也需要从“为与不为”两个方面来做与不做和道德相关的行动,即道德机器看起来也需要道德自控力。这种同质性为智能机器在一定程度上模仿人类道德提供了可能性。然而,如果非连续性进路是对的,即人工道德能动性与人类道德能动性在根本上就是异质的,那么连续性进路就是一条不值得探究的路径。总体上,笔者更倾向于支持非连续性进路,因为如果细致地考察人类道德能动性的实现机制,走向道德功能性的非连续进路就具有一定的必然性,从而更值得追求。

三、非连续性进路的必然性

从人类道德能动性的实现机制上看,智能机器不可能在道德上对人类进行完全的模仿。鉴于此,在实现机制上,人工道德能动性就只能是一种功能主义的可能性——尽管它不会完全脱离人类道德行动者的一些特征。

(一)模仿人类道德实现机制的不可能性

如果支持人工道德能动性的连续性进路,让机器成为行动者甚至道德行动者,一种可以尝试的思路是模仿人类的能动性机制和道德能动性机制。这里所谓的“机制”,是指一种功能的发生机制。对机制的模拟一般采取的是模型方法,即把某个对象最重要的元素抽象成一个模型,在这个模型中探讨各个元素的相互作用。瓦拉赫甚至认为,在构造道德机器时,“人类是唯一可用的模型”(20)W. Wallach,“Robot Minds and Human Ethics:the Need for a Comprehensive Model of Decision Making”.。这在某种意义上意味着在构建人工道德能动性时,唯一的方案就是模仿人类道德能动性。从直观上看,模仿人类道德的某些机制是可以的。比如,模仿人类行动者的道德推理与决策模式——让机器像人一样根据某些道德理论在特定情景下进行道德推理,从而决定采取或不采取某项行动。然而,人类的道德推理非常复杂,现有的各种道义逻辑(deontic logic)也只是从演绎逻辑的角度刻画了人类道德推理的一些方面,远无法把日常中的道德推理的复杂性刻画出来。另外,人类道德能动性的主要特征是自我控制和意向性(体现为道德判断),但从人类能动性的自控力或意志力角度,以及从道德判断的实现机制来看,机器要进行模仿可以说几乎是不可能的。

首先,人类的自控力是机器难以模仿的。在人类的能动性施展中,自控力或意志力起着决定性的作用。一方面,人类的自控力有其生理基础。比如,人的控制力主要来自大脑中的前额叶皮质(21)凯利·麦格尼格尔:《自控力》,王岑卉译,北京:印刷工业出版社,2012年,第14页。,它是脑部的控制中心,人的自控力和较为复杂的决策就在这里进行。如果一个人的前额叶皮质受损,意志力就会变得很薄弱。此外,大脑中的多巴胺作为神经递质,也调控中枢神经系统的多种生理功能(如对情感的体验),人的自控力在很多情形中也离不开多巴胺的作用。另一方面,人类的自控力受到诱惑的可能性非常大,还受情感和身体状况的影响。譬如,当人体受到不良情感的影响或身体状态不好时,人的意志力就容易变得薄弱,无法很好地进行自我控制。不管是自控力的生理基础,还是其受到影响的因素,都说明人类的自控力的生理依赖性与不稳定性,而机器是基于算法的,要模仿这种生理基础,显然是非常困难的。

从机器难以模仿人类的自控力来反对人工道德能动性的连续性进路,可能面临两个反驳:第一,人类道德能动性有其生理基础不应该成为反驳连续性进路的理由,因为机器在本质上是要模拟功能;第二,机器不会受情感的影响,不会受到各种诱惑,恰恰是人工道德能动性的优点。对此,可以给出回应:第一,如果承认自控力在人类能动性中的核心地位,那么连续性进路就无法不模拟自控力的生理基础,因为目前的技术还不足以说明人类的自控力还有不基于生理基础来实现的方式。第二,机器不受情感的影响,这确实是一个优势;然而,情感在道德能动性中占据十分重要的地位,虽然人们近期无法让机器有真正的情感,但构建一定程度的人工情感既能让人机交互变得更有温度,也有助于人们以更道德的方式对待智能机器。

上述观点面临一种可能的反驳:人类的道德判断在现实中虽然是以情感和直觉为主,但从应然的角度看,理性判断是最应该模仿而且能够模仿的。如果这是成立的,那么放弃模拟人类道德能动性的情感和直觉方面,只模拟道德方面的理性推理,就是完全可能的。这个观点本身没有问题,但这不能得出连续性进路就没有问题,因为只模仿人类道德能动性的理性推理,其应用范围会比较狭窄,而且理性推理只是道德能动性的一个方面而已。事实上,如前所述,连续性进路也有其优点,只是这种进路难以达到人工道德能动性的目标。

由上可见,如果想让智能机器完全模仿人类道德能动性的实现机制,就会面临非常棘手的困难。这就意味着,在构建人工道德能动性的思路上,主张人工道德能动性与人类道德能动性同质的连续性进路在总体上是不可取的。而相比于连续性进路,奠基于功能主义的非连续性进路有其更大的优势。

(二)非连续性进路的功能主义辩护

与连续性进路相比,非连续性进路认为人工道德能动性与人类道德能动性是异质的,即它们有着根本性的区别。体现在实践方法上,非连续性进路就不会试图模仿人类能动性和道德能动性的实现机制,而只在乎从功能上实现这些特征。此外,非连续性进路否认人工道德行动者具有道德行动者地位,而仅仅从功能主义的角度把智能机器看作一种高级工具。从道德的功能主义角度,可以较好地为非连续性进路辩护。

所谓功能主义,就是指从功能的角度理解心理状态的本质的观点。在功能主义看来,一种特殊的心理状态(如开心、痛苦、意图)不是依赖于产生这种状态的内部构造,而是依赖于实现这种功能(如痛苦的功能)的方式。与一般的“结构决定着功能”的看法相反,功能主义不管某种功能对应的结构如何,而只在乎用何种方式能实现某种功能。功能主义最早由哲学家普特兰(H. Putnam)提出,他用之反驳“心-脑同一性论题”。他认为,与其把“痛苦”等心理状态看作大脑的一种物质状态(心-脑同一),不如把它看作一种功能状态——它是整个人体系统的一种功能,而且这种功能可以有多重实现方式(24)H. Putnam,“The Nature of Mental States”,in D. J. Chalmers, ed.,Philosophy of Mind:Classical and Contemporary Readings,New York:Oxford University Press,2002,pp.73-79.。功能主义最大的特色是功能的多重可实现性(multiple realizability),即对同一种功能,不同的实体可以有不同的实现途径,而且功能的实现并不要求与某种典型功能(与人类的心理状态功能)的结构完全一样(25)J. Bickle,“Multiple Realizability”,in E. N. Zalta,ed.,The Stanford Encyclopedia of Philosophy,http://plato.stanford.edu/entries/multiple-realizability/,2021-02-20.。当然,多重可实现性目前还没得到学界的普遍认可,心灵哲学界关于多重可实现性观点还存在着较大争议(26)欧星洋:《多重可实现性和实现关系》,《自然辩证法研究》2021年第4期。。然而,认知科学却有越来越多的证据支持多重可实现性。例如,科学家们通过实验已经证实,“记忆巩固”作为一种生物化学现象,它在海兔、果蝇以及老鼠身上的实现,与在人类大脑中的实现非常类似(27)K. Aizawa,C. Gillett,“The Realization of Psychological and Other Properties in the Sciences”,Mind & Language,Vol.24,No.2,2009.。

功能主义对于构造道德能动性机器,具有重要的启示意义。人们希望智能机器能够像人一样实施或抑制行动,即欲使机器拥有能动性(实施和抑制都是能动性的展现)。既然能动性是指使得一个存在物成为行动者的那些特性集,它对应着行动者的一种最重要也是非常复杂的功能,即拥有能动性的存在物就是行动者。当然,一个智能机器要成为道德行动者,除了具有一般的能动性(即人工能动性)之外,还需要具备一定的道德判断和道德推理的能力。前面已经论证,机器不可能完全模仿人类的能动性和道德能动性的实现机制,即不可能把人的能动性所依赖的内在构造完全模拟出来。因此,只有诉诸功能主义意义上的能动性和道德能动性,才是一条更具现实性的思路。

功能的多重可实现性是功能主义的一个优点,它能够为人工道德能动性奠定最重要的理论基础。可以把人工道德能动性看作智能机器可能拥有的一种“复杂功能”,人们在试图构造人工道德行动者时,不参照人类道德能动性,显然是不太可能的,但这不代表只能完全模仿人类道德行动者。虽然,道德能动性本身不是一种心理状态,但按照行动因果论的观点,能动性的实现主要是各种心理状态综合作用的结果,道德能动性自然也不例外,它是道德欲望、道德信念、道德情感等因素的综合结果。所以功能主义也可以应用到道德能动性上去。既然道德能动性在理论上具有多重可实现性,那么若机器实现这种特性,当然可以抛弃人类行动者这种典型的道德行动者的能动性结构。于是,站在功能主义的多重可实现性立场,人工道德能动性的非连续性进路就是完全可能的。同时,由于从控制力和道德判断的方式上模仿人类道德能动性极其困难,在构建人工道德能动性上,也只能希求从功能上实现道德能动性,从而选择非连续性进路其实也是一种“无奈之举”。

如果功能的实现不一定要求某个系统或实体具有相应的唯一结构,那么智能机器作为一种实体就可以在能动性和道德能动性的结构上与人类完全不同。比如,人类的道德判断更多地受情感和道德直觉的影响,而在机器还无法拥有一定的情感和道德直觉的情况下,它则可以更多地以“理性计算”(包括初级的人工情感计算)实现相同的道德决策。这种观点可能面临一种质疑:既然“理性计算”是人类能动性和道德能动性的核心特征之一,当功能主义以“理性计算”来实现道德决策时,难道不是在支持人工道德能动性连续性进路吗?然而,这种质疑是没有注意到连续性进路与非连续性进路的根本区别:人工道德能动性与人类道德能动性到底是同质的还是异质的。非连续性进路并不意味着完全不模仿人类道德能动性,其实它对“道德决策”功能的模仿当然也是一种模仿,只不过它不是在连续性进路的意义上进行模仿。

此外,基于功能主义的非连续性进路其实不一定要站在工具主义的立场。非连续性进路的支持者多数会倾向于技术的工具主义立场,把智能机器看作是人类的工具,而所谓的“道德地位”仅仅是一种隐喻说法。当然,隐喻说法没有问题,但把智能机器看作某种道德行动者的隐喻说法,不一定需要把智能机器看作人类的纯粹工具;相反,它通过赋予智能机器一定的道德主体地位,而把道德机器当作人类的朋友。

由上可见,在人工道德能动性的构建思路上,虽然笔者认为人工道德能动性与人类道德能动性在抽象的意义上是同质的,但只要考虑其实现机制,它们就一定是异质的。如果抛弃连续性进路,那么非连续性进路就是更值得考虑的进路。特别地,如果从人类道德能动性的实现机制的无法“复制”和功能主义的多重可实现观点来看,非连续性进路是一条很合理的选择。

四、结论与反思

根据以上分析和论证,可以得到两个主要结论:第一,构建人工道德能动性的连续性进路与非连续性进路之争的分歧主要在于人工道德能动性与人类道德能动性这两个概念是否是同质的以及道德在总体上是否可以计算;第二,构建人工道德能动性的连续性进路虽然有一定的指引意义,但在具体实现的机制上,基于功能主义的非连续性进路更为合理。

非连续性进路的最大优势在于其可辩护性。因为基于人工道德能动性与人类道德能动性的异质性,不管智能机器在实际上能够达到何种道德水平,我们都可以承认人工道德能动性的可能性。相反,如果假定两者是同质的,则模仿不仅成为唯一思路,还得面对“模仿不成功时”时的反驳:人工道德能动性有其复杂的生理基础,模仿是不可能的。当然,欲继续推进人工道德能动性研究,以下两点值得进一步反思。

第二,扩展的能动性(extended agency)的哲学基础是什么。拉图尔(B. Latour)和维贝克(P. P. Verbeek)等人主张非人类行动者甚至技术存在物(如手枪)都是有能动性的。比如,在维贝克看来,人的能动性的施展很多时候离不开技术人工物的“参与”,而且技术人工物对人类的道德决定具有调节作用(30)彼得·保罗·维贝克:《将技术道德化:理解与设计物的道德》,闫宏秀、杨庆峰译,上海:上海交通大学出版社,2016年,第26页。(一些技术性设备能够影响人的行动道德与否),因而技术人工物具有一定程度的道德能动性。这里的能动性,不能理解为使得一个存在物成为行动者的特征集,它只是能够影响一个存在物成为行动者或道德行动者。于是,这里的能动性就是扩展的能动性(包括扩展的道德能动性)(31)戴益斌:《试论人工智能的伦理责任》,《上海大学学报》(社会科学版)2020年第1期。。那么,既然扩展的能动性不是标准的能动性概念,我们有必要承认其是一个合法的哲学概念吗?特别是,它与行动哲学中的主流理论,即行动因果论,是相容的吗?这些问题对于反思人工道德能动性的哲学基础,具有重要意义,值得进一步研究。

猜你喜欢

行动者能动性连续性
与异质性行动者共生演进:基于行动者网络理论的政策执行研究新路径
非连续性文本之图文转化题阅读摭谈
基于新课程改革的英语教师负向能动性及其应对策略
ANT 视域下共享单车的网络建构研究
非英语专业大学生英语能动性投入研究
——以川北医学院为例
苗族体育非物质文化遗产传承的行动者网络——贵州反排木鼓舞个案的体育民族志研究*
浅谈连续函数的四则运算的连续性
小学中段非连续性文本阅读教学初探
行动者网络理论对社会网研究的启示
连续性