基于互动构建视角的人工智能体道德实践探究
2022-03-14程海东
程海东,陈 凡
东北大学 马克思主义学院哲学系,沈阳 110169
随着人工智能体智能能力的凸显,其道德能力也成为一个亟待明确的问题,而对这一问题的探讨涉及到对道德关系和人工智能的基本定位:即道德关系是否可以拓展到人之外的其他存在,以及人工智能体是否是真正的智能体。从逻辑上看,这种基本定位会形成四种研究倾向:(1)道德关系是人与人之间的关系,人工智能体只是道德客体;(2)道德关系是人与人之间的关系,人工智能体具有一定的道德功能;(3)道德关系可以拓展到人之外的其他存在,但人工智能体不具有独立的道德地位;(4)道德关系可以拓展到人之外的其他存在,人工智能体也能够逐步获得独立的道德地位。在讨论人工智能体道德能力和功能的过程中,这四种研究倾向中的(1)不认为人工智能体具有道德功能,(2)(3)(4)则认为人工智能体能够实现一定的道德化行为,具有一定的道德功能。本文在追问后三种研究倾向的基础上,认为超越其中的决定论思维局限,将人工智能体的道德实践置于实践语境中,以互动构建思维理解人工智能体的道德实践将更具有深刻性、针对性和实效性。
一、人工智能体道德实践决定论思维追问
(一)道德实践的“内在心灵”说
道德实践只属于有理性的人,这是人类社会对道德实践关系采取的最为基本和主要的立场。持该立场的人认为道德实践源于人的内在意识,只有具备意识的人才能够自由决定自己的行为并承担相应的后果,因此内在意识是道德主体从事道德实践的必要条件。人工智能体因不具备这一必要条件而不能满足道德实践要求,也就不能成为道德实践的主体。例如,美国哲学家希玛(K.E.Himma)提出了道德主体的两个必要条件:“一是自由选择的能力,即行为者必须有能力自由选择自己的行为,行为的发生是出于自身的意愿而非外力胁迫;二是明辨是非的能力,即智能体能够知道哪些事情是应该做的,哪些事情是不应该做的,能够根据自己习得的道德准则应用到具体的判断中。”(1)② K.E.Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties must an Artificial Agent have to be a Moral Agent?”,Ethics and Information Technology,2009,11(1),pp.22-24,24.具体来说,自由选择是指行为的发生要源于行为者自身的理性思考且“出于自身的意愿”,也即是说只有经过理性考量的行为才是有意愿的行为,因为行为者在行动之前就明确地知道行为的是非对错;而不满足这一条件的任何行为,只要不是出于行为者自身的意愿,无论是源于某种外在的强制性力量,还是源于对环境或后果的无知,都不是行为者自由选择的行为,也就不能对其作出道德评价和归责。可见,这两个必要条件暗含了一个前提,即“智能体必须具备‘意识’”(2)① K.E.Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties must an Artificial Agent have to be a Moral Agent?”,Ethics and Information Technology,2009,11(1),pp.22-24,24.。因为只有具备了“意识”这种内在的心理状态,才能保证行为的实施是出于主观意愿的自由选择和行为者自身的信念,也才能对行为作出道德评价,并保证行为者对道德归责有相应的反馈态度,由此确认其是否具备道德情感,能否承担道德责任。
美国弗吉尼亚大学的荣誉教授约翰逊(Deborah G.Johnson)的基本观点与希玛的相类似,她同样认为道德主体需具备一定的必要条件(3)④ D.G.Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,2006,8(4),pp.198,203.。由于人工智能体无法具备表现为信念、欲望和意向性的心理状态,即便其外在行为看似具有了一定的“意向性”,但实际上这样的“意向性”是由设计者、使用者和人工智能体组成的“派生的意向性”,“即使我们可以将计算机的状态解释为心理状态,计算机系统也没有因自由而采取行为的意向”(4)③ D.G.Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,2006,8(4),pp.198,203.。约翰逊认为可以将人工智能体看作人类主体道德性的拓展或者延伸,而不能将其视为独立的道德主体,因为基于自由意志的“意欲行为”只能为人类所独有。
尽管人工智能体目前还达不到“内在心灵”这一道德主体标准,但人工智能体与其他技术人工物存在着明显的不同。对此,有学者主张根据智能体的能力对道德主体进行区分,在将具有完全智能能力和道德能力的人视为道德主体的同时,将具有部分智能能力和道德能力的人工智能体视为“拟”道德主体。例如,荷兰学者布瑞(Philip Brey)提出道德主体需具备的三个条件:“(1)具备根据对和错进行推理、判断和行动的能力,(2)期望自己的行为遵守相应的道德准则,(3)承担自己行为及其后果的道德责任。”(5)⑥ P.Brey,“From Moral Agents to Moral Factors:The Structural Ethics Approach”,The Moral Status of Technical Artifacts,2014,17,pp.135-136.在他看来,这些仅限于个人道德领域,在个人道德领域之外,还存在着一个由人和技术人工物共同建构的道德领域;尽管不能像法国哲学家拉图尔(Bruno Latour)那样,为所有参与网络建构的行动者赋予道德主体的身份,但这些行动者确实能够在人的道德建构中发挥重要的作用,尤其是在人与技术人工物构成的系统中,技术人工物作为辅助角色参与道德建构。布瑞对于什么样的技术人工物可以承担起这种辅助性角色也提出了三个标准:(1)能够学习人类的道德原则、道德品质和道德行为,(2)能够对人类的行为、判断和品质进行道德评价并将其归因为道德责任感,(3)能够准确地判断道德行为者的行为是否出于其自身的道德品质和道德判断(6)⑤ P.Brey,“From Moral Agents to Moral Factors:The Structural Ethics Approach”,The Moral Status of Technical Artifacts,2014,17,pp.135-136.。人工智能体由于能够接受一定的道德输入,其行为也能够作出一定的道德解释,可以被看作具备了某种类型的道德责任感。因此,尽管人工智能体不具有完全的道德能力,但是它具备了道德决策能力,甚至能够通过自己的行为实现某种道德反馈,可以被称为准道德主体。
(二)道德实践的“外在表现”说
与上述将心理活动、理性、自由意志等内在心灵视为意识和道德源头的立场不同,还有很多学者认为需要突破将道德关系局限于人与人之间的观念,主张根据智能体的外在表现来判断其行为是否属于道德实践。
在人工智能体的工程技术实践领域,研究者坚持用行为的外在表现来印证意识和道德,认为道德的实现方式是多样化的,人工智能体的行为只要承载着一定的道德功能,就可以被看作是道德实践行为,人工智能体也能够被看作是道德主体。对于人工智能体的道德身份问题,比利时技术哲学家科克尔伯格(Mark Coeckelbergh)试图用“表象伦理”来解释。首先,他否定了道德源于内在心灵的必然性。“只要我们把非人类的、人工智能体的道德主体性和责任问题定义为心灵(‘他心’)问题,那么人类如何能够以道德和负责任的方式行事也仍然是一个谜,而且我们将永远无法从概念上掌握人类和非人类之间在道德方面已经发生的事情。”(7)② M.Coeckelbergh,“Virtual Moral Agency,Virtual Moral Responsibility:On the Moral Significance of the Appearance,Perception,and Performance of Artificial Agents”,AI & Society,2009,24(2),pp.183,182-183.其次,他认为从内在心灵的角度描述道德的构成并不完整,强调只有意识和道德想象等内在状态才能够预见行为产生的潜在后果的做法显然排除了一切非人类行为者的道德地位,因为实践中的技术和人工物也能够产生显而易见的道德作用,如公路上的减速带(8)① M.Coeckelbergh,“Virtual Moral Agency,Virtual Moral Responsibility:On the Moral Significance of the Appearance,Perception,and Performance of Artificial Agents”,AI & Society,2009,24(2),pp.183,182-183.。最后,他认为即便是在哲学的讨论中,意识、意向性等心理状态也没有定论,如有人主张意识的自然化(9)T.Bontly,“Should Intentionality be Naturalized?”,Royal Institute of Philosophy Supplements,2001,(49),pp.43-60.,有人甚至根本否定心理状态的存在(10)P.M.Churchland,“Eliminative Materialism and Propositional Attitudes”,The Journal of Philosophy,1981,78(2),pp.67-90.。因此,科克尔伯格主张从观察入手,以人类道德智能体的表象为标准,并将该标准投射到人工智能体的行为中,根据它们在人—机、机—机交互中的表现来做出道德评价和责任认定。
在这种从外在表现的角度阐述意识与道德关系的基础上,有学者借鉴了演化心理学的研究成果,将人工智能体的发展过程与人类个体的道德成熟过程进行类比,认为既然人类的道德判断是后天习得的,是在与环境的互动中逐渐建构起来的,那么人工智能体也是如此,这就将道德主体的范围扩大到人之外的人工智能体。享负盛名的意大利技术伦理学家弗洛里迪(Luciano Floridi)认为,道德判断需要考虑语境,而且不同语境中的行为可以进行层次区分。关于这里所说的层次,弗洛里迪称之为抽象层次(levels of abstraction,简称LoA),并提出了三条标准:一是互动性。通过输入与输出,行为者能与其环境相互作用;二是自主性。行为者能够不受外部环境的影响来改变自己的状态,并具有与环境变化互动的能力;三是适应性。行为者能根据输出的变化改变行为的实现方式(11)⑦⑧ 〔意〕卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海:上海译文出版社,2018年,第206-207、199、198页。。在这三条标准中都不需要内在的状态作为行动的原因,行为者就能够在环境中实时调整自己的行动。对人工智能体而言,在初级抽象层次(LoA1)上并不具备道德属性,而在高级抽象层次(LoA2)上,其行为可以被评价为善的或恶的,并被称为道德主体,因为LoA2符合了这样的标准:“一种行为在道德上是可评议的,当且仅当它能够导致道德上的善,或者道德上的恶……一个智能体是一个道德智能体当且仅当它能够实施道德上可评议的行为”(12)L.Floridi and J.W.Sanders,“On the Morality of Artificial Agents”,Minds and Machines,2004,14(3),p.364.,弗洛里迪还将这种被履行的道德称为“无心灵的道德”(13)⑤⑧ 〔意〕卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海:上海译文出版社,2018年,第206-207、199、198页。,人工智能体在这个意义上“不但可以作为道德受动者——作为可以受到善的或恶的作用的实体——也作为道德能动者——作为可以实施善或恶的行为的实体”(14)⑤⑧ 〔意〕卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海:上海译文出版社,2018年,第206-207、199、198页。。
(三)“内在心灵”说和“外在表现”说的决定论症结
如上所述,基于“内在心灵”或“外在表现”来判断人工智能体的道德实践,蕴含着一种决定论式的思维方式,必然导致针锋相对的结论。“内在心灵”说坚持道德实践的意识基础,认为即便人工智能体的智能再强大,也不会获得专属于人的“意识”,不是出于完整意识的道德行为不能被称为真正的道德实践;“外在表现”说则希望将意识科学化,坚持道德行为的可观察性,认为既然人工智能能够在行为中表现出具有意识的某些方面,那么对这些行为也就可以做出道德化的解释,而且随着技术的成熟,人工智能在意识和道德实践上都能够实现完全的主体地位。
在人类认识世界和解释世界的发展历程中,意识长期以来被看作是“内在的、质的和主观的特征”(15)〔美〕约翰·塞尔:《心灵、语言与社会》,李步楼译,上海:上海译文出版社,2006年,第41页。,不可还原为物理现象,只为人类所独有,所以意识也是人区别于机器的重要特征。但是以人类意识为对象进行考察,悬搁意识的这种内在特性,通过观察对象的行为,也可以对对象的意识作出相应的判断。因此,二者的针锋相对源于判断道德实践的不同标准:从较为严格的标准看,道德实践超越于行为者的感觉和情绪,由经过理性判断的道德律令来支配,道德行为要服从于理性的预设;从较为宽泛的标准看,如果行为者的行为表现为遵守了某种外在的道德要求(如“杀人是错误的”),或表现为对审慎理由的反馈(如对惩罚的畏惧),这样的行为也可以被认为是道德实践。可见,二者之间的差异源于人类认识世界和解释世界的不同立场,是可以融合的。例如,美国哲学家丹尼特(Daniel Dennett)认为人类解释世界的角度主要有三种:物理角度、设计角度和意向角度(16)D.Dennett,The Intentional Stance,Cambridge:MIT Press,1987,pp.340-342.。物理角度从因果自然律出发,依据事物所具备的物理构成来对其做出解释和预言,主要应用于自然科学领域;设计角度依据设计时所确定的功能和机制出发,在无需知晓事物的物理构成的情况下,对输出的现象作出判断和解释;意向角度是将对象“看作”是“意向系统”(intentional system),“心灵……是人们为解释的需要而加给人、归属于人的”(17)高新民、沈学君:《现代西方心灵哲学》,武汉:华中师范大学出版社,2010年,第98页。。针对“内在心灵”说坚持人工智能体的意向性只是人类心灵生物的立场,丹尼特认为,“人的心灵本身是人们在重构人脑时为了方便而创造出来的一种人工制品”(18)B.Dahlbom,Dennett and His Critics,Oxford:Wiley-Blackwell,1993,p.12.,人工智能体只要能够从错误中学习,调整自己的行为,其意向性可以被视为内在的。
二、人工智能体道德实践的视角转换
(一)转向互动视角的必要性
无论是从“内在心灵”还是“外在表现”的视角来考察人工智能体的道德实践,都蕴含着决定论的意味,这在一定程度上遮蔽了人工智能体道德实践关系的复杂性和不确定性。
一方面,从人类主体的角度看,意识和道德实践是支撑人之为人的重要支点,而人类要能够更好地运用这两种能力,则需要科技的不断发展来支持。近代以来的科技发展,从某种程度上说是一个“祛魅”的过程,即便是对于人类的意识和道德领域,人类也希望借助科技的力量进行准确的认识和操控。但是这里的认识和操控并非线性的决定,而是在实践语境中通过互动构建而不断成熟的。人工智能体作为实践语境的构成要素之一,必然全面参与到人类意识和道德实践的成熟过程中。
另一方面,从人工智能体的角度看,其道德实践的目标是实现人工智能体的向善维度。人工智能体在“输出”自身能量推动社会不断进步的同时,也会接受到其他要素的“输入”和反馈。因此,从实践语境的角度看,人工智能体的道德实践是在与其他语境要素的互动中逐渐形成和实现的,这一过程既是“智能”不断成熟的过程,也是人工智能体在与人类、社会规制、人工非智能体、人工智能体、技术规范的互动中发挥其道德潜能从而实现其向善性的过程。因此,只有从互动构建的视角出发,才能在复杂的道德实践领域,明确人工智能体的道德功能和角色,也才有可能助推人与人工智能体共在共生关系的实现。
人机互动始于通过人机界面的人机信息交流,最初使用的是按键、屏幕、鼠标、键盘等实体,现已转向更为高效和自然的语音交流、手势交互、语义分析等。但是早期的人机界面“主要是静态的,即用户完全控制计算机”(19)J.M.Hoc,“From Human-machine Interaction to Human-machine Cooperation”,Ergonomics,2000,43(7),p.833.,强调机器的设计应该适应人类的需求,即以人类的行为模式为设计理念。随着人工智能的进步,人类与人工智能体的联系越来越直接和深入,二者都能够适应复杂的现实环境且能够进行适时调整,早期的静态交互模式已经不能适应复杂的人工智能体道德实践。
(二)互动构建的参与要素
从一般意义上看,在不考虑人工智能体独特性的情况下,道德实践的互动建构主要有三类要素组成:“社会规制、人类、技术人工物。”(20)P.Kroes,M.Franssen,I.Van de Poel and M.Ottens,“Treating Socio-technical Systems as Engineering Systems:Some Conceptual Problems”,Systems Research and Behavioral Science,2006,(6),p.803.但随着人工智能技术的发展,如果将技术人工物纳入人工智能体,则将无法对二者进行区分并凸显人工智能体的独特性,“传统的技术人工物并不包括具有自主性、交互性和适应性的人工智能体”(21)I.van de Poel,“Embedding Values in Artificial Intelligence(AI) Systems”,Minds and Machines,2020,(3),p.386.。因此,为了将传统的技术人工物与人工智能体相区分,可称前者为人工非智能体。由于人工智能体无法与人工非智能体一样,直接承受社会规制的约束,需要将社会规制转化为人工智能体能够“听懂、看懂”的技术规范,才能对其道德实践发挥作用,也即是说,人工智能体需要相应的技术规范。这样,人工智能体道德实践互动构建涉及到的要素可扩展到五个方面,即社会规制、人类行为者、人工非智能体、人工智能体和技术规范。
第一,社会规制用于规范具体语境中行为者的行为,既包括成文的正式法律制度和道德规范,也包括约定俗成的规则。它有其适用的领域,在这些不同的领域也必然有与之相应的道德价值。对于人工智能体而言,社会规制是其诞生和应用的文化环境,规范和约束其行为。人工智能体在应用过程中,面对新的使用意向和社会需求,会产生新的使用功能,从而突破旧的社会规制束缚,推动新社会规制的形成,这也为人工智能体新功能的广泛应用创造了适宜的文化环境。
第二,人类行为者在人工智能体的道德实践中具有多个角色,是人工智能体的设计者、制造者、管理者和使用者。在人工智能体的道德实践中,人类行为者与人工智能体之间形成的是一种意向—因果关系。人类行为者在社会规制的范围内,通过理性能力来设计、制造人工智能体,并监控和评估其道德实践的运行过程和结果,将人类的价值诉求与人工智能体输出的价值结果进行比对。如果差异较大,人类行为者将调整体现社会规制的价值诉求,对人工智能体及其相应技术系统进行修改或重新设计。
第三,人工非智能体作为一般技术人工物,具有相应的物理结构和设计意向,如机械钟表既有齿轮、弹簧等物理结构,也承载着报时的设计意向。就人工非智能体的设计意向而言,可以用物理结构来描述,也可以用因果关系解释其运作方式。因此,在被使用的过程中会产生不同的使用价值,而这种使用价值并不完全由设计意向所决定,其物理结构还会助推人工智能体和人类使用者形成新的使用意向和新的使用功能,并推动设计意向的更新。
第四,人工智能体具有一定的自主性、交互性和适应性,可以根据外部的输入以及对环境的适应来实时调整自己的行为。当下人工智能体的行为主要取决于设计者的意图和价值观,在功能上遵守社会规制。实际上,根据美国计算机伦理学创始人摩尔(James Moor)的分层模式,道德实践中的人工智能体可分为三个层次:一是在设计过程中被嵌入了伦理规则的隐性伦理智能体;二是显性伦理智能体。设计者通过道义逻辑等手段将伦理规则转换为智能体的内置程序,就可以对其将要作出的行动进行伦理评估,以规范其作出符合伦理决策的行动;三是完备性伦理智能体。从理论上看,该形式的人工智能体已经可以作出独立的道德决策,因此可被看作是独立的道德主体(22)James H.Moor,“The Nature,Importance and Difficulty of Machine Ethics”,IEEE Intelligent Systems,2006,(4),pp.18-21.。第一层次的人工智能体与一般技术人工物一样,只能执行设计意向或者以其物理结构助推使用者形成新的使用意向,而不具备根据使用语境自主调整自身行为的能力。第二层次则是现阶段人工智能体的发展现状,也是人工智能体区别于其他一般技术人工物的独特之处。这一层次的人工智能体能够根据使用语境在一定程度上实现自主决策,而且随着技术规范的不断进展,其自主决策能力也会不断提升。第三个层级是工程技术领域的终极目标,这时人工智能体将获得完全的独立决策能力,但这一终极目标目前只存在于理论层面,并不一定能实现。
第五,技术规范用于约束人工智能体的行为,是通过对社会规制进行语义转译、道义逻辑等技术性处理,转换成人工智能体可以识别并分析的道德规范。目前来看,这种技术性手段主要有三种路径:一是自上而下式的分析型进路,由设计者将价值嵌入人工智能体中;二是自下而上式的学习型进路,由人工智能体在与人类行为者、人工非智能体以及其他人工智能体的互动中习得,如显性人工智能体;三是混合式的联结型进路,综合了前两种进路的优点,通过自上而下和自下而上式的混合来创建一个行为和功能上等价于人类的人工智能体,目前还处于探索之中。
从互动构建的视角考察人工智能体的道德实践,就是要阐明这五类要素在人工智能体的实践过程中如何实现互动构建。这五类要素要能够在不同的实践语境中实现互动的前提是,人工智能体的道德实践需要尊重价值判断的多元性和文化观念的差异性,而不能局限于某种文化语境,也就是说,人工智能体虽然诞生于某种文化语境,却要面对多元价值和文化的开放世界。在此意义上,人工智能体道德实践的基本准则应包容世界不同类型的文化语境和价值观,这就要求不同的文化观念和价值观都能够在人工智能体的道德实践中得到尊重和实现。这一基本原则已基本达成全球共识,下一步的实践目标是要将这些原则和共识体系转化为能够落实到具体应用场景的“一套完整的监督治理规定”(23)陈小平:《人工智能伦理体系:基础架构与关键问题》,《智能系统学报》,2019年第4期。。
三、人工智能体道德实践的互动构建机制
(一)工程技术层面的技术进路
人工智能体的基础是算法,它被“限定在一个形式化的、离散的和算法式的世界里。人类通过语义的概念连接到那个世界。”(24)〔美〕爱德华·阿什福德·李:《柏拉图与技术呆子》,张凯龙、冯红译,北京:中信出版社,2020年,第259页。实践语境中的道德原则、规范和诉求都必须转化为形式化的计算机语言,它才能“看懂”、“听懂”。看懂和听懂只是输入,人工智能体还需要输出,即能够在互动中实现信息交换,这就要求人工智能体具备相应的算法,能够将道德问题进行符号化转化,并通过内在算法的运作,将输入的内容转换成“善”的输出。目前,工程技术领域正就其中的两个核心问题——道德推理的逻辑规律和形式伦理对道德决策的影响方式(25)王淑庆:《面向人工智能的形式伦理及其逻辑基础》,《伦理学研究》,2018年第4期。——展开积极的研究,主要采取了三种技术进路。
第一,自上而下式的进路。这一进路将实践语境中的社会规制转换为算法程序,将宽泛的道德准则应用到具体的事例中:即先选取适当的道德准则,并对其加以分析并转换为算法,应用到人工智能体之中,在人工智能体面临道德抉择时按照输入的道德准则进行决策。
美国塔夫茨大学的计算机科学家布里格斯(Gordon Briggs)和苏尔茨(Matthias Scheutz)开发了一款基于道义论的DIARC/ADE认知机器人,DIARC采取的是一种分布式的组合架构模式,综合了认知、情感和反思等;ADE是一种动态的计算框架,允许机器人在适当的时候拒绝来自人类的指令。该类型的机器人具备以下条件(26)G.Briggs and M.Scheutz,“Sorry,I Can’t Do That:Developing Mechanisms to Appropriately Reject Directives in Human-robot Interactions”,Paper presented at the 2015 AAAI Fall Symposium Series.:
1.知识:我知道该怎么做X吗?
2.能力:当前我的身体能够这样做X吗?通常我的身体能这样做X吗?
3.目标优先级和时间:我现在能做X吗?
4.社会的规则和义务:根据我的社会规则,我有义务做X吗?
5.规范的可允许性:X是否违背任何规范性原则?
这种让机器人拒绝执行非道德指令的设计思路符合道义论的逻辑。当机器人遇到违背这些条件的指令时,它会拒绝执行下一步的操作,即条件满足则会执行下一步的行为,条件不满足则会拒绝执行或者返回初始状态。
美国南加州大学的学者德加尼(Morteza Dehghani)等人建模了一种道德决策的认知模式——MoralDM(Moral Decision-Making),使用第一原则推理和类比推理来完善人工智能体的道德决策。它能存储之前的决策,以便在遇到适合的情景时直接被使用。其工作流程是这样的:先将需要处理的事件用自然语言处理的方式转换成机器语言,再以心理刺激形式来表征,如果分析的事件不涉及神圣的价值(sacred values),那么MoralDM就会运用功利主义决策规则,提供功利总量最大化的行动;如果MoralDM确定存在神圣的价值,那么它就以道义论的模式运行,对行动的效用变得不敏感,甚至宁可不采取行动(27)Morteza Dehghani,et al.,“MoralDM:A Computational Model of Moral Decision-making”,in Proceedings of the 30th Annual Conference of the Cognitive Science Society(CogSci),2008.。
第二,自下而上式的进路。这一进路没有将道德理论作为人工智能体实施道德决策的预设,而是采取“习得”的模式,即并不为人工智能体预置道德规则,而是让其模拟儿童的道德习得过程,将实践语境中的大量道德抉择转换为算法,让人工智能体去学习这些道德抉择事例,并以这种习得的道德规则来指导其行为。
伊朗学者霍纳瓦尔(A.R.Honarvar)和卡西姆·阿加伊(N.Ghasem-Aghaee)设计的基于案例推理(CBR)的BDI智能体,即Casuist BDI(信念-愿望-意向)智能体模型(28)A.R.Honarvar and N.Ghasem-Aghaee,“Casuist BDI-Agent:A New Extended BDI Architecture with the Capability of Ethical Reasoning”,International Conference on Artificial Intelligence and Computational Intelligence,2009.,能对道德行为进行调整:智能体感知到环境并作出一个当前状态的表征,这些状态由当前智能体的信念、愿望和语境中的详细信息所构成;然后智能体会将当前状态传递给案例检索器模块,该模块负责检索与当前情况相似的先前案例,如果检索到案例,那么智能体应该接受部分解决方案,并使其行为调整为类似于所检索案例的解决方案部分。如果没有检索到案例,Casuist BDI智能体体系结构的评估器(Case-Evaluator)将开始发挥作用;评估器会评估智能体行为的结果,并将评估结果发送到案例更新器(Case-Updater),案例更新器会创建新的案例,以保存案例的当前状态,这一状态由案例的解决方案部分中的智能体行为以及案例的结果部分中的评估所组成。
第三,混合式的进路。这一进路是前两种进路的结合,即预先给人工智能体植入道德律令,同时还需要使其具备对后天经验加以总结和整合的能力,并能够在具体的事例中习得道德规则。
澳大利亚学者马德尔(Tamas Madl)和美国哲学家富兰克林(Stan Franklin)设计的CareBot智能体,是一种基于LIDA,即“受限制的渐进式道德决策采用自上而下(基于显性规则)和自下而上(基于隐性启发式策略)的组合模式。”(29)④ T.Madl and S.Franklin,“Constrained Incrementalist Moral Decision Making for a Biologically Inspired Cognitive Architecture”,in R.Trappl(ed),A Construction Manual for Robots’ Ethical Systems,Cham:Springer,2015,pp.137,148-150.LIDA认知结构框架为人工智能体提供了对象、人、语境、行动、处境,以及特定感受及其效价(积极的或消极的)之间的联系,这些是在智能体的心灵中形成价值准则和行为倾向的主要构成。
CareBot智能体的运作模式如(30)③ T.Madl and S.Franklin,“Constrained Incrementalist Moral Decision Making for a Biologically Inspired Cognitive Architecture”,in R.Trappl(ed),A Construction Manual for Robots’ Ethical Systems,Cham:Springer,2015,pp.137,148-150.:1.感觉记忆模块会周期性识别环境;2.将识别到的信息传递给知觉联合存储器模块(PAM),PAM节点用来表征环境中的概念或对象的语义知识;CareBot智能体使用自身所具备的知识构筑了当前状态的新模型;3.将识别的感知(已可靠识别的PAM节点,即超过特定的激活阈值)复制到工作空间中,从而构成前意识(preconscious)工作存储;4.注意力模块(Attention Codelets)会在工作的空间中寻找自己关注的知觉表征并与这些表征形成结合体,这些已被关注的表征为了有意识的传播就需要相互竞争;5.如果与内容相关的长期记忆(瞬时情景和陈述性记忆)包含与当前感知相关的记忆,这些记忆也将作为地域群集(local associations)被复制到全局工作空间;6.全局工作空间模块是一种短期存储能力,它可以使得内容具有功能意识(31)在LIDA模型中,功能意识是用来描述全局工作空间理论的,指的是在全局工作空间中“广播”并提供给诸如行动选择之类的认知过程的信息,而不是仅本地可用的非意识信息。它的特点是:不对现象(主观)意识做出承诺。,在竞争中占上风的结合体会进入功能意识并帮助智能体决定下一步的行动;7.之后,有意识传播的内容将会被传输到过程存储模块,满足当前语境的所有方案都将被激活,并根据语境的匹配程度来选择行为方案;8.所选择的方案还需要通过与其结果状态匹配的目标或动力来接受自上而下的激活;9.动作选择模块的任务是从所有可能的方案和行动中选择智能体可以执行的单个相关动作。
(二)社会层面的基本途径
第一,在人工智能体的设计阶段,意向价值的写入和评估是人工智能体道德实践的基础,形成了人工智能体道德输出的脚本。这一过程需要经过概念分析、原型开发、价值引导预测和评估、试验评估等环节。概念分析是对意向价值的合理性、可行性、相容性进行澄清;原型开发是将意向价值落实到人工智能体的工作机制中;价值导引预测和评估是对意向价值的输出方式、效果进行预测和评估,并根据结果反馈进行方案调整、修改或确定;试验评估是在更大范围内对人工智能体可能产生的价值效应进行预测和评估,如可能出现的价值矛盾(如隐私问题、公平问题)以及如何达成价值共识框架。这里需要为共识框架的达成提供一个开放、透明、知情的协商平台,以实现不同价值诉求之间的充分的表达、理解和包容,也为下一步的推广使用创造适宜的社会氛围。
第二,在人工智能体的推广应用阶段,道德实践过程逐渐展开,其意向价值功能的顺利实现“必须充分考虑社会因素的影响,尤其是其规划价值需要依据社会主流价值进行调适,增强与社会主流价值的相容性”(32)贾璐萌、程海东、王钰:《人工智能的价值矛盾与应对路径探究》,《自然辩证法通讯》,2020年第8期。,而且也需要营造有利于发挥其价值调节功能的社会氛围,如制度规范、舆论引导和教育塑造。制度规范是社会规制的刚性表现,依靠的是国家强制力。制定相应的制度可确保人工智能体的设计研发、生产应用和消费使用过程符合社会主流价值观。通过舆论引导,一方面可正向宣传人工智能发展的价值取向与社会主流价值之间的一致性,引导社会的正面评价和积极态度;另一方面可反向监督纠正明显偏离主流价值观的人工智能体价值倾向,拓展人工智能体的价值实践。教育塑造是对与人工智能体相关的决策者、设计者、建造者和使用者在价值观上进行持续性的宣教,将社会主流价值目标融入他们的思想观念中,以形成共同的价值选择,从而在与人工智能体的良性互动中实现人工智能体道德实践的社会化。
第三,在人工智能体的使用阶段,人工智能体的道德实践需要与使用者共同构建,意向价值与实现价值在这一阶段的互动中实现整合。意向价值是使用前的价值预想,但实现价值是使用者以个体化的方式进行的规划和要求,当然可以遵循意向价值,也可以发挥个体的创造性重新规划,在日常的互动中塑造着人工智能体的个性化行为模式和道德实践。在这个过程中,个体既要充分发挥自己的创造性,又要以审慎的方式建立与人工智能体的关系,对其进行符合个体自身价值诉求的改进。使用者并非仅仅接受人工智能体的意向价值,而是以此为基础进行改写,从而形成具有个人风格的创造性的人工智能使用价值。人工智能体呈现出面向使用者群体的开放性特征,使用者群体共同为“建构一种健康、全面n 的技术使用语境”(33)陈多闻:《技术使用的哲学研究》,沈阳:东北大学出版社,2011年,第123页。而努力。
当然,人工智能体的道德实践还需要避免人类行为者对人工智能体的依赖,使其在互动构建中保持自身的独立性。人类行为者与人工智能体在道德实践中是以彼此的优势为基础,在有效分工中实现互动的。人工智能体对技术规范的习得也是一个过程,需要在与人类行为者、人工非智能体以及其他人工智能体的互动过程中不断推进,而技术规范在这一过程中也会越来越完善。人类行为者的优势在于理解、想象力等方面,当然也有局限性,但快速成熟的人工智能体,既能够在一定程度上弥补人类行为者的某些局限,也能够支持人类行为者作出更准确的道德判断。正如美国普利策奖得主马尔科夫(John Markoff)所言,“当机器变得足够复杂的时候,它们既不是人类的仆人,也不是人类的主人,而是人类的伙伴”(34)〔美〕约翰·马尔科夫:《与机器人共舞》,郭雪译,杭州:浙江人民出版社,2015年,第208页。。人工智能体能通过学习理解人类的道德意图,因而不能被看作是一个冷冰冰的工具,或是一个从工业领域走出来的奴隶,而应被视为与人类行为者各自成就的合作伙伴。二者只有相互理解、相互学习,才能共同推动道德实践的成熟完善,在“良性互动过程中创造出更加美好的人类未来”(35)欧阳英:《从马克思的异化理论看人工智能的意义》,《世界哲学》,2019年第2期。。