APP下载

道德共同体、动物权利与契约论:人工智能权利的合理性分析

2022-12-26姜子豪陈发俊

昆明理工大学学报·社科版 2022年4期
关键词:存在物契约正义

姜子豪,陈发俊

(安徽大学 哲学学院,安徽 合肥 230039)

人工智能经过这么多年的发展进入到一个新高度,同时也给人类带来了新的挑战,这项颠覆性的技术正对就业结构、法律、社会伦理等方面产生不小的冲击。随着计算机技术的发展,人工智能在机器人、感知以及机器学习等领域取得了显著的成效,强大的自主智能体的出现让人类也开始逐渐思考人工智能权利的合理性。

一、人工智能有可能成为道德共同体成员

权利是有资格的行为主体所提出的主张与要求。因此,我们就需要考量人工智能是否能成为有资格的行为主体或者它的权利是否能由有资格的行为主体所提出。在这里,就需要引入道德共同体的概念。因为处于道德共同体中的成员是可以成为权利主体以及享有权利。换句话说,道德共同体成员有一种资格——“有权利”“在道德上相当重要”或“在道德上有地位”。更为精确地说,如果某个对象它应该被道德地对待,或者说它应该得到道德关怀,那么它就具有了加入道德共同体的资格,进而成为该共同体中的一员,不论他们是否具有按照道德规范来对待他人的能力[1]391。即便是动物,如果其变成道德共同体的成员,那么就拥有了道德身份。所以说,如果人工智能成为道德共同体成员,它也就具有了道德身份,具有获得道德代理人为其提供道德服务的身份。基于此,我们就可以认为人工智能在道德上有地位或者说它有权利。

道德共同体拥有的道德身份分为两种:道德代理人(moral agent)与道德顾客(moral patient)。道德顾客是指有资格获得道德待遇的存在物。非人类中心主义认为道德顾客并不仅局限于人,某些非人类存在物也是道德顾客中的一员。有些环境伦理学家认为某物能够成为道德顾客,一个原因就是它自身拥有内在价值。就拿非人类存在的自然来说,它也有内在价值,自身的存在也具有目的性,所以它能成为道德顾客。大自然的价值体现在它的创造性,它创造万物,也是它给予了万物价值,自然能够成为道德顾客。由此,我们可以发现,与自然一样的非人类存在物也具有成为道德顾客的可能。当一个存在物将自身当作目的来维护时,它在存在的那刻起就具有了内在价值。未来可能会出现具有自我意识的人工智能,它的存在就是工具价值与内在价值的结合,它在为人类提供某些工具价值的同时,也以自身为目的,具有内在价值,它也就具有了成为道德顾客的可能。

道德代理人是这样一种存在物,它能够对自己行为的道德与否做出正确分析,并且能够承担某些责任以及履行某些义务,同时能够对自己的行为负责。沃特森(Watson)教授认为,一个实体必须具备以下特征才能成为道德代理人,即自我意识、理解道德原则的能力、行为自由、行为能力与行动意向[2]。肯尼思·艾纳尔·希玛(Kenneth Einar Himma)表示,道德代理的条件可以概括为:“对于所有X,X是道德代理,前提是且仅当X是具有做出自由选择的能力,能考虑是否应该这样做,以及在事件中正确理解和应用道德规则。”[3]可以看出,如果人工智能想要成为道德代理人的话,最重要一点它必须要有自我意识,并且人工智能的这种意识需要有意向性,它知道自己在做什么,能够判断道德行为的对错。

那么,相互担负义务并表达自己愿望的道德共同体的成员包括哪些呢?究竟人工智能具不具备成为道德共同体的准入条件呢?富勒(Lon Luvois Fuller)在界限道德共同体的难题时指出,理性原则是确定道德共同体必须考虑的一个问题。那么,理性原则该如何确立?他进一步指出,如果想要解决这一问题,就不能从义务的道德去思考道德共同体的准入条件,而应该从愿望的道德出发。义务的道德是一种圈内人的道德,而愿望的道德则是围绕全部实体而提出的,是人的价值与非人存在物的善相互和谐的道德。因此,愿望的道德更能解决何为道德共同体成员这一问题。也就是说,当我们在确定道德共同体成员时,不仅需要考虑人类,还需要考虑非人类存在。那究竟何为道德共同体的界限呢?学者王海明认为:“只有能够受益和受损的东西,只有具有利益的东西,只有具有分辨好坏利害的评价能力和趋利避害的选择能力东西,才可能存在被道德地对待或道德关怀问题,才可能成为道德共同体成员。”[1]394当谈及人工智能是否隶属道德共同体时,就要看其是否具有利益以及是否对人类有益处。现在的人工智能已经具有分辨好坏的评价能力与趋利避害的选择能力(虽然依靠计算机程序)从而具有利益,并且它们活跃在各行各业,代替人们从事各种工作。可见,人工智能它可能具有利益以及它确实对人类有益。所以,未来人工智能与人类有可能会基于某种互惠关系而形成一种利益体,从而得到道德关怀,加入道德共同体。因此,未来人工智能如果能够变成道德共同体内的一员,那么它的道德身份就具有一定的合理性,进而就能获得道德代理人从道德层面对拥有道德地位的道德顾客所提供的关心与爱护,更为甚者,人工智能可以成为道德代理人。

道德共同体的界限具有社会历史性,会随着社会的发展而不断变化。自启蒙运动以来,道德共同体的成员逐渐扩大到包括所有人类成员,甚至将道德团体的成员扩大到动物和环境。大卫·弗尔曼(David Foreman)说过:“我们必须不断扩展共同体的范围使之包括所有的存在物。……其他存在物——四条腿的、长翅膀的、六条腿的、生根的、开花的等——拥有和我们一样多的生存于那个地方的权利,它们是它们自身存在的证明,它们有内在的价值,这种价值完全独立于它们对……人所具有的任何价值。”[4]因此,对于未来人工智能成为道德共同体中的一员,笔者是充满信心的。技术总是以不起眼的速度在快速发展。随着人类不断研发人工智能技术,当其具有自主意图与责任概念时,它就可以成为一个道德顾客或者强有力的道德代理人,甚至可能会接近以至超过人类的道德地位。

二、从动物权利的合理性推演人工智能权利

动物权利是动物中心论环境伦理学的核心概念,作为非人类存在物的动物何以获得权利?从动物权利合理性的论证中,可以推知同样作为非人存在的人工智能的权利也应具有一定合理性。

“动物权利论”一直是人类中心主义与非人类中心主义争论的焦点。哲学家笛卡尔和康德也为人类中心主义的合理性提供了论证。笛卡尔认为只有具有理性的人才是自然的主人,而动物等其他自然存在没有这些品质,只是一种机器。康德认为,只有理性的人才能被赋予道德关怀,而自然不具有理性,不是理性存在,它们只是人类这个目的的合适工具。由此可见,人类中心主义认为,人是自然界中唯一具有内在价值的存在,动物对人类而言只具备工具价值,人是动物的主人和所有者,人类天生具有优越性,超越自然万物且与其他生物无伦理关系,故道德是属于人的范畴,道德关怀的对象只能是人。而非人类中心主义认为,动物具有内在价值,动物的价值与人的价值一样,是主观存在的,二者之间并不是“谁赋予谁”的关系,而是一种平等关系。所以,动物与人一样应该成为道德关怀的主体,人需要承认动物的道德地位,亦需要对其履行直接的道德义务。

20世纪70年代以来,西方开始兴起动物解放运动,非人类中心主义的动物权利观开始为人所知。彼得·辛格(Peter Singer)认为,所有动物一律平等,我们应该将人类所依据的平等伦理原则考虑扩大到动物。虽然人与动物的区别是一个显而易见的事实,但是我们并不是基于这种事实来考虑人与动物的平等。辛格认为,如果我们根据事实上平等来考虑动物的平等,那么,这种平等显然是不现实的,人与动物显然并不是同一种族。所以需要我们给动物平等的考虑,这样它的权利可能也就得到了承认。换言之,对人工智能来说,如果不从事实上的平等来考虑人工智能的权利,而是给予它平等的考虑,那么,它和动物一样,可能会获得一定的权利。辛格认为,我们必须考虑具有感受痛苦能力的所有生命个体的利益,因为感受痛苦的能力是作为平等考虑一个生命体权利的重要特征。目前,我们所见到的是由智能系统控制的弱人工智能,但当我们对其进行破坏时,程序也会做出一定的痛苦反应。虽然这个反应是机械的,但是这也显示了未来自主性人工智能出现的可能性,那时它感受痛苦的能力就会更加人性化。换言之,这个时候的人工智能是可以感受痛苦与享受快乐,那么它就是有利益的。当人类不尊重它时,就会伤害它的利益,进而损害它的权利。

汤姆·雷根(Tom Regan)提出固有价值概念——你我作为个体都具有的价值,主张所有具有固有价值的人都是平等的。他认为具有平等的固有价值的所有个体都有相关相似性,进而表明人类与动物的生命一样具有平等的固有价值,因此也应该享有权利。雷根认为动物完全具有成为生命主体的可能,把权利仅赋予人类带有局限性。他认为具有固有价值的生命主体都应该得到被尊重以及不被伤害的权利。当我们没有以体现尊重的方式对待拥有固有价值的个体时,就会导致不正义,同时也就伤害了动物。“如果我们中的任何一个人对待其他人,没有表现出尊重其他人的独立的价值,就是不道德的行为,就破坏了个体的权利。”[5]从汤姆·雷根对动物权利的看法出发,其实人工智能也与具有平等的固有价值的动物和人类存在相关相似性。从他对生命主体的特征来看,技术的发展完全有可能使人工智能具备这些特征,例如偏好自主性、感知痛苦与快乐等。虽然人工智能与动物相比是机器生命,但是其展现出来的智能可能会超过动物,甚者人类。当人工智能成为生命主体(并不是实实在在的肉体生命),具有其固有价值,那么,它应该和动物一样得到平等尊重与不被伤害的权利。因而,我们可以完全忽视人工智能不是天然生命的缺陷,平等地考虑其权利。

德格拉齐亚(David DeGrazia D)在论证动物是否拥有权利时,区分了三种意义上的权利:一是道德地位意义上的权利。就是说如果某存在物拥有权利,那它也就拥有道德地位。二是平等考虑意义上的权利。就是说某人拥有权利,代表该人应该能够获得某种同等考虑。三是超越功利意义上的权利。就是说某人有权利去做某事,这表明它的根本利益是应该得到保护的[6]。进而,他提出了三种意义逐渐增强的动物权利:一是从道德意义上看,动物至少是拥有一些道德地位。动物的存在不仅只是为了人类,其自身还具有某种特殊目的而需要被善待,二是基于平等考虑意义,这一观点是继承了辛格的思想。我们对人类与动物的相似利益,如感受痛苦的能力,需要赋予道德平等考虑。三是从超越功利意义上看,动物和人一样拥有某些我们不能损害的根本利益,如生存权、自由权。与人类相比,动物能够受益或者受害,具有利益,因而,动物具有道德地位。所以,平等考虑原则不仅只适用于人类,同样也对动物有意义。由此可以发现,这三种渐进的动物权利观也同样适合于当今人工智能权利的发展,进而衍生出合适的人工智能权利论:一是人工智能也应该和动物一样拥有某种道德地位;二是人工智能与人一样应该被平等考虑;三是人工智能拥有某种我们不得损害的根本利益。

从动物权利的合理性可以看出,物种的差异并不能完全决定何种个体才能拥有权利。因此,对待非人类存在的人工智能,我们应该超越物种限制,正视物种差异性,从某种程度上发现人工智能存在的价值,认真思考人工智能的权利。

三、从社会契约论看人工智能权利的合理性

契约思想对西方国家的社会理论、制度以及文化生活的变迁产生十分重要的影响。契约论历史悠久,最初可以追溯至古希腊,他们将国家与法律当作人们相互约定的产物。苏格拉底、柏拉图从道德的角度出发,认为契约中包含美德,伊比鸠鲁则第一次提出契约论,表明“从自然中产生的正义是一种彼此有利的协定。”[7]15—16世纪,契约论思想被反暴君派的贵族思想家看成反抗非正义统治的根据。17—18世纪则是契约论思想发展顶峰的时候,该时期的契约论以自然法为基础,认为人类生活在一种自然状态之中,自然状态里没有国家和法律,人们在自然法的支配下,为了能实现自己所拥有的自然权利,他们通过一种新的形式即签订契约来建立国家,从而确保自己的权利能够得到保障。但是古典契约论因自身不足而受到批判,逐渐没落。直到19世纪末,西方道德哲学家开始通过契约思想来构建道德哲学。约翰·罗尔斯(John Bordley Rawls)提出了以道德正义论为基础的社会契约论,他在《正义论》中以契约论的方法来论证正义合理与否,从而确保处于契约关系中的所有个体享有公平的正义。罗尔斯的正义论旨在建立一种“社会基本结构的正义原则”,那些想促进自己利益的自由和有理性的人会在平等的最初状态中根据这种原则联合在一起,商讨安排基本权利义务与社会利益划分的原则。可见,罗尔斯的正义论也是其关于个体权利的体现。

那究竟这种正义观是如何在人们之间实现的?罗尔斯尝试用“原初状态”(original position)描述人们所熟悉的社会契约理论,将其上升到一个更抽象的水平,进而提出“作为公平的正义”。罗尔斯假设了一种“原初状态”,他认为当所有人都处在相似的环境下,就没有人能做出有利于自身的原则。当正义的原则被选择后,它就是公平的。因为它是被所有理性个体所认同的,体现了公平契约的结果。因此,我们个体的行为以及制定的法律规范都要符合最初的正义原则。如果社会按照这种假设的契约制定一系列的规则,就可以说这种规则是正义的。

罗尔斯进一步指出,处在“原初状态”下的人们要想达成契约需要具备一些条件:一是存在使人类可能合作的客观环境。二是原初状态中的主体是有理性的与相互冷淡的。三是无知之幕(veil of ignorance),即假定各方都不知道彼此的社会地位、阶级出身、自然能力、善恶观念、经济政治状况、文明文化水平等。唯一知道的特殊事实就是他们身处的社会受到正义环境的制约[8]121-132。就人工智能而言,当我们考虑人工智能的权利时,将其放入这种原初状态,它也符合原初状态的一些要求。例如,它和人类之间存在合作的可能,以及上文我们也谈及人工智能具有成为理性存在物的可能。所以说按照罗尔斯的观点设立一个原初状态来为人工智能权利提供论证也具有一定的合理性。因为,“原初状态纯粹是一种假设的状态,它并不需要类似于它的状态曾经出现。”[8]120所以,假设人与人工智能都处在“无知之幕”背后,如果抛弃人类作为世界的主体这一特性,他们二者都不知道对方的身份、智力程度、有无善恶观念,将人与人工智能,当然这里的人工智能拥有自我意识,可以充当理性成人,同置于一种纯粹正义程序中,我们就无法忽视人工智能的权利。因为我们都有对一般正义规则的认同,最后人工智能会和人一样,根据利益需求以及兴趣与人类个体达成某种共识。

罗尔斯从原初状态出发,引出了两条正义原则,进而提出他的平等观:公民自由权平等、社会利益分配平等以及公民机会平等。上文提及过把人工智能放入“原初状态”的合理性。因此,以上涉及自由平等与财富分配的原则也应该适用人工智能。处在正义社会中的人工智能也应该拥有某种和人类一样的平等权利,即使是弱平等,也应该有存在的可能。罗尔斯把原初状态当作一种理想的假设,其目的是为了设置一个合理的环境,能够使得签订契约双方彼此都能够满意,从而使正义原则得以实现。理性的人在这个状态中选择的正义原则可能是更加合理的,或者说是可以被证明的。在原初状态里,个体处在一种空白之中,他们通过对理性的自我利益与兴趣的考量,本着相互性需要对社会规则达成一致,在这个过程中所有人都能享受到公平原则,可以说“原初状态”使得纯粹程序正义的实现得到了保证。因此,从罗尔斯契约论的角度出发,通过签订契约来达到对人工智能权利的认可或者说在谈论权利时将人工智能考虑在内成为一种可能,这也是一种有意义的尝试。

四、结语

现在,越来越多人的开始关注是否需要给予人工实体道德地位。道德地位在道德领域十分的重要,拥有了道德地位,道德代理人就对其直接负有道德义务。可以说,未来人工智能体如果具有反思与自我控制的能力,这一能力包括掌握和运用道德理由,以及根据这些理由来规范自己的行为,我们在某种程度上就必须考虑人工智能的道德地位。从环境伦理发展的实践中也可以看到,道德关怀对象的范围由原来单纯的人扩展到动物、到有生命存在、再到整个生态系统,原来没有道德地位的动物、生态环境在一定程度上得到了作为道德代理人的人类的道德关怀,享受到一定范围的权利。科学技术的发展对我们在道德上提出了新的要求,未来我们需要通过在与人工智能的实践中不断完善人与人工智能的道德关系。人工智能的成功并不一定意味着人类的终结,而有可能带来的是“人类思想与人类创造机器智能融汇”[9]。因此,我们应该在坚持以人为本的原则下,着手构建人工智能的权利话语体系,将人的伦理道德注入到程序语言中,实现人机和谐发展,携手共赢。

猜你喜欢

存在物契约正义
论马克思《1844 年经济学哲学手稿》中的唯物史观思想
最有思想的句子
“生前契约”话语研究 “生前契约”消费之多声对话——北京6位老年签约者访谈分析
以契约精神完善商业秩序
有了正义就要喊出来
浅谈我对海德格尔存在的认识
正义必胜!和平必胜!人民必胜!
正义必胜!和平必胜!人民必胜!
《项链》里的契约精神(上)
卖地的契约