APP下载

对待人工智能的选言命令式

2018-02-12颜青山

社会科学 2018年12期
关键词:人工智能

颜青山

摘 要: 人工智能的道德地位问题是一个真正新的道德难题。解决这个难题将涉及既有的“他心难题”和其变种“机心难题”。现有解决他心难题的诸方案中,类比推论、最佳说明理论和判据论都遇到了各自难以克服的困难。改造“态度方案”,可以得到纯粹态度-推论消除的方案:以纯粹态度方式直接经验他心,但以推论排除无心灵实体确认他心。然而,这个方案对人工智能的机心难题是失效的,间接推论无法将那些通过了图灵测试但并不具有心灵能力的人工智能排除出去,由此也就无法确认任何有心灵的人工智能实体。“机心难题”作为一个元伦理学或道德形而上学问题,可以在规范伦理学的层次上回避或绕过。大致在康德伦理学的范围内,在确立关于手段或工具的诸位伦理学规则之后,我们可以根据人格伦理学和手段伦理学的规则确立如下对待人工智能的“选言命令式”。一个实体及其运行,要么冒犯了人,要么尊重了人。应该将一个冒犯人的实体看作既非目的也非手段的实体:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行。应当尊重一个尊重你的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人。

关键词: 人工智能;他心难题;机心难题;手段伦理学;选言命令式

中图分类号:TP18 文献标识码:A 文章编号:0257-5833(2018)12-0110-11

最近几年,人工智能在实际应用方面产生了引人注目的成果,例如AlphaGo对围棋高手的决定性胜利,由此,关于人工智能的伦理讨论突然变得兴奋起来。显而易见的问题是,我们是否应该限制某些人工智能的技术发展以防止其超越人类,并反过来控制人类?

这是一个相当技术性的伦理学讨论,但并不是一个新的伦理问题,犹如任何其他技术的发展所产生的伦理问题一样。翟振明对此问题的回答是,如果人工智能是机器,那么它就是工具,我们应当以对待工具的方式对待它;如果人工智能已经是人,那么我们就应该以对待人的方式对待它;如果人工智能还只是机器却“控制”了人类,应当被視作事故 。

目前尚未深入展开但人们实际上更为担心的问题是,如果人工智能已经是人,并有可能控制人类的时候,我们该怎么办?许多禁止人工智能发展到总体上超过人类能力的伦理建议,最终的担忧可能都来自于此。

这个问题的答案也许并不复杂。如果人工智能真的已经是人,并且有可能控制人类,那么人类就应该同它们展开谈判,制定相处的规范和准则,就像一个弱国与强国之间达成协议一样。如果不幸的事情发生,即我们无法与之达成协议,那么我们就只好制造能力更强大但确定不是人类的人工智能与之战斗——这在逻辑上是可能的。即使在此情况下,人工智能并没有产生全新的道德难题,这与基于传统道德难题的政治冲突并没有本质区别。

一、人工智能向伦理学提出的全新难题

如果人工智能造成了如上述科幻般设想的困境,当然是一个严重的实践问题。因此,即使理论上不是新的问题,对可能的实际情况作出研究和防范,仍然具有实践重要性,例如,像一些技术化研究者设想的那样如何在人工智能的程序中嵌入合道德的算法或程序。只是这样的问题不是本文关注的目标,本文的主要旨趣在于更基本的理论问题。

对本文而言,根本的问题在于,我们如何确定人工智能已经是人,如果我们在原则上无法确定人工智能是人,而它的行为又表现得非常像人,那我们将如何与之相处?这个问题涉及人工智能的道德地位问题。

现有的主流道德哲学规范,无论是功利主义(或后果论),还是义务论(或道义论),都是处理人与人的关系的,前者强调最大多数人的最大利益或幸福,后者强调不能将人仅仅作为手段。这些伦理规范运用的前提是:我们有能力确定什么样的主体是人,或者说,它们都假定了处于道德关系中的主体是具有人格的。

诚然,人格认定或其假定如何可能的问题并不是规范伦理学的任务,规范伦理学的任务只是论证或辩护规范的合理性。这种认定和假定之可能性的讨论属于元伦理学或道德形而上学的范畴,它并不直接相关于规范,而是相关于规范成为可能的条件。

人工智能是否是人的问题虽然更理论化,但决不是一个与实际事务无关而只满足理智好奇心的纯思辨问题,如果人工智能真的已经接近人类,其紧迫性将会突显出来。其相关于规范成为可能的条件,可以以如下方式关联于现存规范性原则。

对后果论者来说,它关注的是最大多数人的最大效用,这里关注的主体是人。诚然,根据后果论,如果你是最大多数人之外的那些少数人,你的效用是可以不考虑的,甚至是可以牺牲的,假如人工智能不是人,我们就没有必要考虑它的效用。但是,如果人工智能本身也是人,那么,我们就得公允地考虑它是否可以纳入最大多数人之列。一般而言,人工智能创造的效用能力总是要大于人的,后果论或功利主义在此将面临一个两难:根据最大效用原则,对某一行动的效用配置而言,作为人的人工智能应该优先被考虑入最大多数人的行列,而那些设计和制造出人工智能的人恰恰可能被排除在外。看起来,功利主义者似乎极有理由担忧人工智能成为人;但从效用最大化的角度又似乎更有理由拥抱人工智能。

对义务论来说,按照其经典的教条,必须始终把人看作目的而不仅仅是手段。如果人工智能不是人,那就只能作为手段,但如果是人,就必须作为目的。因为经典义务论并没有考虑程度或量的问题,似乎情况要比后果论简单明了。这也是我们后面寻求规范性解决方案时首选义务论的理由之一。

既然我们讨论的是人工智能是否具有人格的问题,那么,那些在生活和生产中解决特定任务的人工智能所产生的伦理问题就不在我们的讨论范围内,我们要讨论的是类人人工智能,即,仅仅凭一般直觉(甚至是现有的某些测试技术标准)无法将其同人区分开来的人工智能。

伦理规范运用的主体是具有人格的主体,而这样的主体一个必要的特征便是,它应当具有心灵。因此,如何确定行为上类似人的人工智能已经是人,理论上需要面对或克服两个著名的与心灵有关的哲学困难:他心难题和图灵测试的失效。

这两个问题可以以如下方式同人工智能联系起来:

第一,假如我们可以凭直接经验确定我们自己有心灵,那么,我们如何确定自己以外的他人具有心灵?如果我们不能确定他人有心灵,我们也就无法确定人工智能有心灵,即使人工智能表现得同我们无法区分,我们也无法确定其是否有心灵。

第二,如果我们能够通过某种方式确定他人有心灵,我们是否能够确定一个与人的行为无法区分的人工智能有心灵?根据塞尔对图灵测试的反驳,一个其行为与人类不可区分的人工智能很可能是没有心灵的,因为它缺乏理解能力。

这两个问题是不同程度的怀疑论问题,第一个问题是强怀疑论的,即我们是否可以确定他人有心灵;第二个问题是弱怀疑论的,即如果我们可以确定他人有心灵,我们能否因此确定人工智能有心灵。

为了在文字上有所区别,我们可以参照前者所称的“他心难题”,将后者称为“它心难题”,因为这个“它”主要指机器,且为了在语音上有所区别,我们可以称后者为“机心”难题。如果说人工智能有新的道德难题的话,那么“机心难题”这样一个元伦理学问题就算得上是一个新的问题。

不过,这个问题的新颖之处是有条件的:传统道德哲学也有他心难题,但由哲学家已经给出的方案或人们的日常直觉可以基本上解决这样的困难,因此,如果传统的他心难题解决方案适合于机心难题的解决,那么,这里就没有新的难题;但如果传统他心难题的解决方案不适应于机心难题,那么,机心难题将构成一个新的道德难题。

我们后面的论证将表明,传统解决他心难题的方案不能直接解决机心难题,也就是说,人工智能的道德地位问题,不能直接由解决他心难题的既有方案来得到解决。另一方面,机心难题虽然对心灵哲学不是一个新的难题,但目前心灵哲学却无法解决这个问题,但如果我们引进某种道德哲学的规范性原则,这个问题却是有希望得到解决的,因此,对道德哲学而言,机心难题将是一个全新的问题。

解决上述问题貌似有一个更强的怀疑论策略,我们可以称为彻底怀疑论,即我们根本没有心灵。既然“我”本人没有心灵,他人和人工智能也没有心灵,也因此,他人或人工智能是否有心灵的问题是一个假问题。这种解决方案也是赖尔式行为主义的核心观点 。

然而,即使这种强行为主义的解决方案在形而上学上是经济的,但在道德哲学上却于事无补,也不可接受。因为,它要么意味着我们的道德规范应该扩展到世界上所有没有心灵能力的存在物上,要么我们因为缺乏自由意志(心灵)而无须承担道德责任,即道德规范不可能。在本文的讨论中,道德规范的存在性和可能性将作为一个先天基础或预先的承诺被接受下来,也就是说,我们将拒绝任何怀疑人类心灵之存在性的方案,即使我们接受,人类心灵之不存在可以作为一个发生学的起点。

二、他心难题及其解决方案

在日常直觉中,我们知道自己拥有感知、信念、希望、愿望,也能够作出判断,它们的内容构成思想或命题,这就是我们的心灵。我们对自己拥有心灵的知识是直接的,不需要推论,甚至也不需要内省。但是,我们不太可能直接拥有他人的感知、信念、希望、愿望或判断,因此,我们不可能直接知道他人有心灵。关于他人的心灵,我们只能从行为的类似性推断出来。他心难题的全部困难就在于这种非对称性,我们似乎总是直接知道自己有心灵,而间接获知(推论)他人有心灵 。

目前解决这一难题的方式主要有三种方案:类比推论、最佳说明和判据论。

密尔(S. T. Mill)是类比推论(Analogical Inference)的创始者,密尔原本关注的是心灵与行为之间的因果关联。我的行为作为结果,必定由其他原因引起,根据笛卡儿的二元论,这个原因只能是我的心灵,这是我能够觉察到的;同样地,他人也有作为结果的行为,那么,他的行为也只能由他的心灵状态引起,虽然我不能直接观察到这个原因。

对类比推论的重大挑战出现于20世纪中叶,维特根斯坦反驳私人语言的论证使得他心问题成为分析哲学的一个焦点,私人语言的失效也就意味着他心类比推论的困难。不过对类比论证作出明晰反驳的是赖尔,他作出了两点相当有力的反驳:第一,他心类比无法检验,我不可能经验他人的内在状态,这在逻辑上是原则性的;第二,这个类比基于归纳的一般化,但只有一个样本即我的心灵,这在推理上是不可接受的。赖尔本人采取的策略是彻底怀疑论的,即否认笛卡兒幽灵式的心灵,采取哲学行为主义的方案,心理活动只是行为倾向。于是,他心难题的非对称性被消除,整个问题被彻底消解。

最佳说明理论采取的方式是科学说明的方式,首先消除自我经验中心,忽略我对我的心灵的直接性,把心灵当作理论实体,接受密尔关于心灵与行为的因果链关系,但不只是诉诸内在因果链,而诉诸普遍的因果关联:是什么原因导致我们如我们所做的那样去动作(behave)?心灵可以作为解释我们行为的最佳说明。这是一种科学推论方式,科学研究中并不要求观察心灵的直接证据(无论是我的心灵还是他人心灵),而只要求证据的相关性,并以外部视角解释心灵。正如我们并没有直接观察到万有引力,但万有引力是说明引力相互作用及其规律的最佳理论实体。

最佳说明理论是不同于行为主义的,行为主义完全消除了心灵实体的存在性,但最佳说明则保留了心灵实体,只不过是从第三人称的角度去观察。可是,最佳说明理论完全回避了心灵的直接性问题,会遇到同类比推论一样的问题,即无法解决我对他心的非直接性经验困难。

判据(criteria)论则将行为看作心灵状态的判据,认为心灵与行为之间是一种概念性关系,而不是一种归纳推论,行为是心灵之呈现的判据,它们之间具有某种概念性关系(就像哲学中的先天综合关系),例如,“痒”这种心灵状态与“搔”就具有概念性关联,“搔”的总是“痒”,而一个人感知了“痒”总意味着“搔”的行为倾向于发生。判据论认为,心灵与心灵的关系是直接的而不是推论性的。判据论既不同于行为主义,也不同于最佳说明理论。行为主义完全否定了心灵的存在,在“搔痒”的例子中,行为主义可能只承认“搔”的外部行为而不承认“痒”的内在状态,而最佳说明理论虽然承认“痒”的存在,但只将其看作一个推测的理论实体假设,而“搔”和“痒”也不具有必然的概念性关系,只是一种高概率发生的偶然的经验关联。

判据论更接近心灵的依随说明,即心灵状态(“痒”)与物理属性(“搔”)具有先天必然的关联,不同的是,依随说明不承认心灵状态与物理属性之间的因果关系,而判据论则可以承认概念关系中包含了因果关联,“痒”不仅仅意味着“搔”,也可能导致了“搔”,只是因果关联未必是必然的。

维特根斯坦的态度方案(attitudinal approach)是判据论的最好形态。态度方案认为,我们对他人的观念和态度是被建构起来的,他人是有心灵有经验的形象,我们依据这样的形象去感知他人,与他人互动。这种态度是直接的,没有任何推论,在任何信念之前。

然而,包括态度方案在内的判据论,无法说明我们在互动时为什么不把没有心灵的物体建构为有心灵的实体。其实,我们应当接受,当我们拥有心灵时,确实是将世界上所有实存物都直接建构为有心灵的存在的,只有当我们处于特定阶段之后,我们才采取消除的方式把一些实存物排除于心灵存在之外的。因此,态度方案或判据论是可以挽救的。

我们支持态度方案的核心论证是:推论是心灵的能力,在没有心灵之前,我们的经验必定是非推论性的、直接的;因此,当我们一开始意识到自己有某种心灵状态(例如疼痛信念)时,必然是直接的,如果此时我们也同时意识到他者的相同状态,也只能是直接的。我们不同于判据论的地方在于,这种经验虽然直接的,但是可错的,因此不是概念关系。

因为解决他心难题不是本文的主旨,限于篇幅,我们将对他心难题解决的具体过程区分为如下几个阶段:

(1)存在主义阶段。在这个阶段中,我们与世界处于无心灵的行为或纯粹态度互动。此阶段没有明确的意识,属于无信念或前信念阶段,只有生物学意义上的非条件反射或条件反射,无法区分自我与世界。例如,有“看”的行为(纯粹态度),但没有“所看”的内容(信念),即有意向态度而无意向内容。这种与世界的纯态度互动会形成一种顺畅的习惯。

(2)形而上学阶段。正是在这个阶段中,我们开始形成因果观念。我们开始有具体心灵状态信念(如疼痛信念),并逐渐形成万物运动都有原因的形而上学观念:目的(灵魂)是万物运动的终极原因,由此开始直接领受到世界心灵(万物有灵)。在上一阶段,在对事物(包括身体)由A到B运动的直接经验中,我们形成习惯性预期(并不明晰),当运动受到障碍时,B将被领会为“目的”而不是结果,即运动“受挫”。当这种障碍经常发生时,“目的”意识将会产生,而且“目的”将被明晰地理解为物体运动的原因。这个阶段会形成两个直接而非推论的观念:实体的运动都是有原因的,目的就是启动万物运动的原因。在这个阶段,我们形成了我和万物都有心灵的观念,这个观念由直接领受逐渐明晰为信念。

(3)经验主义阶段。在这个阶段,由于对工具的使用,归纳地排除了人造物的意识性,并最终缩小意识主体范围到人类。人类开始明确意识到非心灵实存是在工具使用之后,因为工具使用完全是由一个自然物(我自己)的目的(灵魂)引导和控制的运动,这种状态表明,工具本身并没有目的或灵魂,因此,最重要的是把自然物(包括自己)与人造物区分开来,而不是自我与世界区分开来。这个过程是一个推论过程,一个使用排除法的归纳推论过程。

在原始经验主义阶段,我们还只是通过工具使用排除非心灵实存,到了科学的经验主义阶段,我们通过科学理论最终排除所有非人类存在物作为心灵实体的可能性:除了人类,世界上任何实体都是没有心灵的。

我们把上述解决方案称为纯粹态度-消除推论方案,是直接经验和推论经验的某种结合方式。

在上述解决方案中,自我意识或己心是不重要的,将工具排除于心灵之外才是重要的。因此,他心难题解决过于关注自我是没有出路的,“己心”可能同他心一样是一个难题。自我同他人或世界的分离过程,不必先于自然物与工具的分离过程,在第二阶段开始,我的运动与世界运动的失调,才导致自我与世界的区分,形成自我意识。

三、图灵测试的失效与机心难题

现在的问题是,上述在自然状态下解决他心难题的方案是否适应于人工智能?表面上看似乎是适应的,因为如果人工智能只是工具,我们就可以通过排除法将其排除于心灵实体之外。

然而,有两種情况可能会导致排除法失效。第一种情况是,有心灵的实体模仿无心灵的实体与人类互动,从而人类将其直接经验为无心灵的实体;第二种情况是,无心灵的实体模仿有心灵实体的行为与人类互动,从而人类将其直接经验为有心灵的实体。

第一种情况似乎是可以排除的。如果是一个有心灵的实体,其心灵有一个发生过程,而这个发生过程要求其通过行为来逐渐实现,我们很难设想一个实体会突然间拥有心灵;当它通过行为而成为有心灵的实体时,它就已经被人类直接经验为有心灵的实体了,而此后它的模仿将被戳穿——除非有可推论的原因使得其突变为无心灵实体,例如大脑受损。

第二种情况是可能的,这就是基于图灵机原理而能够通过图灵测试的人工智能、由人控制的主从机器人或虚拟现实中的人替(avatar)。这里主要讨论基于图灵机原理的人工智能。

著名的图灵测试设想(标准版),将基于图灵机原理的机器与人同时关在两个房子里,并让测试人员分别向房子里的人和机器提出问题,如果测试者从回答中无法区分出哪个房间是人、哪个房间是机器——这种测试可以无限进行下去——那么,机器就是能够思考的。这个结论以大众化的方式被理解为,这样的机器已经是人。如果我们对图灵测试稍加修改,把房间里的机器做得跟人在形象上无法区分,并让它们依据程序活动,拆掉房子后,其行为也就与人无法区分,那么,人类在与这样的机器互动时将把它直接经验为有心灵的实体。

这样的机器是否真的就是心灵实体呢?确实,图灵本人认为通过了图灵测试的机器就可以看作是能够思维的;但问题是图灵所说的思维是否是我们所说的心灵能力,这一点至少在当时是不清楚的。至于机器行为与人类行为无法区分,机器就必定存在心灵能力,这个说法最初是针对自然状态的生命体而言的,其在人工智能上并没有充分的根据。

至少从许多局部事实上看,我们可以把一台机器的行为构造得与人类行为无法区分,但该机器仍然可以在整体上很容易被判定为没有心灵能力,因为它在其他方面可能与人类完全无法比拟。当然,辩护此类机器有心灵的人仍然可以说,机器的局部能力与人类无法区分并不符合图灵测试的要求,因为图灵测试要求该测试可以无限制运行而达到无法区分的程度。不过这种回应在逻辑上已经消除了图灵测试的可能性,因为任何测试在时间上都是有限制的,不可能是真正无限长时间。因此,我们只能将图灵测试的无限制时间理解为足够长的时间。

不过,即使上述对图灵测试的反驳是有缺陷的或可反驳的,也没有关系,因为还有一个更重要的致命性反驳,即来自基于思想实验的逻辑演绎。

1980年,塞尔提出了一个名为“汉字屋”的著名思想实验。该思想实验设想,塞尔本人被关在一个房子里,其中充满了各种汉字笔画,塞尔本人完全不懂汉语,但他是懂英语的。现在,他有一本关于如何取得这些笔画构成汉字的英语说明书,通过这本说明书,他可以直接为从屋子外面递进来的汉语问题给出汉语答案。注意,这本书并不是英汉字典或汉英字典,而只是一本如何取得笔画构成汉字并安排汉字顺序构成汉语句子的规则说明书。假如塞尔的速度足够快,那么,在屋子外面的懂汉语的人看来,屋子里的塞尔是懂汉语的;但事实上,塞尔并不懂汉语 。

塞尔论证道,图灵机基于程序的人工智能只是一种语法程序,并没有语义学内容,即使它们在形式上能够模仿人的思维,但它们实际上没有理解能力。因此,理解能力是基于图灵机原理一类的人工智能所不具备的。在这种意义上,理解能力是人类心灵的关键能力 。

接下来的问题是,理解能力是一种内在能力,是第一人称的,并不能够由外部特征或第三人称视角加以判断。而且,塞尔的反驳只是表明,通过图灵测试的机器不足以认定为心灵实体,但它并不意味着通过图灵测试的实体不是心灵实体。准确地说,塞尔只是反驳了基于图灵机原理而通过图灵测试的机器具有心灵能力的可能性。另一方面,一个有心灵能力的普通人就能够通过图灵测试;也就是说,图灵测试可以成为心灵实体的必要而非充分条件。

图灵测试并不能排除基于其他原理而制造的机器具备心灵能力之可能性。例如,一些人主张,利用量子纠缠原理制造的量子计算机就有可能具备心灵能力,因为量子现象本身就具备意识特征。本文讨论的是一般性的人工智能,而不是基于图灵机原理的人工智能。因此,人工智能在未来是否具有心灵能力是未知的。

于是,他心难题转变为了机心难题:如果一个一般性人工智能产生出来,我们如何判断它是否是心灵实体?这个难题可以区分为两个层次。

第一个层次是逻辑上的,即仅仅以图灵测试显然是无法区分心灵实体和非心灵实体的。当然,我们似乎可以依照塞尔的反驳,看该人工智能是否是依据图灵机原理构建起来的,如果是,那么它就是非心灵实体。然而,图灵机原理只是构建人工智能的一种方式,逻辑上还可以有其他无穷多种方式(例如笔者曾经推荐图灵机动物,类似于后来由马斯克提出的人机接口),那么,那些以其他方式构建起来的人工智能是否是心灵实体呢?显然,凭借图灵测试是不够的。仅凭借内部构造是否可以判断呢?例如,依賴量子原理构建起来的人工智能就可能是心灵实体,等等。然而,这种评判标准的确立有赖于科学上的理论预测,任何理论预测都必须经受证据的检验。但如果关于心灵能力的经验证据必须包含理解能力之存在性的证实,那么,这种证实就必须诉诸第一人称,可是科学证实最终要诉诸第三人称;如果采取第一人称转换为第三人称的方式,则一个即使是基于图灵机原理构建起来(从而没有理解能力)的人工智能也完全可以冒充自己具备理解能力。因此,这样的证实在逻辑上就是不可能的。

第二层次是日常经验上的。在日常经验中,我们是通过对工具的顺畅控制将工具排除于心灵实体之外的。然而,人工智能可以表现出像我们人类一样的行为特征,尤其是,它们看起来似乎拥有“自主”能力;如果我们一生下来就与这样的人工智能相处,我们是无法以排除法的方式将其排除于心灵实体之外的。诚然,如果这样的人工智能本身是有心灵能力的,因为我们的直接经验能够将其认定为心灵实体,似乎我们就能够确认其为心灵实体。然而,这种认定却是偶然的,不过是碰巧认定了一个心灵实体。因此,确认一个人工智能是心灵实体,我们必须拥有两种能力:第一种是直接将其经验为心灵实体;第二种是排除其为心灵实体的尝试是失败的。

如果我们在逻辑上和日常生活中都无法确定人工智能是否属于心灵实体,那么,我们就无法确定人工智能的道德地位,从而,人工智能是否属于心灵实体的机心难题就对道德哲学构成了一个严重的挑战。

四、一组手段伦理学规则

上述论证已经表明,我们无法从一般认识论的角度确定人工智能是否是心灵实体,从而从道德形而上学的角度无法确定人工智能的道德地位。那么,我们是否可以另辟蹊径,从规范伦理学的角度来解决这个问题?准确地说,我们是否可以从规范伦理学的角度绕开机心难题?下面本文将展示这样一个有希望的路径。

首先,我们需要确立一种关于手段或工具的伦理学。

在两种主要的规范伦理学理论中,功利主义原则中的“最大多数人的最大幸福”默认了其道德目标是人的幸福或快乐,但并没有在道德原则中明晰区分目的和手段,在其经典的原则中,特定情景下,少数人是可以作为最大多数人的手段的,因此,功利主义无法将目的(人)和工具(手段)原则性地区分开来。诚然,功利主义在形式上也需要考虑人工智能是否是人的问题,即如果人工智能是人,它就应该具备适应于效用原则的形式资格,不过实质上,即使人工智能已经是人,也可能被排除于最大多数人之外,仅仅作为手段。于是,在功利主义那里,人工智能的实质道德地位是不确定的。道义论(康德式的)则不一样,它明确地将人和手段区分开来了:不能仅仅将人作为手段,而应当同时作为目的。如果人工智能已经是人,它就具备作为人的道德地位并必须作为目的而不仅仅是手段。

然而,由于康德伦理学的主要目标是确立处理人的关系的道德准则,其对手段本身需要什么道德规则并没有展开讨论。对手段问题,我们可能会一般性地持有自由份子论的立场,即,手段总是服务于目的的,只要目的合理,手段如何使用在道德上都是被允许的;因此,我们可以任意改变工具的用途,任意销毁、闲置或过度使用工具,只要不冒犯人的尊严。但是,这种自由份子论立场可能无法通过一个延伸到手段的康德式可普遍化检验。

将康德可普遍化原则运用于手段或工具伦理学的总原则是:如此使用手段或工具,除非你也意愿使役某手段或工具的规则成为普遍的规则 。应该说,关于工具的任何使用规则都只是道德上允许的,而不是道德上要求的,因此它们本身都不是道德规则。道德上要求的规则,逻辑上有一个重要特征:其否定规则(即不道德规则)会导致该规则的自我抵牾(self-defeated),例如,“应该不说谎”是道德上要求的,因为其否定规则“(不)应该(不)说谎”会导致该规则“说话”冲突于其先天默认的“说话”应传递信息的功能,从而自我抵牾。

既然工具的使用规则并不是道德规则,只是道德上允许的,那么,其否定规则也是允许的,例如,“吃米饭”和“不吃米饭”都是道德上允许的,既然如此,为什么我们还应该遵循它呢?

一个工具之为工具,具有特定的使用价值,这些使用价值将蕴含在其使用规则中,而一簇特定使用规则将确定它是这样的工具,而不是另外的工具,这些规则规定了工具的自我同一性或“身份”(犹如簇摹状词确定专名的指称)。工具伦理学的这种特征不同于人的伦理学,人的伦理学只关注人作为理性存在者的这个形式特征,而不关心其社会角色和职务等实质规定性。

当我们获得一个工具的时候,我们已经接受了这些使用规则,这种接受相当于一个承诺或契约。因此,实际上工具伦理学是基于承诺而确立起来的,而“不违背承诺”是一个道德规则。也就是说,虽然使用规则只是道德上允许的,但当它们作为一个承诺的内容时,它们就具有假言的约束力了。例如,“吃米饭”只是道德上允许的,但当你在饭店点一份米饭时,你实际上就向饭店承诺了你这顿饭的主食应该是米饭。

根据上述工具伦理学的原则和契约论说明,我们可以得到如下规则:

第一,不应当制造仅仅将人当作手段的工具,即任何手段或工具都不应该冒犯人的尊严;

第二,既不应当过度使用工具,也不应当闲置工具;

第三,不应当制造销毁其他尚具有使用价值之工具的工具;

第四,改变工具的用途需要辩护。

上述四个规则总体概括起来可以称为“物尽其用”原则。其中第一条规则规定了手段伦理学的道德边界,即首先必须尊重人;这个规则也是人格道德原则(不应该仅仅将人当作手段)在手段或工具上的运用。

第二到第四规则都是与工具的使用规则相关的,相关于处于承诺下的内容。

第二规则中的“过度使用”显然应该包括过于频繁的使用和超过工具有效期的使用。这个规则可以以这样的方式得到辩护:一个工具被过度频繁使用将导致工具损坏,而损坏工具是使得该工具不再成为该工具的行为,与工具的同一性冲突;当一个工具超过其使用寿命时,它本身已经不再是符合原有使用规则的合格工具,而闲置的工具也不再被当作工具看待,等价于被(暂时)废弃。当然,具体的程度问题是一个实际的技术问题,这里不必深究。

第三规则包含了对冲突规则的禁止。一方面,一个使用中的工具根据规则二,它必须处于正常使用中,不该被销毁;另一方面,销毁该工具的工具则包含了中止其正常使用,因此,两者是冲突的,不可普遍化。

第四规则体现了对工具制造者的尊重,是可普遍化的。如前已述,每种工具被制造时都具有特定的用途,这种特定的用途被制造者明確或默认在其使用规则中,当我们遵守这些规则使用工具的时候就是对工具制造者的尊重,同时也是在履行某种工具契约(你在获得工具时已经明确或默认了这些契约)。但是,我们也应该意识到,工具的使用规则都是假言规则,与目的相关,其本身并不具有强制性的道德地位,在紧迫情景中需要改变假言规则,这些规则就是可以改变的。不过,这种改变是需要辩护的,例如,当其用途由A转化为B时,如果现场存在充裕的符合B用途的工具,这种转化就是不合理的。

五、基于手段伦理学的选言命令式对机心难题的解决

那么,上述手段或工具伦理学如何解决或避免机心难题呢?

上述伦理学规则几乎都是用道德禁止的方式表述的。其实,即使是康德人格道德原则,也可以用禁止的方式表述,即,不应该仅仅将人当作手段。这种禁止性表述逻辑上要求我们对违背禁止性规则的人或行动作出回应,然而,遗憾的是,康德伦理学无法直接回答这个问题,因为这将涉及惩罚,而在康德那里,道德与赏罚无关,只是每个人应当遵守的内在要求。

不过,幸运的是,康德也在其法哲学中承认,惩罚虽然不可能使得行动出自道德法则,却可以使得行动符合道德法则。因此,我们似乎可以处理违背禁止性规则的行动了。很显然,这种行动应当被禁止,即它们应当被阻止或中止,如果是人作出这样的行动则应当受到惩罚,例如限制自由。这里涉及“道德禁止”和“法律禁止”的语义学差别,但很显然,一种法律禁止必须基于道德禁止。

既然一个违背禁止性规则的行为应该被阻止或中止,那么,人工智能可以通过本身的技术做到这一点,例如,将一个冻结人工智能运行的程序或技术嵌入人工智能中,当其行为冲突于上述规则时,由特定执法者从外部启动该程序或技术中止人工智能违背禁止性规则的行为。

在这样的处理中,我们实际上并不需要关注人工智能是心灵实体还是非心灵实体,如果是心灵实体,该插入处理就是一个限制其自由的惩罚;而如果是非心灵实体,该处理就是一项机械故障冻结办法。

在这里,我们还必须对康德原则中关于目的与手段的关系做一个说明。康德原则表述到,你不应当把你和他人人格(person)中的人本(humanity)仅仅作为手段,而应当同时作为目的。根据这个表述,我们似乎会把在上述处理方式中违背道德规则(人格道德规则和工具道德规则)的人工智能仅仅当作手段。如果是这样,那就会同手段伦理学产生轻微的冲突,因为手段伦理学中的工具必须是符合手段伦理学的工具。一件工具如果冒犯了人的尊严或者违背了工具伦理学规则,它就不再是一件工具;同时,当一件工具因为使用中违背手段伦理学规则而被中止使用时,它也就不再作为工具(即使是暂时的);更重要的是,当一个心灵实体在违背道德规则时,我们也不可能将其仅仅当作手段。在伦理学上,一个手段或工具只有在符合人的合理目的(即尊重人)而被使用时,才应该被称为手段或工具,正如一个人只有在合乎道德地行动时,我们才称其为人,否则就不算一个人。因此,在康德原则中,除了是目的实体和手段实体之外,还有第三种可能,即作为既非目的也非手段的实体。也因此,当我们对一个违背道德规则的实体进行处理(惩罚或排除故障)时,我们是在将其当作既非目的也非手段的实体看待。这也解释了为什么我们此时可以持有中立的实践态度。

上述方式只涉及消極的方面,即惩罚问题。但还有积极的方面,即更为重要的尊重问题。对消极方面的处理似乎相对容易,而对积极方面的处理则难度很大。

很显然,如果人工智能是心灵实体,那么,我们人类就应该尊重它,而如果不是,我们就没有必要尊重它——尊重一个工具显然是荒谬的。现在的问题是,如果我们不知道人工智能是否是心灵实体,我们将如何对待它,是尊重还是不尊重?

在消极处理时,我们实际上是将处理方式中立化,不涉及态度,我们不必对一个冒犯人类尊严的实体持鄙视或愤怒的态度。根据康德主义的精神,这些态度是情感性的,并不影响行为的道德价值。但是,对这个中立的处理却可以有两种不同的诠释:一种是限制自由;另一种是解除故障。很显然,该处理的道德哲学意义在于诠释。

对积极的方面,我们也可以采取诠释的方式,但尊重行为本身并不是中立的技术处理,而是一种实践态度或道德态度,具有道德哲学意义。

首先,我们确立人工智能对人的尊重。那些不违背道德准则的人工智能必定尊重了人:如果人工智能是心灵实体,那么它本身就尊重了人;如果人工智能不是心灵实体,那么其设计和制造者尊重了人。然后,我们可以如此诠释对不违背道德规则的人工智能的尊重行为:任何一个不违背道德规则的人工智能,其行为总是由一系列规则指导完成,同时,它也会存在或产生一系列要求人们如何对待它的规则——由于人工智能总体上是尊重人的(不冒犯人的尊严),因此,这些规则和要求也不会冒犯人类。

如果这样的人工智能是心灵实体,那么其自主性也将体现在这样的规则中,正像人的自主性行动必定遵循一组行动准则(maxim)一样。这里需要特别说明的是,为了与工具的规则主义或原则主义立场(即将特定工具的身份看作一簇特定的使用规则)一致,我们这里也将人看作是一组普遍的道德规则构成体,而不是去规则的德性实体。

当我们依照这些要求或规则对待人工智能时,我们将体现出一种实践上的尊重态度:如果人工智能已经是心灵实体,那么,我们就是在尊重其本身;而如果人工智能不是心灵实体,那么,我们就是在尊重制造该人工智能的工程师。

对上述论证一个明显的反驳是,尊重是一种明确的态度,应该包含了对待被尊重对象的形象认定。例如,对方应该明确是一个人,否则就谈不上尊重。关于这一点,我们必须区别作为情感态度的尊重和作为实践态度的尊重。康德以《圣经》里“爱邻人”和“爱敌人”的态度为例区分了情感态度(病理学态度)和实践态度,前者属于自发的没有道德价值的情感态度,后者属于理性的具有道德价值的实践态度 。作为情感态度,可能一个人对被尊重者什么也不做,也可以拥有这种内部的心理态度(例如,当一个人暗恋另一个人时);但另一方面,即使一个人的行动处处表现为尊重另一个人,但他的内部感情态度依然可以是鄙视态度。这就是说,情感态度与行动表现可以是没有因果关系的。

然而,实践态度不一样,它必须表现在行动上,实践态度与行动本身是一种先天的概念关系。当一个人在行动上处处表现为尊重另一个人时,我们就说,这个人实际上持有一种尊重他人的实践态度或道德态度。诚然,这里会遇到另一个反驳,当一个非心灵实体行为上表现为尊重人时,它是否就是拥有了一种尊重的实践态度或道德态度了呢?当然不是,因为这个非心灵实体并没有完成一个真正意义上的行动,它没有行动意图或动机。因此,只有心灵实体才可能拥有一个尊重态度及其行动。也就是说,我们对尊重的说明不可能采取行为主义的方案。

回到前面的例子。假如一个人内心鄙视另一个人,这还仅仅是一种情感态度,但是他的每个行动都表现出尊重时,这些行动必然由动机来发动,而这些行动的动机本身必须是包含尊重意图的,否则不可能作出尊重的行动。在道德哲学的意义上,我们可以责备这个人伪善或虚伪,但我们不能否认他持有一个尊重的道德或实践态度。

因此,当一个人以满足某些要求或规则而行动时,这些行动必然包含了尊重这些规则的意图,如果这些规则或要求是作为心灵实体的人工智能提出的,我们就显然尊重了它本身;而如果是工程师加诸非心灵实体的人工智能,那么,我们就尊重了工程师。

根据上述所有论证,我们可以将上述绕过或解决机心难题的伦理学说明总结为“选言命令式(或析取命令式)”。这个选言命令式的析取将基于道德事实的析取:一个实体及其运行,要么冒犯了人,要么尊重了人。而析取命令式本身则可以包含两个层次:第一个层次是态度的析取(对待冒犯者的消极态度和对尊重者的积极态度),第二个层次是态度下对不同主体的析取。于是,我们得到如下析取(选言)命令式:

永远将一个冒犯人的实体看作既非目的也非手段的实体:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行。应当尊重一个尊重人的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人。

很显然,由于这个命令式是选言的,我们并不需要确定地知道人工智能是人或不是人。于是,我们通过对道德态度的实践诠释而成功地绕过了人工智能究竟是不是人的问题。在解决人工智能道德地位的问题上,即使这种方式不是强有力,但也算是成功的。

A Disjunctive Imperative to Treat Artificial Intelligence:

“The Problem of Machinery Mind” and A Normative Solution

Yan Qingshan

Abstract:  What moral status should be allocated to AIs is a really new problem in ethics, which deals with  the problem of other mind  and its variant, the one of machinery mind . Several solutions, i.e. analogical inference, theory of best explanation and criteria theory, have encountered difficulties. Modify the attitudinal approach, we can get a new approach named ‘pure attitudes/inferential eliminations: We directly experience other mind by pure attitudes and eliminate those entities without minds by inferences. But with such an approach we cant eliminate those AIs passed the Turing Test. The problem of machinery mind as a mataethical or moral metaphysical one, can be avoided on the level of normative ethics. Within Kantianism, we can establish an ethics of means, and then by combination with Kantian ethics of persons, we can deduce a disjunctive imperative to treat AIs as follows. We should regard any entity offending persons as neither end nor means: when it is a one with mind, we should limit its freedom; when it is a one without mind, we should stop its working. We should respect any entity respecting persons: when it is a one with mind, we should respect itself; when it is a one without mind, we should respect the person who makes it.

Keywords:  Artificial Intelligence; Problem of Other Mind; Problem of Machinery Mind; Ethics of Means; Disjunctive Imperative

猜你喜欢

人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!