APP下载

伦理框架的建构:当前机器伦理①研究面临的主要任务

2019-02-20苏令银

关键词:康德伦理学伦理

苏令银

一、引言

作为应用伦理学一个新兴的领域,机器伦理(Machine Ethics)正呈现出强大的发展动力,这在很大程度上得益于人工智能技术的蓬勃发展和人工道德主体(Artificial Moral Agents)的飞速发展及应用,而这些人工道德主体已经(或正在)大量应用于社会领域,执行着可能产生某种道德后果的行为。[注]R. Sparrow, “Killer Robots”,Journal of Applied Philosophy, Vol.24,no.1(2007), p.64.它们和人类一样,审慎地执行着我们为它们所预先设计好的道德行为准则。那么,在人工道德主体发展创新和应用过程中,到底应该遵循什么样的伦理框架?在大多数情况下,这样的疑问意味着应该如何把一个既定的伦理框架应用到人工道德主体建构中。但从没有人怀疑过:这种既定的伦理框架是否应该被外加于人工道德主体本身?把一个既定的伦理框架赋予人工道德主体能否获得成功?也就是说,人工道德主体最终能否成为真正的道德主体?因此,从工程技术的角度出发,为人工道德主体的健康发展和积极创新建构科学合理的伦理框架,就成为当前机器伦理研究所面临的一个最迫切的任务。

探讨究竟应该创造什么样的人工道德主体,是当前人工智能发展面临的一个最基本的问题,这比如何完善人工道德主体的程序更加重要。如果不能首先创造合乎伦理的人工道德主体,那么关于如何实现人工道德主体合乎伦理的应用就不可能最终实现。无论如何,后者产生的问题往往使得前者显得更加迫切。比如,如果不能在人工道德主体的设计过程中始终如一地遵循某种道德准则,那么要把创造合乎伦理的人工道德主体放在机器伦理发展的首位就是不可能的。换句话说,如果人们认为最好的选择是把某种外在的伦理框架强加在人工道德主体上去的话,那么,其结果就是要么不可能最终产生真正的人工道德主体,要么就会违背某种道德信条,所建构的机器伦理的框架也是令人难以置信的。实现伦理道德和人工道德主体之间的一致性,亦即建构一个伦理框架可以成功地应用于人工道德主体本身就成为机器伦理面临的一个任务。在这样一种伦理框架内,人工道德主体能够采取道德的行为,并按照这一伦理框架把创造人工道德主体作为机器伦理发展的首要目标。在这里主要通过检视康德的义务论道德入手来分析和阐释这一任务。

在机器伦理的建构过程中,尽管像艾伦( C. Allen)、格劳(C. Grau)、纳多(J. E. Nadeau)等学者提出了不同于康德式的伦理分析框架。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”IEEE Intelligent Systems, Vol.21,no.4(2006), pp.12-17; C. Grau, “There is No ‘I’ in ‘Robot’: Robots and Utilitarianism”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.52-55;J. E. Nadeau, “Only Androids can be Ethical”, In K. Ford, C. Glymour & P. J. Hayes (Eds.), Thinking about Android Epistemology, MIT Press,2006, pp. 241-248.但是,作为一种重要的道德理论,康德的义务论伦理学仍被许多伦理学家应用于机器伦理的建构过程中。例如,美国著名的伦理学家鲍威尔(T. Powers)就认为,康德的义务论分析框架被认为是把伦理道德成功运用到自主的机器人身上的最好机会。[注]T. Powers,“Prospects for a Kantian Machine”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.46-51; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”,AI & Society, Vol.22(2008), pp.565-582.美国学者安德森(M. Anderson, S. L. Anderson)也主张:“康德的以义务论为基础的伦理分析框架可以说是建构机器伦理最有前途的一种分析理路。”[注]M. Anderson, S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”,Minds and Machines, Vol.17(2007a), pp.1-10; M. Anderson & S. L. Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent”,AI Magazine, Vol.28,no.4(2007b), pp.15-26.他认为,作为一种典型的伦理范例,康德的义务论伦理学为我们提供了一种可成功用于人工道德主体本身并被它们有效遵守的伦理框架。当然,这种可能性仍然需要我们进一步追问:康德式的伦理分析框架是否真正把创造合乎伦理的人工道德主体放在首位?[注]到目前为止,在建构机器伦理中对康德义务论进行最深刻分析的是鲍威尔,尽管鲍威尔对康德伦理学的分析仍然停留在应用的层次上,但他从未考虑过它是否真正把创造合乎伦理的人工道德主体放在第一位。而一旦这个问题被明确提出来,也就意味着,试图创造康德式人工道德主体最终可能会是反康德式伦理的。一方面,严格来说,康德式人工道德主体并非真正的道德主体;另一方面,即使它们是真正的道德主体,那么这些人工道德主体的创造最终却违背了康德的义务论道德律。正因为如此,康德式人工道德主体的创造与康德义务论的分析框架是自相矛盾的。既然人们要求人工道德主体发展与伦理道德相一致,那么把人类所预先设计的外在的伦理规范强加于人工道德主体就是不可接受的。这一切所导致的结果就是,机器伦理学家必须另辟蹊径去寻求把伦理道德成功地应用于人工道德主体的分析路径。

二、当前机器伦理面临的一个主要问题

目前学术界在机器伦理研究中主要关注的就是赋予人工道德主体一个最好的伦理框架,以便使得人工道德主体本身及其行为更符合伦理。在建构机器伦理的研究过程中,许多不同的建议被提出来了,从工程学的角度来看,有一些建议是非常有前途的。当然在建构机器伦理的过程中,人们必须把创造合乎伦理的人工道德主体作为机器伦理的首要目标。尽管像安德森提出的“道德是否是一种可以被计算的事情”[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, p.18.是正确的,人们仍然需要追问:这种给定的道德是否应该被计算?美国著名伦理学家艾伦就非常清楚地表明:“机器伦理学家必须评估任何可以用于指导计算机程序做出伦理决策的道德理论和分析框架。”[注]C. Allen, W. Wallach & I. Smit, “Why Machine Ethics?”,p.15.事实上,仅仅这样要求还不够,还必须从发展的视角,进一步评估现有的道德理论是否更加有助于它的积极创新和健康发展,而不是仅仅停留在它对人工道德主体的约束性应用上。要求人们所创造的合乎伦理的人工道德主体和人类的行为有很大差异,或者允许它们违反相同的道德框架而去服从某种既定的伦理规范,在道德上是不一致的。而适应这种道德上的一致性,对机器伦理的建构来讲是一个迫在眉睫的任务。这种道德一致性的要求是多方面的,人们既需要人工道德主体能够始终如一地遵守它既定的道德规范,也同样要求所建构的机器伦理框架保持内部的一致性,从而保证在今后出现类似的道德情景时能够做出相似的道德价值判断。而且,人们也需要在不同伦理框架之间建立其内部的自洽性,使得这些伦理框架不仅在创建人工道德主体的阶段,而且在保障人工道德主体健康发展及应用等方面,都保持道德上的一致性,避免自相矛盾。

尽管人们希望人类所创造的人工道德主体在某些方面更合乎伦理,但是,只是一味地让人类所创造的人工道德主体遵守某种既定的伦理框架,而不是把创造合乎伦理的人工道德主体放在首位,这确实是虚伪的。正如纳多所指出的:“人类道德行为的地位在某种意义上来说是投射到人工道德主体身上而体现出来的。”[注]纳多在这方面走得更远,他甚至认为只有机器人可能是道德的,而人是不道德的。参见J. E. Nadeau, “Only Androids can be Ethical”, In Thinking about Android Epistemology, pp.241-248.换句话说,由于人类不是康德式的,甚至有时候还违背了康德式的道德理论,因此,人们希望创造一个康德式人工道德主体并严格要求它遵守康德式的伦理框架是根本不可能的。严格依据康德式的伦理框架所创造的人工道德主体恰恰是不道德的,因为,依据这样一种既定的康德式的伦理框架去创造人工道德主体,恰恰违背了康德的义务论道德律。当然,并不是说依据既定的康德的义务论伦理框架去创造人工道德主体根本不可能,只是说这样所创造的人工道德主体,结果却是反康德义务论的。但是有一点我们必须坚信,人工道德主体的创造与机器伦理的发展及应用是可能的。问题的关键是,为了做到这一点,必须找到一个与人工道德主体的创造及应用相匹配,并且能够应用,也允许应用于人工道德主体的伦理框架。当然,在回应这些争议之前,人们必须清楚当前机器伦理研究面临的主要任务是什么。

三、人工道德主体及其类型

在现实环境中,人工道德主体能够做出道德判断和执行道德行为决策,并产生一定的道德后果。艾伦、摩尔(Moor)、瓦拉赫(Wallach)等伦理学家都主张,这种人工道德主体必定会出现。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”, pp12-17; J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.18-21; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”, pp.565-582.安德森也强调指出:“机器伦理的终极目标就是创造这样一种人工道德主体,它应该作为人类明确的道德能动体。”[注]M. Anderson & S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”, pp.1-10; M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, pp.15-26.美国著名伦理学家吉普斯(Gips)则走得更远,他甚至主张:“建立合乎伦理的人工道德主体应该是整个计算机和人工智能技术研究中面临的一个巨大的挑战。”[注]J. Gips, “Towards the Ethical Robot”. In K. Ford, C. Glymour & P. Hayes (eds.), Android Epistemology, MIT Press,1995,pp.243-252.无论创造这样的人工道德主体是否可能,人们都会把在现实世界中创造这种人工道德主体作为机器伦理建构的首要目标。

那么,究竟什么是人工道德主体(又称道德的机器人,或道德的机器)?在这里,笔者比较认同詹姆斯·摩尔对人工道德主体所做出的四种类型的区分:[注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,pp.18-21.(1)受道德影响的人工道德主体;(2)隐性的人工道德主体;(3)显性的人工道德主体;(4)完整的人工道德主体。根据摩尔的观点,所谓的“受道德影响的人工道德主体”,指的是在某些方面对其环境有道德影响的计算技术。为此,摩尔首先举了一个在卡塔尔开展的骆驼比赛的例子。随着现代技术的发展,在卡塔尔曾经作为“奴隶男孩”的骆驼骑手已经被机器人取代,从而大大减轻了对这些“男孩”生命的强制性奴役。另一个例子是作为大规模杀伤性武器的原子弹。在这一层次上,人工道德主体根本没有什么道德性可言,它们也完全没有什么自主行动的特征。这些人工道德主体只是微弱意义上的道德主体,它们的功能所体现出的目的仅仅具有较弱的直接或间接的道德后果。

而在“受道德影响的人工道德主体”类型之上就是摩尔所指的“隐性的人工道德主体”。摩尔指出,在这种类型中,人工道德主体被设计成隐性地遵循某种道德规则,这样的人工道德主体不会做出不道德的行为。之所以会这样,首先是因为它们大多在任何强有力的情形中都无法采取真正的行动。如自动驾驶汽车和自动柜员机(ATM)就属于这种类型的人工道德主体。这些被设计的道德规则隐性地约束着人工道德主体的行为,以便使它们的行为在道德上可以被接受。这里重点强调两个方面:一是这些人工道德主体不能做出不道德的行为,除非它们出现机械故障;二是尽管它们在现实世界中做出行动,但是它们在这一层面上的行动几乎是没有自主权的。如果它们做出错误的行为,责任往往不在它们,而在于其设计者或用户。按照这种方式,正像摩尔所指出的那样:“人工道德主体的功能是一个隐性的道德主体,并不表示它们是成熟的人工道德主体。”[注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,p.19.

接下来两类人工道德主体具有独特的特点和功能。它们在世界上不仅经常表现出来,也可以在很少有人监督或者无人监督的情形下这样做,因为“显性的人工道德主体”有能力做出明确的道德判断和道德证明。美国已经提出或者正在使用的自主性自动武器就属于此类。[注]R. Sparrow,“ Killer Robots”,pp.62-77.比如,由美国海军研制的名为“鬼蝠”的水下无人航行器,它能够自动地搜寻、攻击和摧毁敌人的潜艇。[注]R. Sparrow,“ Killer Robots”,pp.63.“显性的人工道德主体”最好与摩尔所描述的“完整的人工道德主体”并列起来去理解。“完整的人工道德主体”超越了“显性的人工道德主体”,因为它们还具备了自我意识、意向性、情感性、创造性和自由意志等能力,它就像是一个正常的成年人。可以说到目前为止,尚未有人工道德主体达到“完整的人工道德主体”的水平,这类机器伦理研究的主要目的,是调查是否有可能去最终创造出“完整的人工道德主体”。值得注意的是,关于人工道德主体概念的争论仍在继续,一些人认为人工道德主体在任何重要的情况下都不能作为道德主体而存在,比如黛博拉·约翰逊(Johnson)就主张:“计算机系统可能是一种道德上的实体,尽管它们不能成为人工道德主体。”[注]D. G. Johnson,“Computer Systems: Moral Entities but Not Moral Agents”,Ethics and Information Technology, Vol.8(2006), pp.195-204.斯帕鲁(Sparrow)也主张:“即使人工道德主体是自主的,但是它们永远不可能对自己的行为承担责任。”[注]R. Sparrow,“ Killer Robots”,pp.62-77.托伦斯(Torrance)同样认为:“人工道德主体不可能成为真实的道德共同体的成员,因为它们不具备生物实体的某些独特的属性。”[注]S. Torrance,“Ethics and Consciousness in Artificial Agents”,AI & Society,Vol.22,no.4(2008), pp.495-521.另一方面,也有许多伦理学家提出了一些相反的看法,比如英国牛津大学教授佛罗里迪(Floridi)就主张:“人工道德主体可以成为‘完整的人工道德主体’,尽管它们也许只是在某种抽象的层次上。”[注]L. Floridi & J. W. Sanders,“On the Morality of Artificial Agents”,Minds and Machines, Vol.14,no.3(2007), pp.349-379.甚至有个别学者,比如卡尔弗利(D. J. Calverley)在这方面走得更远,他主张:“人工道德主体应该被赋予类似于人一样的法律地位。”[注]D. J. Calverley,“Imagining a Non-biological Machine as a Legal Person”,AI & Society,Vol.22,no.4(2008), pp.523-537.对这些争论,这里不再一一赘述。目的不在于探讨人工道德主体是否可以满足任何特征道德主体的标准,而在于它们是否符合康德式的道德标准。这也就是为什么笔者总体上不反对人工道德主体的创造,而是主张康德式人工道德主体的创造违背了康德的道德原则。在这里更关心的是任何显性的或完整的人工道德主体,即那些在世界上具有自主行动能力的、更加发达的人工道德主体的特征尤其与这里的讨论密切相关。一旦人工道德主体被禁止在现实世界中行动,那么人们所有的那些担忧就是多余的。同样,在这里大量的利害关系是基于这样一种观点:人工道德主体在很大程度上是自主的。而康德的道德理论认为,如果人工道德主体不是自主性的,那么它们就不是一种康德式的智能道德主体,因此,它们不应该,也不可能会受康德道德理论的约束;如果它们是自主性的,那么尽管它们是康德式人工道德主体,它们的存在也不过是一个道德悖论。为什么会做出如此的判断?有必要简要地介绍一下康德的伦理学理论。

四、康德伦理学的分析框架

鉴于这里讨论的是一个跨学科性质的话题,关于康德的伦理学理论的细节问题在这里不再赘述。这里突出强调康德伦理思想的三个主要方面:(1)道德主体的基础;(2)绝对命令在道德决策中的作用;(3)责任的概念。

依据康德的观点,道德主体有两个主要的组成部分:理性和自由(或自主)。只有那些具有理性和自由的实体才能够成为道德主体。只有那些超越先天经验而仅仅源于纯粹理性的道德律才对所有理性的生命体具有必然的、普遍的约束力。作为理性的法则,客观的道德律的目标是充当人们道德行动的指南,作为理性和理智的形式存在的人类自由意志必然会面对两个相互竞争性的冲突。然而,作为意志的倾向性是为了满足人们获得快乐和生存的基本需求(简言之,偶然性在很大程度上意味着欲望的结束)。理性具有不同的作用,理性按照客观道德律指导人们的行动,最终指向建立善良意志和道德品质。依据康德的观点,人类相互竞争性的冲突之所以出现,只是因为人类往往会违背道德律和屈服于感官满足的诱惑。正如康德在《道德形而上学》中所指出的,“责任意味着理性必将征服恶因滋生的倾向性”,[注]I. Kant,The Metaphysics of Morals ,Trans. M. Gregor, Cambridge University Press,1996,p.141.换句话说,采取负责任的行动的力量,部分源于人们可能会采取另外一种行动这一基本事实。在《道德形而上学》中,康德非常明确地提出:“一个人的道德能力如果不是在解决强有力的冲突过程中产生的力量的话,那么这种道德能力就不会是美德。在很大程度上,美德是纯粹实践理性的产物,在自由的基础上,美德获得了至高无上的超越意识倾向性的优势。”[注]I. Kant,The Metaphysics of Morals, p.221.

道德主体因为拥有自由意志,因此,它们可以违背道德责任(尽管这样不道德)。根据康德的思想,自由具有积极的自由和消极的自由两种形式。作为一个理性的道德主体,从消极的意义上来说,道德主体只要没有外在因果力量的支配就应该是自由的。从积极的意义上来说,道德主体只有在理性能够自由地赋予自身和遵循理性创造的道德律的情况下才是自由的,在这里自由意志仅仅隶属于主体本身。因此,在这种情况下道德主体能够完全自主和为自身立法。康德指出,“遵循道德规范会导致自由意志的弱化”,为了更好地理解作为诱发道德因果关系的自我,有必要预先假定自由的概念,并因此而构想出所有呈现因果关系的理性的存在。这样,面对意志倾向性的诱惑,绝对的自由意志就能够依据作为决策工具的理性去揭示自我的因果关系。在理性和自由作为道德的两个出发点的基础上,康德进一步通过绝对命令来阐明道德法则。为了评估某种行为在道德上是否被允许,一个道德主体必须测试作为个体行动原则的主观能动性准则对于客观的绝对命令的反对程度。为了符合某一道德准则,必须使得这一准则满足普遍道德一致性的需要。概括地说,也就是对所有道德主体来说,在给定相同道德情景的情况下,依据相同的道德准则会做出(也应该做出)行动。虽然康德明确表达了决定命令的几种形式,但他认为这些形式的绝对命令在总体上都可以达到同一的客观道德律。正如罗尔斯所指出的:“要想获得一个行动的道德地位,必须有助于应用既定的规则去审视所有的不同形态的绝对命令,从而在某种直接的情形中提供不同的角度。”[注]J. Rawls,Lectures on the History of Moral Philosophy, Harvard University Press,2000,pp.121-123.通过这种方式,绝对命令在决定哪些行为是负责任的、哪些行为是不负责任的方面具有启发性。就我们的目的而言,有必要明确前两种形式的绝对命令:

绝对命令一:只有当且仅当基于同一的自由意志的那些道德规则而采取的行动才能够成为普遍的道德律。

绝对命令二:你要这样对待人性,即无论是你的人格中的人性,还是其他任何一个人格中的人性,在任何情况下你都要同时把人当作目的,而不是仅仅当作一种手段。

依据奥尼尔(O’Neill)对康德伦理学的解读,所谓道德规则就是只需要据此行动,而不能被标注为概念上或意向性的不一致性。在某种程度上,一个概念上的不一致性存在于依据从外部世界排除了道德规则而行动的领域,因此,它就是个矛盾。倘若来自现实道德规则的要求是不可能的,那么,作为普遍的概念化的规则本身就是不可能的。例如,“一个人应该成为奴隶主”这样的道德规则是不可思议的,因为这样的道德规则普遍化,它却忽视了“因为存在奴隶主,也必须存在奴隶”这样的观点。但如果所有的道德主体都是奴隶主,那么没有人愿意继续作为奴隶而存在。可见,说所有的道德主体应该拥有奴隶主地位,这在概念上是不可能的,因为一种绝对的、一分为二的关系必然使它们在整体上受到损害。那些和意志力相矛盾的道德规则,往往产生于当道德规则和道德主体的自由意志不一致的时候;这种不一致经常产生于和道德主体不同的想法或竞争性的利益中,个体道德意志与自我发生了矛盾,并且未能作为同时达到规定的结果的手段。换句话说,一个道德主体间接地排除了应该自我负责的道德规则,想象自己是规则的例外,而其他的所有道德主体都受到约束,或者它同时希望两个相互矛盾的道德规则。对此,康德曾经明确提出:“如果我们现在偶尔参与我们自己违反责任的罪过,我们将会发现,事实上我们并没有将我们的道德准则看作一个普遍道德律的意愿。这对我们来说是不可能的。相反,只有当我们对自己所假定的自由能够支持(仅仅为了这一次),或赞成做出我们意志倾向的例外时,我们才会把我们的对立面看作一个普遍道德律。”这种类型矛盾的一个例子是,主张在世界上消除奴隶制,但同时又投票给某个容忍奴隶制的政党从而在某个州或国家保留奴隶制。在这里,意志冲突的产生是因为一个人不能始终如一地主张废除奴隶制,同时又愿意采取某种手段去维护它。[注]O. O’Neill, Constructions of reason: Explorations of Kant’s practical philosophy, Cambridge University Press,1989,pp.89-91.康德的道德框架是义务论的,这意味着它是建立在知道自己做什么是对的观点之上的,而不是基于职责做出行动。依据康德的观点,理性的人通过运用自己的理性而自主决定他们的职责。尽职尽责地行动是通向建立善良意志的唯一道路,这种善良意志是唯一不附加任何条件的善。在康德的伦理学中,责任的关键点是:为了某个道德的行动,它必须同时源于并遵守责任。在某些出于责任考量而行动(比如通过反射而承诺的行动)没有完成的情况下,尽管它们可能符合责任,但是严格来讲它们是不道德的。

以上对康德伦理学做了简要概括。根据康德伦理学的观点,道德行为是指那些符合绝对命令这一道德客观规律的行为;这些行为都是为了道德考量而出于责任做出的行为,它们都是由理性和自由的人(或道德主体)付诸实施的。接下来,笔者认为人工道德主体不能是康德式的,因为康德式人工道德主体本质上是不自由的,而且它们在很多方面违反了绝对命令这一道德律。因此,把康德的道德理论应用于此,已经走得太远了。通过这样一种方式,从康德式伦理学的视角去建构机器伦理,不能适应上面所提到的挑战,因此有必要寻求并确定一种能够实施,也允许实施的道德理论框架。

五、康德式人工道德主体与康德伦理学之间的悖论

康德式人工道德主体的创造并不符合康德伦理学,因为它并非真正意义上的道德主体,其创造在很多方面违背了绝对命令这一根本道德律。因为人们要求康德式人工道德主体能够道德地行动,事实上其发展却违反了康德伦理学,从而使得这种人工道德主体创造的道德性受到质疑,也使得人工道德主体创造者显得有些伪善。这样所产生的结果就是,尽管康德伦理学可以被应用于机器伦理的建构,但是,至少从它们在现实世界所表现出的行动而言,这些人工道德主体不应得到发展。可以从四个方面来论证这种观点。

1.康德式人工道德主体不具有自由意志[注]在这里我们假定康德并非一个包容主义者。通过这种方式,如果一个实体的意志被决定,即使为了支持不同观点的目的,决定论者和包容主义者也认为是道德的,然而关于这些道德主体不具有自由意志的主张有增无减。值得注意的是,尽管康德认为自由意志的存在是不可证明的,但他也主张自由意志是一个真正的道德主体不可或缺的元素。

回顾一下,根据康德的观点,道德主体的本质属性是双重的:既是理性的又是自由的。那么在其中一个或者两个属性都缺失的情况下,真正的道德主体也必然是不存在的。在这里假定所有的道德主体都是理性的,因为倘若没有理性,人工道德主体就不会是康德式人工道德主体。我所感兴趣的是人工道德主体是否自由,从而能够满足康德式人工道德主体前述两个方面的需求。人工道德主体往往以一种编程的方式被限制,甚至被阻止了行动的自由,事实上,所有针对道德主体的操作都必须遵循预先的程序,并由这些程序规则决定。[注]这一说法确实很有争议,一些人认为可以把自由意志灌输给人工道德主体。具体参见J. McCarthy,“Free Will—Even for Robots”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), pp.341-352.所有的行动被决定的人都不具备自由意志,尤其是对于机器伦理学家来说,首先要保证人工道德主体的行为是道德的,这一点是非常明显的。机器伦理的目标是创建一个合乎伦理的人工道德主体,而不是创造有时候道德地行为,有时候不道德地行为的道德主体。一方面,人工道德主体将按照预先植入程序的规则采取行动,决定执行某些功能、以某些方式采取行动、坚持某种认知真理,等等,重要的是它们不能超越既定的程序而采取行动(假定是最优化的行动)。另一方面,人工道德主体也将被编程而不能执行某些行动,不能以特定的方式行动,等等,尽管它们有这样采取行动的潜力。这样,康德式人工道德主体无论是就消极意义上的自由还是积极意义上的自由来说,都是不自由的。从积极意义上的自由来说,康德式人工道德主体是不自由的,因为往往不是机器本身而是程序员的规则限制了人工道德主体的行动;同样,从消极意义上的自由来说,康德式人工道德主体也是不自由的,因为从一定程度上来说,作为外部力量的程序员的意图往往决定了人工道德主体的行动。这样,人工道德主体所遵循的规则就是外部强加给它们的,而不是由它们自己创造的。军事的人工道德主体应该在眼前的目标是无辜平民时不开火,但是它无法抗拒依据既定的命令程序向敌方目标开火。比如,杀人机器人被用于军事目的,当它只能在某些程序员所赋予的程序规则范围内行动时,表明它是缺乏自由的。此外,人们可能不希望人工道德主体能够自由行动,尤其是可能会导致它们行为的部分不道德时。当然,并非所有不是出于自由的行为都是违反道德的。但涉及人工道德主体,限制不道德行为的情况就意味着某种自由的行为受到禁止。

此外,无论人们多么希望人工道德主体拥有自由意志,为了使它们成为康德式人工道德主体,它们需要自由和理性。在某种程度上,只有它们是自由的,其行为才是道德的,因为它们明显克服了一种非责任的倾向;否则,它们的行为既是不道德的,也是不能为自己的行为承担责任的。根据康德的观点,一个道德主体部分地拥有控制自己反抗某种道德律令的资格,从而具有了可以自由操作的能力,这是不道德的。[注]I. Kant,The Metaphysics of Morals,p.148.然而机器伦理的目标恰恰是减少人工道德主体在道德上某些不可挑战的倾向性。一方面,如果康德式人工道德主体不自由,那么它们就不是真正的道德主体。在这种情况下,机器不会认为自己受到既定道德规则的约束和限制,要创造合乎伦理的人工道德主体的目标就是失败的。虽然人工道德主体有可能道德地行动(因为它们没有自由去做其他的),然而它们却是缺乏道德的道德主体。更重要的是,人工道德主体不是一个恰当的道德主体,但也不是一个可以恰当地褒贬的对象(这一点将在后面讨论)。另一方面,如果人工道德主体是自由的,它们可能会不管它们的程序指令而故意做出不道德行为的选择。艾伦对此也表达了相同的看法:“正如康德认为的那样,如果人工道德主体具有努力成为善的意愿,并且拥有道德破坏的资格,然而我们使它们不具有做出不道德行为的能力,那么,我们将不可能创造出真正的人工道德主体,具有某种道德破坏能力的某种自主性将会是作为人工道德主体所必不可少的(最初所强调的)。”[注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), p.254.

因此,创造真正的人工道德主体的唯一途径,就是在某种程度上确保它们即使选择不道德行为时也是自由的,这是最有可能不被机器伦理学家理所当然接受的一个结果。否则,即使可以创造既有理性又有自由的康德式人工道德主体,然而在其他方面却违背了康德伦理学。其余的争论都围绕着康德式人工道德主体的创造可能以某种方式违背了绝对命令道德律展开,正因为这样,这对于提出创造康德式人工道德主体的明确的、可普遍化的主观规则是有益的。机器伦理的原则可以明确地表示如下:它必须能够创造出在世界上产生合乎伦理的行为结果、显性(或完整)的人工道德主体。机器伦理未能在几个方面坚持康德的道德法则,这并不是说不同的规则制定方法不能避免这种结果。例如,人们用“美德的”取代“康德式的”,这当然需要一个独立的调查来评估美德伦理的原则是否符合创造此类人工道德主体。当然,这不是说人工道德主体永远不可能被创造出来,关键是所建构的机器伦理的框架应该是把创造这种类型的人工道德主体放在首要地位。尽管这样做可能与康德的伦理原则相抵触,但康德的伦理原则却可以实现。当然,“它是否比其他道德原则更好”仍然是一个悬而未决的问题。

2.康德式人工道德主体的创造违背了绝对命令二

创造康德式人工道德主体,人们只是把它们当作手段而不是作为目的而对待。根据康德的伦理思想,人工道德主体自我生成,因此,它们应该受到尊重。违反这一道德律意味着把人工道德主体仅仅作为客体和用于实现其他目的的手段看待。对于人工道德主体是否可以被看作自我生成的,目前尚不清楚。康德主张:“作为道德主体的人类被看作人(即理性道德实践的主体),是超越于任何物体的价值的。因为作为一个属人的本体,他不仅仅是作为他人价值甚至自我价值实现的手段,而且作为一个终极意义上的、拥有尊严(绝对的内在价值)的自我,必须尊重这个世界上所有理性的生命,他可以基于和他们平等的地位去权衡自己与其他生命体的价值。”[注]I. Kant,The Metaphysics of Morals,p.186.为了被作为一个终极意义的自我而对待,康德式人工道德主体必须拥有尊严,并应该在道德社区中作为平等的一员得到所有人类(或其他道德主体)的尊重。这就需要像人类的权利、机会和地位那样,去赋予人工道德主体权利、机会和地位,这不是一个机器伦理学家希望走的路。无论如何,这对那些想要把人类的权利赋予人工道德主体以便使它们能理性行动的人来说,都是一种不小的负担。无论如何,现阶段的人类意识表明,人类都还没有把人工道德主体作为终极手段以外的意图。一旦人们用于考察他们创造更高级的人工道德主体的原因的时候,这种意图就变得很明显。艾伦就曾经强调指出:“人工道德主体拥有自主行动的能力对人类是有益的同时,也是有害的。”[注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”, p.251.为此,摩尔总结了发展显性的人工道德主体的三个理由:[注]J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,p.21.(1)伦理道德非常重要,人们希望人工道德主体更好地对待自己;(2)因为人工道德主体变得越来越复杂,使人们的生活变得越来越有趣,未来的人工道德主体会增加控制和自主行动权;(3)编程和教会人工道德主体使它们道德地行动,将有助于人们更好地理解伦理道德。摩尔的创造人工道德主体的理由非常清晰,假如人工道德主体能够以与道德完全相关的方式对待人类,人们就会希望它们能够更好地对待人类。同样,似乎也证明,假如人工道德主体在这个世界上是强有力的道德主体,那么,人们也会希望它们在道德上是平等的。此外,摩尔也不是唯一一个认为机器伦理研究对于从整体上理解伦理学是有深刻洞见的。正像安德森所提出的:“机器伦理在实现我们发现当前伦理理论的问题并重新推进我们从总体上思考伦理学方面,比以往任何时候的伦理发展都更加精致。”[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,p.11.尽管合理性就在于这些理由都是面向人类的终极价值——保护人类免受不道德行为的对待和价值的满足,提高人类对道德的理解;作为人类伦理代理的人工道德主体,提高人类享受的人工道德主体的创造等等——但是,却没有注意到作为人工道德主体本身的终极价值。因此,康德式人工道德主体的创造,似乎违背了绝对命令的第二条原则。这样,康德式人工道德主体的发展就走向了康德伦理学的对立面。

在《面向道德的机器人》一书中,吉普斯主张:“机器人的方法试图为了机器人自身的利益去建构道德推理系统或道德的机器人,因为这个道德推理系统可以为类似世界上的‘演员’和‘导演’带来好处,并且这个方法有助于提高人们对伦理学的理解。”[注]J. Gips,Towards the Ethical Robot,p.11.值得注意的是,吉普斯的道德推理大部分是人类中心主义的,他认为,道德的机器人的创造应该是为了“它们自己的利益”。如果这是正确的,那么,这种道德的机器应该(也能够)把它们自身看作目的,而不是仅仅作为手段而看待。如果是这种情况,那么康德式人工道德主体的创造最终和康德伦理学可能就是一致的。但是,吉普斯也不能提供任何支持他的观点的理由,实际上,即使人们希望这样做,但要想为了机器人自身的利益而创造道德的机器人是很困难的。在创造它们之前,对他们来说“利益”是不在场的,一旦它们被创造出来,它们就不可能会由人类赋予它们独立“利益”。对吉普斯来说,也许有一种为了机器自身的利益而去创造它们的方法,这种方法只能是慈善意义上的。然而,提出支撑这种有争议的观点的论据是有难度的。在缺乏论据支撑的情况下,康德式人工道德主体的创造显然违背了绝对命令二。

3.康德式人工道德主体的创造也违背了绝对命令一

康德式人工道德主体的创造,可以说也暗含了其他人工道德主体的创造,斯帕鲁说:“如果这样的人工道德主体受到道德意义上的赞扬或批评,它将是唯一起作用的方法。”[注]R. Sparrow,“Killer Robots”,pp.62-77.正因为如此,当验证道德规则的时候,(人类)道德主体需要考虑把人工道德主体包含在那些适用于共同的道德主体的、可普遍化的道德规则中。然而,由于人们一开始就把它们仅仅作为实现人类终极目的的手段而看待,人工道德主体自身将不会被宽恕(作为持久的机器伦理规则),因为,人们会理解为这与它们被既定程序所赋予的康德伦理学不相符。康德式人工道德主体承认机器伦理规则不能普遍化,因为它违背了绝对命令二(正像前面所论述的)。因此,它就不能作为其他所有道德主体必须遵守的规则,从而也就违背了绝对命令一。人工道德主体仅仅被作为手段而看待,这是不能宽恕的。因此,它不能认同机器伦理规范,从而导致了机器伦理规范违背了绝对命令一。

但值得注意的是,在道德考量的过程中,这个问题的结果无法仅仅通过简单地省略包含人工道德主体在内的更多道德主体成员的道德行为而得以避免。这些群体中真正的道德主体成员受到康德道德律令的约束是至关重要的,因为一旦这些人工道德主体不受道德律令的约束,它们就不会是合乎伦理的人工道德主体。在最坏的情况中,这些人工道德主体就会意识到它们的存在不符合它们被程序设计的、应该遵循的道德规则。因此,它们可能会意识到它们的存在在道德上是令人厌恶的。人们会发现人工道德主体处在了一种道德异化的状态中。人们甚至会发现,为了在世界上坚守道德,合乎伦理的人工道德主体可能会走向康德所说的“英雄的自杀”。[注]在《道德讲演录》中,康德区分了责任以外的英雄的自杀、该受责备的可恶的自杀和可允许的意外自杀之间的区别。英雄的自杀代表了在世界上基于坚守道德规范而采取的自我生命的终结,此种情况下,苟延残喘意味着会引起更加严重的道德悖论。总之,如果它们是康德式人工道德主体,那么它们被要求去遵守程序设计所赋予它们的道德律令,会使其认识到它们的存在不符合道德。

4.康德式人工道德主体的创造标志着自由意志的不一致

通过发展这样的人工道德主体,康德式人工道德主体的开发人员部分地暗示,当今世界应该把人工道德主体当作它们自己的终极目的而不是仅仅作为手段。这暗含着预先程序设计的人工道德主体必须遵循康德伦理学。与此同时,开发人员仅仅把这些人工道德主体作为实现终极目的的手段而看待。因此,人工道德主体的创造者将要求它们自己去做不可能做的某些事情。在某种意义上,康德式人工道德主体的开发者将会间接地谴责人工道德主体的创造(不论他们是否承认)。人们会要求人工道德主体能够道德地行动,然而通过这种特有的创造,人们恰恰是违背了道德。人们会要求自己像把其他道德主体作为终极目的那样去对待人工道德主体,但与此同时,却把人工道德主体仅仅作为实现人类中心主义的手段而看待。机器伦理规范提出康德伦理学应该被世界上所有其他的人工道德主体遵守。这个推论源于人们希望世界上所有人工道德主体的行为都应该是道德的。因此,不能同时坚持两个道德原则(机器伦理和反机器伦理)都是普遍的,其中一个原则必须终止。

总之,这里提供了四个方面的论据,来论证康德式人工道德主体的创造与康德伦理学是相互矛盾的。由于这些原因,机器伦理学家必须另外去寻找创造自主的人工道德主体目的的道德原则。

六、结语

正像前面提到的那样,这种论述不能应用于非显性的人工道德主体的创造。所有提出的反对康德式人工道德主体发展的争论,往往被“在世界上行动的人工道德主体并非真正的道德主体”这种观点所围绕。如果人们限制康德式人工道德主体的角色,以便它们在世界上不采取行动或者作为人类做出道德行动决策的代理人,这种担心就烟消云散了。

这种例子很多,包括像医学伦理机器人那样,一个被设计的机器人为我们提供生命伦理学方面的建议。[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,pp.15-26.像麦克拉伦(McLaren)的“说真话者”(这是一个被设计成旨在帮助学生区分说真话和撒谎的“诡辩的计算推理”的情况),[注]B. McLaren,“Computational Models of Ethical Reasoning: Challenges, Initial Steps and Future Directions”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.29-37.以及由加里尼(Guarini)所设计的、成功运用道德规则使之能够学习小说的链接式网络等,[注]M. Guarini,“Particularism and the Classification and Reclassification of Moral Cases”, IEEE Intelligent Systems, Vol.21,no.4(2006), pp.22-28.这些机器人被保证运用机器伦理来从整体上更好地理解伦理学。在这个世界上,没有任何机器人可以这样做,因此,它们的任何行为都不会产生直接的道德结果。这些机器人不会被看作真正自主的人工道德主体,它们的存在并不必然要求实现它们的行动与设计程序赋予它们的伦理框架相一致,从而在这个层次上不会发生任何的道德违规。然而,一旦人工道德主体应用于世界,那么道德上的一致性就变得不可避免。

尽管本文大部分是批评性的,但是它对机器伦理的建构还是有很好的积极影响的。通过证明康德式人工道德主体的创造是矛盾的,从而使得人们把某种可能的伦理框架成功地应用于人工道德主体的范围相应缩小。通过这种方式,人类会比以前更加接近找到应用于人工道德主体的恰当的伦理规范。这用于强调这样一个观点:自我强加给机器伦理的终极目的——创造在世界中自主地行动的人工道德主体——不一定在道德上完全不被允许。说到此,笔者怀疑其他的伦理框架也可能会提出同样类型的担忧。比如,某些功利的方法可能与功利主义的人工道德主体的发展不相一致。功利主义通常把“最大多数人的最大利益”作为其善的基本原则。这里的“善”(即效用)通常被认为是幸福或者快乐,但可能会被扩大到包括整体的仁慈之类的东西。[注]参见密尔的作为典型的功利者意义上的功利主义。这样,人工道德主体的发展可能会否定“效用”。例如,出于对货币资源的尊重而创造人工道德主体,像投资数十亿元去发展自主的、道德的机器人,或许会被恰当地用于终结全民的医疗保健、提高公共教育等。目前美国军队单独预留给未来作战系统项目的预算估计在690亿—1650亿美元之间(2006—2025年间)。[注]The U.S. Army Future Combat Systems Program. www.cbo.gov/ftpdoc.cfm?index=7122,2017年7月31日检索。可以说,实现这些目标将总体上有利于人类的善,因此,这将是“功利意义上要去做的事”。此外,大量的资源被用于军事领域,其目的是为了发展日益复杂的战斗性武器,进一步强化了非仁慈的要求。杀人无数并非意味着功利论的终结,尽管并非所有终结道德的机器人的发展都是军事的,而且创造它们所带来的一些后果无疑对社会公益是有利的。但是,人们需要发展功利论意义上的机器人,以及评估这种特殊类型的人工道德主体是否应该在被创造之前应用“功利的算计”。这些主张提供了一种令人信服的、反对功利论意义上的人工道德主体发展的论点,但关键是要考虑到所有把道德运用到人工道德主体上的伦理框架,需要在实施阶段之前就去评估这些伦理框架是否允许人工道德主体的发展。即使康德伦理学、功利主义伦理学等能够成功应用到人工道德主体上,这种伦理框架可能也不会把创造道德的人工道德主体放在首位。

如果事实证明创造康德式人工道德主体符合康德伦理学,那么作为一种规则对机器伦理来说就更好了。但令人担忧的是它们可能不是这样的。在这里,机器伦理面临的挑战是在我们“想实施什么”和“应该实施什么”之间保持一致性。而要找到满足这些要求的伦理框架原则上是不可能的。未来这一领域的研究不应该局限于实施的问题,研究人员也应该考虑选择用于最终实施的、伦理框架的伦理维度。否则,创建真正的人工道德主体的目标就会受到极大的威胁。

正像布鲁克斯(Brooks)所指出的:“我期望创造能够与当今人类共存的、完全自主的人工道德主体,并被人类看作拥有自我权利的智能生命……我在应用程序上毫无兴趣。在我看来,有一点是非常清楚的,那就是如果伦理框架仅仅通过我们(或他们)的想象力就决定了它在这些生命上的应用范围是有限的,那么我的目标就可以实现。我对哲学意义上的生物没有任何特别的兴趣,尽管很明显它有着重要的影响。”[注]R. A. Brooks,“Intelligence without Representation”,Artificial Intelligence,Vol.47(1991), p.145.本文试图探讨康德式人工智能道德主体的哲学意蕴,但这却是比较困难的。至少出于对康德伦理学的尊重来说,人工道德主体是不应该被创造的。康德式人工道德主体不是真正的道德主体,因此,它们不应受康德道德律的约束,也不应是道德褒贬的对象。但是,这种观点恰恰引起了争议。因此,即使康德式人工道德主体是真正的道德主体(人们一直是不愿意赋予人工道德主体的),它们的存在也违背了康德伦理学绝对命令的两个原则,同时也出现了自由意志上的矛盾。

人们要求道德规范的一致性,这种一致性的要求超出了人工道德主体的行为、道德准则和世界之间的关系。人们要构建的机器伦理框架,要求把道德规范运用到人工道德主体上,使得它把人工道德主体的创造和发展作为其首要目标。一旦缺乏这种道德规范的一致性,人工道德主体将不会是真正的道德主体,它们的开发人员会伪善地要求在创造这些人工道德主体的过程中遵循它们自己违背的道德信条。令人担忧的是,在缺乏把建立道德规范一致性放在首位的情况下而去创造人工道德主体,这在道德上是有问题的。尽管成功地把康德伦理学运用到人工道德主体的情况还是存在的,但是,所创造的康德式人工道德主体恰恰是反康德伦理的,要求建立这种道德规范一致性也是不可能的。这就要求人们需要找到两个方面都可以实施的、更好的伦理框架选择,并且这些原则必须把创造合乎伦理的人工道德主体放在第一位,这对机器伦理框架的建构来说是一个亟待解决的任务。

猜你喜欢

康德伦理学伦理
《心之死》的趣味与伦理焦虑
实践音乐教育哲学中的伦理学意蕴探析
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
论马克思伦理学革命的三重意蕴
护生眼中的伦理修养
纯接受性的被给予?——康德论自我刺激、内感觉和注意
伦理批评与文学伦理学
艺术百家
康德是相容论者吗?
对康德空间观的误解及诘难的澄清与辩护