人工智能的责任困境:以自主能动性和道德图灵测试为探讨中心
2020-12-08黄素珍
黄素珍
(上海师范大学 哲学与法政学院哲学系,上海 200234)
人工智能被认为是一种在机器上模拟、实现和延伸人类智能的技术,近几十年来这种技术经历了一个从以计算能力为核心的计算智能、以语音识别和图像识别为核心的感知智能的发展历程后,现在进入了认知智能的迅猛发展阶段,并深入到在物理性状上模拟人脑的生物性神经结构和功能,成为具有深度学习和高度自主控制能力的系统。一方面,人工智能被设计成即便脱离了人类的即时控制,仍然能够凭借其模拟认知神经网络而具备获取和重新组织新的知识、根据不同的具体情景改变自适应性等功能,并据此持续作出合理的决策和独立行动。在可预见的未来,它们的行为将越来越深入地影响人类的生活。另一方面,当高度自动化的人工智能由于能够自我调整以适应具体的工作任务,生产商对这一学习过程不再干预,而使用者往往无法清楚地理解和评估机器内部的算法机制与决策逻辑,难以预测其行为后果,对人工智能的行动决定权似乎已从人类手中转移到以算法和数据为核心技术的人工智能自己身上,加之设计者、开发者、生产者、使用者等相关主体与人工智能的行为后果之间缺乏清晰的、可追溯的因果关系,这就带来一系列严重的道德责任归属和分配问题。已经出现或可预见的困境包括:金融服务机器人如果根据大数据技术而自主作出导致投资者损失的金融交易决策,它能否对此负责;无人驾驶汽车如果撞伤行人或破坏开放领域内的私人财物,该事故应该由谁负责;脱离人力控制的军事机器人能否对误击平民的军事打击负有战争责任;医疗服务机器人是否需要对因其医疗决定而导致的医疗事故负责,或辅助安乐死的人工智能能否具备对人类生命质量的识见而代替病人做出医疗决策。
这些已经发生或很有可能发生的实践困境在三个方面挑战了传统责任观的条件:(1)在认知条件上,如果人类主体不了解或无法预测人工智能行为造成的后果,我们倾向于不对人类主体进行责任归属;(2)在因果条件上,如果人类主体的意图、意愿、决定等与人工智能的行为后果缺乏明确的因果关系,也无法因果性地控制该行为的发生与否,我们似乎也难以将其归责;(3)在心理条件上,人工智能模拟人类大脑神经的内部算法机制似乎能够自主产生与人类主体类似的决策、推理和行动能力,不受外部干涉和控制,那么人工智能而非相关的人类主体似乎可以甚至在实践上有必要被归责。此外,即使我们认为(1)(2)不足以消解人类主体的责任,但在人类设计者、开发者、生产者和使用者等多主体共同参与的情况下,我们仍然缺乏确定的标准把人工智能具体的行为后果的责任在这些主体之间进行恰当的归属和分配。这就会带来两个理论后果:要么我们承认人工智能具有道德行动者(moral agent)的地位,但很可能由此消解人类主体的责任;要么我们始终承认人类主体要对人工智能的行为后果负责,但仍然缺乏与传统责任条件不同的责任归属和分配标准。
本文试图以自主能动性和道德图灵测试为两个探讨维度,指出以深度自适应学习能力和自主控制能力为核心功能的人工智能因其缺乏道德心理学方面的特性,因此不能在本体论和规范性层面成为“充分的道德行动者”,但在解释性或描述性层面,人工智能作为“潜在的或隐性的道德行动者”在实践必要性的意义上应当被纳入人机复杂交互环境的道德责任的归属和分配机制。只有确定人工智能能否成为道德行动者,抑或始终只能被当作执行人类意图的工具,我们才能回应在多主体协作、人机广泛交互、后果不确定的情境中人类主体和人工智能各自的责任性质、归属和分配的条件,以便为设计出一个更安全、更可靠的人工智能技术环境提供一个构建共同体责任文化的理论支持,以恰当地评估人类主体和人工智能的伦理风险和相应责任。
一、“人工道德行动者”与道德图灵测试
针对机器人发展过程中可能出现的伦理风险,早在60多年前艾萨克·阿西莫夫(Isaac Asimov,1920—1992)就预见到有必要建立道德准则来指导机器人的行为,他确立了机器人三定律:“(1)机器人不得伤害任一人类个体,也不得因不作为而让任一人类个体受到伤害;(2)机器人必须服从人类的命令,除非这种命令与第一定律相冲突;(3)机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。”(1)参见Isaac Asimov, I, Robot. New York: Gnome Press, 1950. 同时参见Isaac Asimov, ‘The bicentennial man’ in The bicentennial man and other stories, New York: Doubleday, 1984.阿西莫夫的机器人三大道德定律旨在尽量减少冲突,因此,不伤害人类的要求优先于服从人类,服从人类胜过机器人的自我保存。随后,阿西莫夫在此基础上加上了优先于以上三条的定律——“第零定律”(Zeroth Law):“机器人不得伤害人性,也不得因不作为而伤害人性。”(2)同上,同时参见Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 48.阿西莫夫的机器人三大定律开启了机器伦理(machine ethics)、机器人伦理(robots ethics)、计算伦理(computing ethics)或人工智能伦理(AI ethics)的先声,这些理论认为有必要以伦理规范约束人工智能技术的发展,以降低其伦理风险,提高人类福利和其他社会价值。为了达到这个目标,最好的方式就是在编程层面把基本伦理原则变得是可计算的,从而通过编程的方式将其嵌入机器的行为机制中。(3)参见Michael Anderson, Susan Leigh Anderson, “Asimov’s ‘Three Laws of Robotics’ and Machine Metaethics,” in AI and Society (2008) 22:4, pp. 477-493.
艾伦与瓦拉赫认为,这种自上而下的进路存在三个主要缺陷:首先,它不过是把传统的规范伦理学理论直接应用于技术领域,并且还忽视了新一代人工智能能够模拟人类神经认知的机制,它是一个高度复杂的自动系统,没有任何单一的算法能够因果性地决定某一人工智能的一切行为。第二,这一进路忽视了各个规范伦理学理论已有的内部困难,以及由此带来的在编程上如何实现“可计算”的问题,例如对于功利主义,什么是效用,以什么标准衡量效用与其他人类价值的冲突,这些问题仍然属于功利主义内部悬而未决的理论问题,更不用说在机器编程上实现出来功利主义原则。第三,传统的规范伦理学理论的目标都旨在追求抽象的普遍性和逻辑上的自洽性,因此难以把实践中所有相关的复杂情况都容纳在内,因此也就难以断定针对一类经验情境,采用何种规范伦理学理论作为算法原则才是最恰当的。(4)参见Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009.
因此,艾伦与瓦拉赫试图绕过规范理论上的普遍分歧,不预设道德行动者的本体论或形而上学前提,也不断定人工智能能否合乎伦理地行动,而是借用图灵测试,将其转化成“道德图灵测试”。图灵测试源自英国著名数学家、计算机之父阿兰·图灵在1950年提出的一个开拓性的问题:“计算机能够思考吗?”他的基本思路是,“机器如果在某些现实条件下能够非常好地模仿人类回答问题,以致使回答在相当长的时间内被误认为它不是机器,那么机器就可以被认为是能思维的”(5)图灵测试被公认为奠定了人工智能的理论基础,参见Alan Turing, “Computing Machinery and Intelligence”, Mind, (1950) 59: 236, pp. 433-460. 中译本参见[英]A·M·图灵:《计算机器与智能》,载[英]玛格丽特·博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2001年版,第56-91页。。图灵测试的思路预设了行为主义和操作主义,智能首要地被定义为语言能力,一个人通过一系列对话(语言行为),如果不能区分与他对话的是人抑或机器,那么就可以认定这台机器类似一个人类主体,或具有人类的思维智能。艾伦与瓦拉赫的道德图灵测试延续了这一基本思想:假设某人分别与一台人工智能和另一个人进行道德性质的对话(例如分别提出以娱乐为目的猎杀动物的行为是否是不道德这类问题),如果提问者不能以高于一般常人偶然出错的方式分辨出与他对话的是机器还是人类,那么我们就可以宣称这台机器是一个“人工道德行动者”(Artificial Moral Agent,下文简称AMA)(6)Wendell Wallace, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 70. 同时参见Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, pp. 254-255.。这一测试并不预设任一道德标准,就算这台人工智能认为猎杀动物的行为在道德上是可接受的,甚至撒谎欺骗对话者,令其相信它是人类,只要它提供了恰当的道德理由,我们就可以合理地相信它是一个道德行动者。
艾伦认为,如果AMA是可能的,那么剩下的问题就是在算法层面上实现AMA,这需要把特定的道德认知和道德推理过程转变为AMA决策过程的有机组成部分,将道德规则程序化或变得是“可计算的”(7)Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, p. 253.。在这一点上,尽管他们承认自上而下的进路存在诸多缺陷,但仍然采用这一进路,以“道义逻辑”的方式在AMA的算法结构上编入可计算的伦理规范(例如功利主义、义务论、契约论、双重效应学说等)。同时,他们也看重“自下而上的进路”(a bottom-top approach),即人工智能在经验性情境中通过案例学习(case study)模拟人类的道德行为,调整或修正事先通过编程而嵌入的算法规范,从而间接地获取普遍而抽象的道德规范在具体情景中的应用规则,并利用它们来指导未来的决策,甚至形成类似人类的社会性情感关系。为了使这两条进路能够共同发挥作用,他们把作为道德决策核心的自主性能力和与道德事实相关的敏感性能力作为AMA的两个必要条件,它可以被设计成可以根据对规范的理解作出自主的决策,进而决定自己的行为。
但令人困惑的是,艾伦与瓦拉赫并没有回应针对标准图灵测试提出来的“语义理解”问题是否同样会发生在道德图灵测试上。对标准图灵测试的经典批评来自约翰·塞尔对“强人工智能”的评论,根据塞尔的观点,人的心理活动的意向性本质必须以大脑的生理—生物特性为基础,表达的是对语言的语义理解,而不在于计算机是否具有与人一样的外在行为或功能状态。计算机的程序纯粹是句法的或语法的,是运用形式规则对抽象的符号进行形式操作,而人的心理过程的根本特征在于语义属性或语义内容,即对词汇形成意义理解或意向性活动,因此计算机程序不能等同于人类心智。(8)[美]约翰·塞尔:《心灵、大脑与程序》,载[英]玛格丽特·博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2001年版,第92-120页。与图灵测试面临的问题类似,艾伦与瓦拉赫并没有断定AMA能否理解和识别对话情境中的伦理要素和道德词汇的意义,因为要确定一个行动者是否理解和恰当使用道德词汇的语义,远比确定它能否理解非道德词汇要棘手得多。对具体情景中伦理要素的理解是一个社会化建构的过程,人类个体在其中逐渐发展自己对情景中伦理词汇的“语义学”的理解能力、同情能力和敏感性,并区分哪些要素具有道德重要性,哪些没有,从而形成道德判断和自身行动的道德理由。机器为了可以胜任对话,使得人类观察者确定他是在与一个道德行动者打交道,我们需要假定它必须理解讨论中所设计的全部情境,区分这些情境中哪些与道德理由相关,清楚支撑道德话语合理性的社会生活语境,以及理解这些话语对道德主体内在状态的影响。但为了让机器以有意义的方式参与道德对话,它就必须已经理解道德话语的意义,而为了达成对道德话语的语义理解,它必须已经参与到道德的社会化建构过程,即为了通过道德图灵测试,它已经是一个道德行动者,那么这就犯了循环论证的错误。与之相对,人类主体之所以具备这些能力在于他一直处于主体交互的“生活世界”中,与他人共享一个意义和共情的世界,在此背景中进行有意义的道德对话和道德辩护。没有任何一种人工智能算法能够容纳生活世界的全部参照信息从而作为启动应用的初始条件,如果有,那么它就添加了道德图灵测试根本没有预设的大量经验性前提,因而它只能限于用在经过高度人工信息过滤和人为设计的环境,而这根本不是我们所设想的人类正常的道德对话情境。
另外一个严重问题在于他们对自主性概念的使用。艾伦和瓦拉赫之所以强调以“自主性”定义AMA,是因为他们意识到单纯强调用道德规范从外部约束人工智能设计者和操作者的行为是不够的,还需要在人工智能的内部结构中设置能够进行“伦理推理”的算法机制,即“把伦理放入机器中”,通过“自上而下”的编程程序和“自下而上”的案例应用两个方面让AMA成为现实。这背后预设了一个道德认知主义的前提,即认为心灵本质上是一个处理信息的机制,道德决策和道德推理的过程可以类比为计算的过程,因此,计算机作为一个信息处理系统,只要输入足够多的“道德规则”(算法)和“道德知识”(信息),那么计算机就能够根据更高层次的规则将信息应用于具体情景,它也就能因此被赋予道德行动者的地位。但他们默认使用的自主性概念来自于对当代人工智能技术中自主学习能力的观察,并没有提出一个关于自主性的清晰论述,他们看起来更像是未加区分地就把人工智能脱离人类控制的“自动化”行为类比为人类行动者的“自主性”行为。此外,对自主性概念的简单化处理导致他们过快地从对人工智能自主能力的经验描述过渡到认为它们具有规范性意义的伦理主体的地位,即在认知主义伦理学的框架内把“自主的行动者”等同于“道德行动者”,在这一点上,他们并没有对自主性与道德能动性之间的关系展开充分的前提论述。
此外,通过道德图灵测试的人工智能系统不管其认知能力和自主决策能力多么强大,我们仍然可以合理地怀疑它们是否具备道德敏感性。正如上文所述,即便观察者通过道德对话,可以确定某一人工智能能够进行道德推理和道德辩论,我们也不能肯定它能以道德敏感性实现事实行为,例如具备共感和同理性,有能力理解他人的感受,对相关的伦理要素具有敏感性,能够在复杂的情况下作出有效的伦理判断,并能够评估它们的行为可能带来的道德和社会后果,例如医疗服务机器人需要衡量病人对物质福利的需求和对自主价值的需求。道德敏感性意味着人类行动者总可以质疑他被给予的道德要求,但要假定人工智能可以意向性地质疑算法给予它的目标或经过自下而上的方式而获得的道德知识,这就需要设置超出道德图灵测试之外的关于人工智能是否具有自我意识、意向性、自由意志、自我反思、动机等内在特质,而这正是艾伦和瓦拉赫使用图灵测试所意欲排除的前设条件。
瓦拉赫已经意识到为了让人工智能能够以伦理的方式推理和行动而建构的AMA仍然面临某些关于价值选择的道德风险。(9)参见Wendell Wallach, “Robot minds and Human Ethics: the Need for a Comprehensive Model of Moral Decision Making”, Ethics and Information Technology (2010) 12: 3, pp. 243-250.例如一辆无人驾驶汽车可能面临是撞向突然冲出马路的行人以保护司机还是紧急刹车但伤害司机的选择,一个医疗服务机器人可能面临为了促进病人的福利而喂药或尊重病人的意愿不喂药的选择。在这两个场景中,这辆已经具有深度学习能力的无人驾驶汽车和医疗服务机器人“应该”作出什么样的具有道德涵义的决策?它能否“理解”这个场景属于一个道德两难困境?我们应该根据什么规范标准把它作出不同决策而带来的“道德责任”归到它们身上?
(4)铣槽机施工成槽时对周围土体扰动较小,一般不容易出现大量漏浆塌槽的现象,小量漏浆时需及时调整泥浆性能指标,补充槽内泥浆,同时也应在现场储备足量的粘土、膨润土、水泥等堵漏材料,以免在造孔过程中遇特殊地层出现槽孔大量漏浆时应对不及而导致塌槽,造成施工安全隐患。
因此,即便AMA在决策能力方面具备最低限度的自主性,甚至通过自下而上的学习模式,形成了类似人类情绪反应的能力,并根据由算法嵌入的框架和相关的伦理要素作出道德评估和道德选择,我们仍然需要澄清以描述性和规范性两种维度呈现出来的不同的自主性,继而在道德心理学层面判定人工智能能否对它行为后果的“道德对错”具有不同的实质性的语义理解能力和情感反应能力。因此,他们通过道德图灵测试得出AMA可行性的结论与其说是证成,不如说是“类比”。
二、自主能动性:描述性与规范性
艾伦与瓦拉赫认为,“自主性”是构成人工智能之所以成为AMA的要素,这项能力指的是在操作和决策“自主”方面脱离人类控制的自动性和独立性。但是艾伦与瓦拉赫对自主性概念的使用存在一个严重问题,如果AMA能够自主行动并参与到道德情境中,那么它们是否能够对规范作出充分反应这一问题就会凸显出来。为了澄清如何从对人工智能核心能力的描述过渡到它们由此具有道德规范性意义上的“道德行动者”的本体论地位这一问题,我们需要在行动哲学与道德哲学交叉层面阐明自主性概念的描述性和规范性双重涵义。
在当代行动哲学中,“自主性”理论的重要源头之一是由哈里·法兰克福(Harry Frankfurt)发展起来的自主性层级模型(hierarchy of autonomy)。法兰克福试图以意愿的层级结构和认同概念建立一个关于人类能动性的论证模式,把自主性视作个体通过对低阶欲望进行批判性反思的认同活动,进而把人类行动者与其他类型的行动者区分开来。(10)参见Harry Frankfurt, “Freedom of the Will and the Concept of a Person,” Journal of Philosophy (1971) 68, pp. 829-839.法兰克福的自主性理论模型没有直接诉诸传统形而上学的“意志”概念,而是以“意愿”(volition)或“欲望”来指向“意志的内在组成”(inner organization of the will),作为行动者概念化自我的手段。通过把个体欲望区分为“一阶欲望”和“二阶欲望”,法兰克福认为个体是自主的,或者说他的行为之所以是自主的,乃在于直接激发行动的一阶欲望被二阶欲望所“认同”(endorsement/identification)(11)参见Harry Frankfurt, The Importance of What We Care About, Cambridge: Cambridge University Press, 1988, pp. 12-25. 中译本参见[美]哈里·法兰克福:《事关己者》,段素革译,浙江大学出版社2010年版。。所谓一阶欲望指的是行动者对于行动对象的直接欲求或意向,即我们最初形成的想做某件事的心理倾向,而二阶欲望是我们对一阶欲望的欲求,它反映的是我们经过反思性评价并意愿真正实现的欲望。只有得到二阶欲望认同的一阶欲望才是行动者本真的或真正属己的欲望,这样出于本真欲望而发出的行为才能称得上是自主的选择和行为。
“认同”概念在这里是法兰克福意愿结构的核心,认同是一个心理活动与心智活动的过程,在这个过程中,行动者的意向活动,尤其是欲望,整合成为真正属于或由行动者所创制(authorize)的东西,通过二阶决断的过程,特定的欲望才能真正“属于”这个行动者,才能真正表达行动者的真实意志。“当一个人认同自己的欲望的时候,他对它们是能动的,他所作的事是他主动的。”(12)[美]哈里·法兰克福:《事关己者》,段素革译,浙江大学出版社2010年版,第61页。行动者通过运用认同能力,作为二阶决断的结果真正体现他的自主能动性(autonomous agency),一个个体行动是自主的,当且仅当行动者的行动决断来自于他的本真的反思认同;一个个体人格是自主的,当且仅当他的选择与行为是他“全心全意”真正欲望的东西,与其“真实自我”相吻合。按照法兰克福的说法:“一个人对自己的一个二阶欲望的认同,那个欲望变成了一个二阶决断。那个人因此就担负起对有关的一阶和二阶欲望以及这些欲望引导他实现的那些行为的责任……对于我们内心生活,对自我欲望的认同……在人类精神性(mentality)的现象学和哲学中都起到首要的作用。”(13)Harry Frankfurt, Necessity, Volition, and Love, Cambridge University Press, 1999, p.132.
对欲望/意愿结构的层级性划分非常简明地刻画了人类行动者所具有的倾向性、意向性、主观性或精神性特质,即我们并非按照直接的欲望而行事。二阶欲望与一阶欲望的区分以及前者对后者的认同活动形成了一个“反思性距离”、“反思性的自我评价”或“意愿的结构”(14)[美] 哈里·法兰克福:《事关己者》,段素革译,浙江大学出版社2010年版,第62页。,这个距离使得我们能够对最直接的欲望进行有意识的反思,在此基础上才有可能作出真实的选择和决定。自主行动的可能性也正在于个体并不是受 “欲望”的直接驱动而行动的,而是对“一阶欲望”具有一般反思的能力,即形成对一阶欲望的二阶欲望,这也是人格与非人格(例如动物)的本质区别之一。
从上述分析来看,法兰克福的欲望层级模型和反思认同是价值中立(value-neutral)的,他并不考虑欲望内容的社会性来源与评价性维度。(15)基于欲望的社会性对法兰克福提出的批评,参见M. Berstein, “Socialization and Autonomy,” Mind (1983) 92, pp.120-123。以及Charles Taylor, Sources of Self: The Making of Modern Identity, MA: Harvard University Press, 1989.在他看来,自主性并非是一个实质性的价值,而是一种反思性的决定能力;重要的不是形成“正确的”欲望,而是形成本真的决断和本真自我。他的理论并没有回答行动者到底能够依据什么标准对欲望进行选择和评价,因此二阶欲望很有可能自身并非是自主的,为了判断二阶欲望是本真的,行动者就需要形成三阶、四阶欲望等无限回溯的意愿链条。正如沃特森指出的,法兰克福的模型没有区分“欲求”(wanting)和“评价”(valuing),正是评价系统构成了一个人看待世界的支点,如果失去此支点,个人也就失去了“作为行动者的同一性”(16)Gary Watson, , 1975. "Free Agency," Journal of Philosophy (1975) 72, p. 106.。由于法兰克福的自主性理论只是聚焦于作为程序性能力的自主性,以描述性的方式刻画自主人格的特征,但因其内涵过于单薄,难以真正区分由行动者的内在力量激发的“行动”与物理性质的“事件”。因此,法兰克福的自主性理论难以说明和证成他提出来的目标:“行动不仅仅是发生在这个人之内或他身上的事情,而是他作为一个行动者而做的事情”(17)[美]克里斯蒂娜·科尔斯戈德(又译科丝嘉):《柏拉图与康德伦理学中的自我构成》,葛四友译,载《世界哲学》2011年第3期。。
针对法兰克福自主性理论中规范性缺失这一问题,科尔斯戈德提出了一个以“实践同一性”为核心的实质性自主性理论。在我们诸多实践身份里,她认为最为重要的是我们的“道德同一性”,即我们“把自己的人性看作是规范性的、看作是理由和义务的来源”(18)[美]克里斯蒂娜·科尔斯戈德:《规范性的来源》,杨顺利译,上海译文出版社2010年版,第148页。。科尔斯戈德认为,我们的实践同一性正是“规范性承诺”的来源。实践同一性的最终根源在于行动者的本质是具有自我意识,并根据理由而行动的个体,这样的个体是形而上学意义上的自我建构的统一体,关涉到我们如何看待“自己是谁”。实践同一性最终也就是具有自我意识的行动者根据自己对个人同一性的认识而反思认同的建构结果,“自我意识的反思结构必然地把我们置于在我们自身之上的权威和我们作为一个结果”(19)Christine Korsgaard, Self-Constitution: Agency, Identity, and Integrity, Oxford: Oxford University Press, 2009, p.10.。科尔斯戈德使用康德式的道德话语,认为道德规范性通过“自我认同而完成”:“只要你是一个理性存在者,你就必须在自由观念之下行动。……你把你自己而不是你依之而行动的那个诱因看作是你行动的原因。康德认为你就必须基于一个普遍法则去行动。除非你普遍地意愿,否则你不可能把自己看作是你行动的原因——你不可能把这个行动看作是你自己意志的产物。”(20)[美]克里斯蒂娜·科尔斯戈德:《柏拉图与康德伦理学中的自我构成》,葛四友译,载《世界哲学》2011年第3期。根据这一观点,具有一般的实践同一性同时就意味着行动者必然发展出道德规范性意义上的实践同一性。
根据科尔斯戈德的观点,要构建具有这一特征的成功的规范性理论必须满足三个条件。首先,一个成功的规范性理论要基于第一人称的视角,而基于第三人称的理论只具有现象解释的作用。所谓第一人称指“从自己的角度看”,主体反思所要接受的原则或规则是否得到“证成”,因为无论我们被给予什么样的规范,我们总能提出自我追问:我为什么要服从那样的道德要求?我为什么应该是道德的?换句话说,规范性问题必须是针对道德行动主体而提出来的道德证成问题。(21)[美]克里斯蒂娜·科尔斯戈德:《规范性的来源》,杨顺利译,上海译文出版社2010年版,第15页。第二个条件是“动机透明性”,它被用以解释道德规范性如何能够激发我们产生一个行动动机。第三个条件是自我意识,它要求合格的规范性理论能够说明,为什么主体会对自己实施的道德错误产生强烈的愧疚感,甚至会产生自我同一性的危机。(22)[美]克里斯蒂娜·科尔斯戈德:《规范性的来源》,杨顺利译,上海译文出版社2010年版,第18-19页。
科尔斯戈德按照实践同一性概念对法兰克福的反思认同概念进行了转化。正因为人具有反思认同的意志结构,因此人不会依据直接的一阶欲望行事,而是“出于理由”而行动,行动者也由此对自己的理由形成了一个“承诺”(23)[美]克里斯蒂娜·科尔斯戈德:《规范性的来源》,杨顺利译,上海译文出版社2010年版,第113页。。但不同的是,法兰克福的反思概念涉及的是如何鉴定出一个本真欲望的实现过程,而科尔斯戈德的目标则是要鉴定出一个最具有证成力量的规范性理由。其中占主导地位的不是心理意义上的欲望,而是基于主体自我意识的反思结构,即作为整体的人格其本质是“他必须出于理由行动”(24)[美]克里斯蒂娜·科尔斯戈德:《规范性的来源》,杨顺利译,上海译文出版社2010年版,第114页。。在这个理论框架中,一个行动者要具备道德能动性,首先必须将自己反思认同为能够根据规范理由而行动的主体。
根据上文的分析,如果援引法兰克福价值中立或单纯作为描述性概念的自主性去理解人工智能的能动性特点,认为人工智能具有与人类行动者类似的自我导向、自我管理、自我决策的能力,能够根据多个选择项制定并执行一定的行动策略,这只能说明一般意义的基本“行为”(behavior),而非由行动者基于内在意愿结构而发出的“行动”(action)。而按照科尔斯戈德的规范性自主性理论,认为一个具有高度自主系统的人工智能能够对其行为具有责任能力,那我们就忽视了成为道德行动者最基本的规范性条件:它不仅能够理解,并且也能够基于自我意识进行反思认同的过程,根据得到证成的道德理由去行动。因此,当艾伦与瓦拉赫把“自主性”作为AMA的特征时,他们指的是机器脱离了人类的直接控制而能够继续以自动化的方式运作,这是最低程度的自主性,而非在刻画与物理事件本质上不同的“行动”特征,更不足以说明AMA具有道德规范性意义。因此,不管在描述性抑或规范性层面上,他们言说的不是在行动能力和规范性意义上的“自主性”,而是一种概念上的误用。
三、责任归属:一般行动者与道德行动者
艾伦与瓦拉赫力图建立AMA旨在解决这样一个问题:除非我们赋予可自主作出行动决策的人工智能以道德地位,否则我们在传统的责任归属条件下难以解决因人工智能迅猛发展而产生的责任消解或责任感模糊的问题。但专注于为人工智能配备道德决策能力,而不关注人工智能嵌入其中的社会系统,人类主体的责任感很有可能在漫长的技术链环中被消解;同样,完全剔除人工智能的伦理位置,人机交互技术环境的复杂性就会遭到忽视。他们所诉诸的道德图灵测试和自主能动性都存在概念上的问题,因此不能满足道德能动性的恰当条件。
正如上文所述,除了最基本的不受外部控制的自主性能力,一个能够承担道德责任的行动者还应当具备道德敏感性,包括识别具体情景的道德要素的能力、判断道德价值的优先性、理解什么样的普遍规范和价值能够被用于具体情景等认知能力,即行动者不仅在行动上看起来是符合一定的规范,他还应当出于对规范的语义理解而做出意向性的行动,能够对自己的行为作出规范性评价和反思,并对此具有道德性质的反应性情感。反应性情感在这里主要指识别和作出恰当情感性反应的能力,例如内疚、羞耻、愤怒、义愤、正义感、怨恨、同感、共情、尊严感、感激、原谅等与道德规范性密切相关的情感。(25)参见P. F. Strawson, “Freedom and Resentment,” Proceedings of the British Academy (1962) 48, pp.1-25.这个观点最早由彼特·斯特劳森(Peter Strawson)阐明,他认为,反应性态度本质上源自我们总是生活在一定的社会性关系中,是我们实践生活和人际期待的自然表达,而非外在于实践生活的某一个理性判断标准。当我们判断一个人是否应该负有责任,当且仅当我们通过反应性态度让他负责是恰当的。透过反应性态度,道德责任和道德能动性本质上是根植于我们作为社会性参与者这一本质。
即便艾伦与瓦拉赫基于自主能动性和道德图灵测试而建构的AMA一定程度上失败了,但这并不意味着人工智能不能作为“一般行动者”而参与到多主体的人机交互的责任归属和分配中。自主性作为道德行动者的重要能力,其实现有程度之别,根据程度不同我们可以区分如下从一般行动者到道德行动者的层级,并据此分配不同程度的道德责任和共同责任。(26)例如Moor根据人工智能的发展阶段而区分了三类道德行动者:第一阶段的人工智能在其行为输出上体现的是人类设计者呈现在意图中的伦理规范,模仿人类的道德行为,是为隐性的(implicit)道德行动者;第二阶段的人工智能具备类似人类的道德推理能力,可以在按照算法的道德模型并确切输入信息的条件下决定应该做什么,且参与道德决策,这属于显性的(explicit)道德行动者;第三阶段的人工智能具有类似人类主体的道德能动性,具备能够做出道德判断和道德辩护的能力,具有自我意识和自由意志,属于充分的(full)道德行动者。Moor认为,从第一阶段到第三阶段的人工智能的实现是一个经验性的技术发展问题,而非断然不可跨越的鸿沟。参见J. H. Moor, “The Nature, Importance, and Difficulty of Machine Ethics,” Intelligent Systems, IEEE (2006) 21:4, pp.18-21. 但与Moor的观点不同,本文认为不能仅仅关注人工智能的道德能动性发展阶段,还应该关注人类主体在这一发展过程中所要承担的责任程度和范围。
(1)人工智能在技术操作层面“似乎表现得”具有人类的道德认知和道德行为努力,它的自动化系统和行为机制就不受外部控制这一点上具有最低程度的自主性,但由于它不具有规范性的语义理解能力和高阶的自主性能力,对伦理要素和行为后果的“道德对错”也缺乏相应的情感反应能力,因此,我们可以将其划分为“不充分的行动者”或“一般行动者”(agent in general)以作为解释导致某一物理事件的一个因果性原因,并承担相应的因果性责任(causal accountability)。我们可以把人工智能的能动性与动物的能动性进行类比,例如城市里没有拴牢狗绳的宠物犬咬伤了路人,搜救犬把一个溺水的人救了上来,我们认为它们在引发行为后果上可以被赋予责备、惩罚或赞扬、奖赏的道德评价性语言,但并不因此就认为它们是充分的道德行动者,即便它们的行为在一定程度上脱离主人的控制,我们也会认为主人需要对它们的行为负有一定的责任。在这些事件上它们与其主人的疏忽监管或有效教养共同成为道德归属的对象,并根据能动性程度的不同而被分配不同分量的道德责任。
与之类似,对于在整个无人驾驶情景中的人工智能,我们可以认为它是其行为的发起者,是对整个场景的描述性和解释性要素之一;如果缺乏这一要素,我们就难以解释无人驾驶伦理的两难困境。反过来,如果单纯根据这一因果性解释要素,我们就认为该无人驾驶汽车具有充分的责任能力,我们就消解了所有的相关各方参与者的责任。把能动性语言赋予人工智能是为了解释它的行为,而非为了它在现实中能够实践能动性,更不是以此为借口而推诿人类主体的责任,其最终目标是为了建构一个更全面的多主体责任环境。
(2)成熟的人类行动者展现的能动性是一个规范性概念,除了最低限度的自主能力,还包括意愿层级结构的自主性与作为内在意向性和规范反思能力的自主性,因此,人类行动者因其展现为“充分的道德行动者”(full moral agent)而承担“主体责任”(agent responsibility)。正如前述,除了自主性能力外,充分的道德能动性还指行动者具有有意识的心理意图和反应性情感,对规范性目标进行反思性认同,辨别相关的伦理要素,把普遍的道德原则适用于具体情景等概念化能力,并将自我设想为在社会性关系中自我赋予道德责任。这种主体责任在人机交互环境中主要体现为人类设计者、开发者、生产者、使用者、维护者在人工智能技术上实现其意图、目标和价值承诺,并在促进福利、尊重自主、公平开放等价值共识上建立更负责任的科技框架。(27)近年来世界各国已经积极推进人工智能伦理框架的确立,例如欧盟于2019年4月发布《人工智能伦理准则》,以尊重基本人权和核心价值观与技术上的安全可靠为关键建立“可信赖的人工智能”;我国亦于2019年6月发布《新一代人工智能治理原则——发展负责任的人工智能》,指出人工智能伦理的主旨不仅在于设立自上而下的规范,还要考虑人工智能能否作为潜在的行动者被纳入到整个责任框架中。在这一框架内,主体责任可以根据每一参与者在每一个环节的影响分量和后果而分为可定位、可问责的具体职责(accountability)与法律责任(legal liability)。
(3)人类行动者和人工智能共同构成多主体的人机交互整体,以担负“共同责任”(joint responsibility)。这是一种积极的共同责任观,它超越了狭义的伦理框架,旨在建立一个更全面的伦理框架以便把人工智能作为不充分的道德行动者纳入进来,同时保持人类行动者对自主系统有意义的控制。参与人工智能技术工程的每个环节的个体和集体参与者都意识到自己的行动是更大图景中不可缺失的一部分,在消极方面将可预见的风险尽可能地降到最低,在积极方面则把人工智能行为对提升人类主体责任感的影响纳入进来,将人类主体与人工智能之间的关系视为超越狭隘的目的—手段的共同协作关系。
基于对不同类型的能动性的区分,我们可以看出,一方面,人工智能的最低限度自主性能力并不满足道德能动性的条件,也无法为具有高度自主系统的人工智能提供道德归属的条件。如果说人工智能具有一定的能动性,那么也只是在因果性意义上使用自主性这一概念,即脱离外力的即时操作而自动制定行为决策,它起到的是描述事件发生的作用,而不具有构成道德能动性所需要的充分条件。当我们脱离情景,孤立地讨论具有深度学习能力和自主能力的人工智能对它的行为后果与人类一样负有完全的道德责任,这是误导性的,很有可能导致我们忽视甚至消解人类参与者的责任。我们应当修正传统责任话语的不足,将涉及人工智能行为的整个情景作为一个整体来探讨其中道德责任归属和分配问题,把风险责任纳入到人工智能的设计、开发、应用和维护等整个过程中,并建立可追溯和可追责的责任分配框架。
日益发展的人工智能技术在自主能力方面获得迅猛的发展,虽然并没有达到人类道德行动者所具备的具有层级结构和规范性维度的自主性,以及具有作出道德敏感性和情感反应性态度等能力,但仍然可以据此将其划分为一般行动者以用构建一个包括人类主体和人工智能在内的责任归属和分配框架,这并不排除人工智能可以从一般行动者发展成为充分道德行动者的可能性。解决这个难题已经超出了本文的任务,本文只是力图指出人工智能伦理的一个可能的思路:这个跨越是否仅仅是一个技术经验性的问题,还需要我们从人工智能的复杂算法、道义逻辑、形而上学、行动哲学、认知科学、道德心理学、规范伦理学等各个学科对道德能动性作出深度的综合性研究。