APP下载

人工智能的道德责任归责问题探究

2022-03-25新疆师范大学政法学院新疆乌鲁木齐830017

关键词:行为主体道德规范自主性

孟 歌(新疆师范大学 政法学院,新疆 乌鲁木齐 830017)

一、引言

科学技术的迅速发展, 人工智能技术尤其是具有一定自主性的人工智能体(无人驾驶汽车、智能机器人等)在社会生活中得到广泛的应用[1]。一方面,人工智能的智能化和自主性不断提升, 人工智能在人类的生活情景中逐渐担负着重要的作用。另一方面,人工智能的“道德过失”问题也逐渐显露,例如智能手术机器人造成医疗事故、 无人驾驶汽车追尾事故等,唤起了人们对人工智能道德失范的担忧,也引发了学界对人工智能是否能承担道德责任问题的思考和研究。尼克·博斯特罗姆(Nick Bostrom)和埃利泽·尤德考斯基(Eliezer Yudkowsky)认为:“人工智能机器人可能引发一系列的伦理问题, 他既要涉及确保智能机器人不会损害人类以及相关联的其他存在者,也与智能机器人本身的道德地位有关。 ”[2]那么,人工智能所造成的行为及其后果是否要求他们承担道德责任呢?强决定论立场的反对者认为,人工智能无非是执行指令的程序, 他们采取的行为是由内置的核心装置所决定的,是设计者的先在的设计,只能遵循既定程序行动, 因而不能作为道德责任归责的对象。实用主义的赞成者认为,道德责任概念从根本上是一种实用责任概念 (Practical Conception of Moral Responsibility)①。 依据实用责任概念的观点,人工智能可以承担道德责任, 因为他们在一定程度上可以带来我们想要的改变[3]。 还有一种赞成的观点,笔者称之为“他者期待责任能力”道德责任归责观点。该观点认为人工智能可以成为“新的他者期望型道德能动者”,“这种新的道德能动者有着和我们一样的现代性境遇——低自主性、无明确自我目的、依赖社会系统分配责任, 但是也与我们的道德能动性所要求的一样,处于社会责任网络之中,承担道德责任,进行道德实践。 ”[4]

上述的观点都颇有一番道理, 值得我们学习和研究,但仍然存在一些理论问题。如强决定论者的观点, 他们认为包括人工智能在内的整个世界都处在控制之中,人类自出生始便会受到周围环境的影响,人的性格、品德、情感无不例外由所处环境所决定。如果强决定论为真, 那么任何人都不能为自己的行为承担道德责任,道德责任也会失去它的意义,这是因为人的一切都是被决定的, 任何人都不能摆脱被决定的命运,而一个被决定的人类世界,道德也会失去它存在的位置。实用主义的支持者,他们赞成人工智能承担道德责任的可能性, 因为人工智能可以通过一些调整和设定带来我们想要的结果。 但是如果实用主义为真, 那么任何一个物质都可以进行道德责任归责,因为可以利用自然规律改变他们的性质,或作为他物起到某种效用。 “他者期待责任能力”的观点有一定说服力, 强调要与人工智能建立一种他者期待的关系。 但笔者认为他们的观点存在两方面的误区:(1)他们将人工智能的偏差概率的自主性和人类的自主性等量齐观, 从根本上误解了人作为行为主体“自主性”的本质。 因为人的“自主性”从根本上而言并非一种概率的问题,而概率是一种随机性,这种随机性不能作为道德责任归因的依据;(2)他们没有解释这种期待是否是一种依据道德规范的内在规范,以及人工智能是否能理解这种规范性期待。因为期待的发起者包括我们人类, 人类的期待是建立在某种内在规范上[5],而内在规范要以公正的道德规范为依据[6]245-249,要求被期待者能够理解这种期待。

考虑上述理论面临的困境, 文章将从道德责任归责的行为主体的“自主性”来探究人工智能是否符合道德责任归责的合适对象的要求。行为主体的“自主性” 是建立在肯定道德责任意义的基础上讨论人工智能的归责问题, 这在一定程度上可以避免强决定论对道德责任价值的否定。 行为主体的“自主性”包含三种要素:自主选择、理解规范的理性思维能力和自我否决能力。这将在文章第二部分详细讨论。随后,文章将在第三部分再次提及“他者型期待型”的观点所面临的挑战,以及证明文章的基本观点:虽然人工智能可以具有行为主体“自主性”的三种要素的部分构成, 但这不能使我们肯定他们是道德责任归责的合适对象。

二、成为行为主体的“自主性”条件

道德责任是一个传统的又有持续热度的伦理学经典问题。 学界对道德责任(moral responsibility)普遍认同是,一个能动者为其所作所为(或不作为)及其相关后果负有道德责任, 指的是此能动者应当由此得到相应的赞赏或责备[7]。上述的能动者笔者称之为行为主体(agent)。 一个主体是否能够成为道德责任归责的对象(行为主体)必须要具备一种 “自主性”, 即要求主体具有:(1) 自主选择自己行为的能力;(2)能够认识和理解行为及其后果,并且能够理解道德规范以及与他者的内在规范的理性思维能力;(3)自我否决能力[8]。

(一)自主选择

早在古希腊时期,亚里士多德在他的《尼各马可伦理学》[9](第三卷前五章)中详细的阐述了只有当主体能够“自主选择”(这里借以“自主选择”来代表亚氏的观点) 的时候才能成为道德责任归责的合适对象。自主选择也是哲学家们普遍认同的归责条件,他要求主体的行为是自己选择的结果。 自主选择在我们日常生活中被赋予了十分重要的意义, 我们可以选择自己上学的形式,选择自己喜欢的衣服,选择帮助这个人而不是另一个人, 选择听摇滚音乐或民族音乐, 这些选择可以说是行为主体最真实的直觉体验。 当然,自主选择也不是无条件的,他作为道德责任归责的条件有两个方面的要求: 控制力条件和认知条件[6]28。 例如:

A1:沙沙喜欢古玩,夏日的某一天她来到了古玩店,因为喜欢一个紫色的瓷器。 老板见她如此喜欢,便示意她可以拿起来观摩, 正当她小心翼翼地拿起瓷器时,因为天气炎热沙沙的手心有汗,外加心情紧张,不小心把瓷器滑落掉摔在地上。

A2:沙沙喜欢古玩,夏日的某一天她来到了古玩店,因为喜欢一个紫色的瓷器。 老板见她如此喜欢,便示意她可以拿起来观摩, 正当她小心翼翼拿起瓷器时,突然发生了地震,不可抗拒的力量把沙沙手中的瓷器掉落在了地上。

从A1 来看,我们能直观地判决沙沙应当为自己的行为承担责任, 因为他符合道德责任归责主体的自主选择的两个方面的要求。首先,沙沙符合控制力条件。 她可以选择拿起瓷器, 也可以选择不拿起瓷器,她还能够选择其他类型的行为,因为这些行为在她的控制之下,并没有外在力量的强制。 其次,沙沙符合认知条件。 因为她能够认识到瓷器的重要性以及可能出现的后果。 即使夏天的炎热引起的手心出汗,导致她不小心把手中瓷器摔落在地,但是她本可以认识到或提前预知这样行为及其后果出现, 因此她要为自己的选择和不细心承担道德责任。 相较于A1,A2 的情景中沙沙不能承担道德责任, 因为她摔碎瓷器的原因在于不可抗拒的力量, 并非她能控制的范围之内。 她可以预防夏天流汗会摔碎瓷器的后果,却不能预防地震引起的摆动所造成的后果。这正如相容论者华莱士(R.Jay Wallace)所承认的:“只有当一个行为主体的行为违背道德义务时, 他才能被责备; 而当一个行为主体的行为是他自己选择的结果时,他的行为才违背了道德义务”[10]。 如果沙沙没有对自己的行为有任何自主选择, 她行为的一切都是由一种强大的外在力量所决定的, 在这样的决定下,她所有的行为都是一种必然的结果,我们更没有理由认为她的行为适用于道德责任归责。

(二)理解规范的理性思维能力

上一部分已经谈到行为主体作为道德责任归责的对象需要满足认知条件, 即对自己的行为及其后果有一定认知能力。 而这个认知能力是人的理性思维能力一种表现。 行为主体生来就具有一种对外部世界产生认知和思考的理性思维能力, 这也是人类所独有的能力, 因为人并不像其他动物一样被动的接受外部环境的一切, 人类可以自觉地对自然规律产生某种理性的认识, 并将这种认识作为一种思维材料,通过实践活动转化,形成对外在规律的正确认识。 这种理性思维能力要求行为主体能够理解道德规范对他提出的合理性要求, 通过这种理解可以形成自觉的道德意识, 自律自愿的遵守道德规范和道德准则。 现在让我们假设一种情景用于讨论缺乏理性思维能力是否能够归责的问题。

沙沙因为先天的身体问题对道德规范缺乏一定的认知能力,她不能认识到道德规范的合理性要求。她不能理解什么是善的行为、 什么是恶的行为。 一天,有个坏人让她做一件坏事。她并不能理解这个事情本身是善还是恶,由于她的乐于助人的性格,她应邀去做了这件事。

在这种情况, 我们通常认为沙沙因为缺乏一种先天的理性思维能力, 不能理解道德规范的合理性要求, 对于什么是善的行为或什么是恶的行为全然无知。即使沙沙如实地做了坏人要求的事情,她也因缺乏理解道德规范的理性思维能力, 不能认为她是道德责任归责的合适对象。此外,理性思维能力还要求能够理解他者与他者之间的内在规范, 能够理解他者对自我行为的意图、态度的合理性期待。 例如:沙沙和小歌处在一种相互的交互式关系之中, 这种交互式关系是会使得一方对另一方产生一种内在要求,是对另一方行为的意图、态度或是目的的一种期待性要求[5]。 当沙沙遇到困难的时候,她会期待小歌能够伸出援手去帮助她, 这种期待就是对小歌同她所处的一种交互式关系的内在规范。 理性思维能力同样被要求能够理解这种内在规范, 理解在交互式关系中他者对另一个他者的合理性要求, 而一个无法理解内在规范的行为主体, 同样不能认同他是承担道德责任的合适对象。总而言之,不管是道德规范还是内在规范都是对道德行为与道德之间的关系规范,也同样要求我们理解这种规范关系的涵义。 “只有具备能够理解道德行为与道德之间关系的正常行为主体才能承担道德责任。 ”[11]值得指出的是,内在规范也要符合道德规范的合理性要求。 一名学生期待老师对他考试开小灶的内在规范并不符合道德规范的合理性要求; 而一名学生期待老师认真备课的内在规范是符合道德规范的合理性要求。 这是因为学生对考试开小灶的期待不符合道德规范对学生公正考试的要求, 而老师备好课的期待符合道德规范对老师认真负责的要求。

(三)自我否决能力

上世纪八十年代, 精神学家李百特(Benjamin Libet)做了一系列的精神时间的实验。实验结果显示任何一个行为主体的简单的意愿性活动, 总有一个神经元活动在受试者的意愿知觉时间前的350~800毫秒发生[12]。 这说明那些看似自发性的意愿活动,其实在大脑之前已经有了预兆[6]106。 李百特认为我们的意愿或意图虽被大脑的神经元所控制了, 但仍然有一定的空窗期可以否决这个意愿或意图。 他推测这种能够否决意愿和意图的能力就是我们的自由意志。但是,李百特又认为这样的自由意志有时候可以超出我们物理规律的范围之外,如果决定论为真,那么我们就不会有任何自由的体验。

文章认为李百特的观点为我们带来一种对“自由” 的理解, 但他的观点的部分内容也是值得怀疑的。 我们在现实生活中总能感受到一种自我否决的直觉体验,这种感受是直观的,似乎是我们对自由的最纯粹的感受。例如,你在图书馆哲学书架挑选所看的书籍,当你选择拿起一本哲学书时,你突然惊讶,我选择这本书是不是被外在的东西决定了? 当你否定这个想法时,你也可以否定你是被决定的想法,以此类推。我们总可以否定掉我们的选择,也能否定我们的否定。这种否定感受是真实的,是我们本身拥有的最基本的能力。那么,在某种决定的世界中能否有某种否定的体验呢?我想是肯定的,正如某种被设定好的电脑(无差错),它能够否定掉我们的任何指令,包括否定我们不让它否定的指令的指令。 当我们向这台电脑发送打开网页的信息,它能够否定我们的指令;当我们试图让它不要否定我们的指令时,它仍然可以否定我们这一指令。 我们从被决定的电脑的这个例子能够看到,即使是被决定好的电脑,依旧能够让我们感受到一种否定的体验。那么,决定论的否决的体验是不是对我们自由或道德责任的否定? 可能并不是, 行为主动的否决能力的最大特点是“自由”。 因为行为主体的否决能力是自觉的否决,而不是机械的“输入-输出”的否决;是能够感受意义和价值的否决,而不是机械的无意义被动的否决。 因此,否决能力是行为主体自觉意识的体验, 是我们考虑行为主体是否作为道德责任归责合适对象的一个必要的因素。

三、人工智能非道德责任归责的合适对象

虽然人工智能的自主性随着科学技术的发展不断提升,但人工智能的自主性不同于行为主体的“自主性”,他们不能满足道德归责的全部要素,也不能成为道德责任归责的合适对象。 那么人工智能的自主性满足哪些要素的构成?为什么不满足全部要素?文章将从三个部分展开论述。

(一)人工智能的自主选择的限度

人工智能是否有自主选择呢? 那就要看人工智能能否满足自主选择的两个条件, 即认知条件和控制力条件。 可以说人工智能在某种程度上,可以满足自主选择的认知条件。 如美国学者大卫·弗拉德克(David Vladeck)认为人工智能可以自主获取数据、处理和分析数据,并通过数据的分析自主的行动[13]。骆正言认为人工智能Nico 可以通过了“智者难题”(Wise-men Puzzle)的测试,具有自我意识,具备理解自己行为的自我性能力[14]。

但是人工智能并不能满足控制力条件, 因为人工智能的自主性表现为在不同形势下做出不同的行动,不能表现为在相同情况下做不同的行动[11]。 现在让我们回到“他者期待责任能力”的观点,他们对自主性的质疑提出了“一种概率意义上的行为多样性假设, 即机器行为发生偏差的几率与人类不按照他人期望行事的几率大致相同”[4]28。认为机器人的自主性等价于人的“自主性”。 人的“自主性”要求一种控制力,即自己的行为是自己的。从本质上讲人类即使不按照他人期望行事,也可以是一种“自主性”的表达, 正如一个妒忌的人因为妒忌故意不满足他者的期待。 而人工智能行为发生偏差的几率是一种概率问题, 从某种程度上来说这既不被人工智能自身所控制,也不能为外在设计者所控制。 概率是偶然的,但概率一旦被确定,它本身又是一种必然的。不管是偶然还是必然都不能作为道德责任归责的条件。 这是因为偶然的世界中, 任何一个行为主体的行为意图、态度或是目的都是偶然的,他的所有的行为都处在一定的概率变化之中, 谁也不能对他的行为充满期待,因为我们根本不知道他会怎么行动;必然的世界中,任何一个行为主体的意图、态度或是目的都是必然的, 他的所有的行为都处在一个必然决定的状态之中, 对一个必然的行为主体任何期待都变的毫无意义,因为任何对象都无法改变必然的行为结果。因此, 人工智能本身的这种自主性并不等同于人类本身的“自主性”,人工智能的自主性可以满足自主选择的认知条件,但不能满足控制力条件。

(二)人工智能不具备理解规范的理性思维能力

柯林·艾伦 (Colin Allen)、 加理·瓦尔纳(Gary Varner)和杰森·辛瑟(Jason Zinser)构造了“道德图灵测试”用于测试人工智能是否具备道德能力[15]。 实践表明,被设计好的人工智能可以通过“道德图灵测试”,它能够理解符号化和规范化的道德规范和道德准则,并以此为依据调解道德冲突。 但是,人工智能是否真的能够理解道德规范的实质吗? 文章认为当前的人工智能并不能理解。人工智能所理解的内容,是由设计者设定的, 人工智能可以在道德规范和道德准则的符号化和规范化的内容中进行分析处理,但他们不能理解道德规范对行为主体道德行为的要求的背后的意涵,简单来说,人工智能不能理解我们为什么要遵守道德规范。让我们再次回到“他者期待责任能力” 观点, 该观点认为可以将人工智能视为“新的他者期望型道德能动者”, 以此作为人工智能承担道德责任依据。 但是要从“他者期待责任能力”观点回答人工智能的道德责任问题, 必然会面临内在规范的问题, 而且这个内在规范同时需要符合道德规范的合理性要求。 人工智能不具备理性思维能力,他从根本上不能理解“他者的期待”。因为这种期待是对他者的行为态度、 目的或意图的一种期待性的情感价值, 要求被期待者能够理解我为什么会对你有这种期待,而人工智能并不能理解这种“期待”的含义, 不能理解我们对他们期望的行为是为了什么, 因此不能将人工智能视为道德责任归责的合适对象。

(三)人工智能只能具备被动的否决能力

人工智能在一定意义上可以具备否决能力,设计者可以设定人工智能对外在刺激的反应给予一种否定的回应。 例如:我们可以设定一台智能机器人,当他面对一个拿书的指令时,他可以否定这个指令,去做别的行为, 甚至可以设计让他面对多次同样要求的指令时,发出一种抗拒的语音。 同时,我们也可以设定人工智能面对某一指令时, 有一定概率否定执行的指令,增加人工智能行为的不可预测性。但问题是, 即使这种设定人工智能从表面上看是充满自由的,但人工智能的否决能力是被动的,他不同于行为主体的“自主性”的否决功能;前者的否决只是“输入-输出”式的否决能力,后者“自主性”的否决功能是一种自觉的否决能力, 可以在不受任何外部刺激作用下自主否决。因此,人工智能只能具备被动的否决能力,而不能具有自主自觉的否定能力。而只能具备被动的否决能力的人工智能, 我们不能认定他们是道德责任归责的合适对象。

四、结语

文章通过考察道德责任归责的对象——行为主体所需具备的“自主性”的三种要素,即自主选择、理解规范的理性思维能力和自我否决能力, 来阐述人工智能并非道德责任归责的合适对象。通过考察,文章得出的结论是: 人工智能的可以具备自主选择的认知条件,但不具备自主选择控制力条件;人工智能可以具备理解道德规范和道德准则的符号化和规范化内容,不能理解道德规范的实质,不能理解道德规范对行为主体的道德行为要求的背后的意义, 也不能理解与他者关系的内在规范; 人工智能可以具备否决能力,但人工智能仅具备被动的否决能力,不具备自主自觉的否决能力。因此,人工智能虽然具备行为主体“自主性”的部分要素的构件,但这些要素构件不具备一种强健性, 不足以使我们承认人工智能是适合的道德责任归责的对象。

虽然当前的人工智能并不能作为道德责任归责的合适对象, 但并不妨碍人工智能作为一个可期待的对象, 我们可以视人工智能同猫狗等一样具有一定认知能力,可以赋予一种精神上和情感上寄托。同时,人工智能技术还在不断发展和进步,人工智能会逐渐在人类社会中占据重要的地位。 我们要合理看待技术进步带来的对人“自主性”的挑战,一方面,我们要逐渐弱化人类中心主义的思想, 实现同其他共同体的和谐共生;另一方面,要积极的通过实践的努力认识和掌握规律,不断的深化人的“自主性”,扩大人的自由。

注 释:

①实用主义的决定论立场与强决定论立场不同,前者承认道德责任的存在意义。 实用责任概念是在决定论的立场下,认为一个人要对某一行为负责, 由于这个行为可以用一个实用理由(practical reason)的方式来对待他。例如,沙沙今天帮助了一名同学带饭,同学十分的感谢她并赠送了糖果。 “感谢和赠送糖果”,可以看作沙沙帮助同学带饭的一个实用理由。

猜你喜欢

行为主体道德规范自主性
国家自主性与文在寅政府的对朝政策
孔祥渊:“我”的出现有助于提升个体道德认同
素质教育的可行性实施细节研究
网络政治参与相关问题辨析
国家治理视域下社会主义核心价值观的培育路径
英语学习的自主性及其教学应用
实用英语教材与艺术生自主性培养
传统伦理道德现实价值研究
发挥主体作用,加强高中数学复习的自主性
甘肃省政策性农业保险发展困境及解决路径研究