APP下载

论AI的自主性及其限度

2020-01-19

中国医学伦理学 2020年7期
关键词:意志自主性理性

陈 化

(南方医科大学马克思主义学院,广东 广州 511436,huahua11234845@163.com)

自1956年人工智能(Artificial Inteuigence,AI)概念被首次提出至今,经过60余年的迅猛发展,已经由早期的“弱人工智能模式”发展到“强人工智能模式”。前者更多是基于工具属性改变人类生活,而后者更可能改变对于人类本身的存在形态。实际上,在医疗领域,类器官尤其是类脑器官的应用已经成为人体的组成部分,并与人建立一定的情感,衍生出诸多新型伦理问题。在法律层面,已有不少学者提出赋予人工智能法律主体地位,并成为权利义务和责任的“新型主体”。实际上,这些问题的关键在于,人工智能是否具有自主性?或者说,人工智能对于经典自主性的挑战究竟具有何种新的视域,我们应该如何回应这种挑战?长期以来,人类将自主性作为人之为人并区别于动物的本质特征,也是人类自我认同的根本依据和人类判断行为责任的重要条件。为此,笔者拟从自主的本质、道德主体演化论以及对于道德责任讨论人工智能的自主性问题。

1 人工智能对经典自主性的挑战

自主性作为人类实践行为的根本特征,乃是社会规范和道德责任判断的基础和前提。应当说,现代社会体系中的各种规范均奠基于自主性。自古希腊亚里士多德至启蒙运动以来的诸多哲学家如康德、德沃金等,均从不同层面谈论自主,并以自主性作为建构德性的理论框架,如德性论、责任伦理。然而,对于自主性是否可能也有与之针锋相对的质疑之声,来自形而上学和实证的层面。在理论层面,以决定论否定人的自主性。决定论认为,在被预先安排好的世界里,必然发生的行为都不是自由的,而只是因果链中的一个环节。在实证层面,自然科学的兴起尤其是实证科学不断冲击自主性理论。美国生理学家本杰明·里贝特及其后继者们的相关实验证明,“大脑的一个自发的自愿动作的肇端是无意识发生”[1],只有在各种相关配套条件成熟之后,意识才参与进来并进而产生运动。而人工智能技术因其自身的深度学习能力和行为意向性,不断挑战经典的个体自主性。

自主性作为西方哲学的重要范畴,从词源看具有“自我管理、自治和自主性”等意思。《牛津英语词典》对于自主的解读表明,自主是自我管理的权利和条件以及免受外部控制和影响的自由与独立性,并从城邦的自我管理延展至个体的自我管理。学界阐述甚多,而康德和密尔为现代自主概念的阐释奠定了而自我意识、自由意志与道德责任是自主性的三个基本要件。自主性(Autonomy)是指行为个体能够根据自己的主观愿望与自由意志,独立作出决定,并实施、控制自身行为的特性[2]。人工智能作为“利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。”[3]对于自主的挑战也表现在这三个方面:

其一,人工智能对于自我意识的挑战。自我意识是自主性的前提条件和道德责任判断的重要依据,也是人之为人的标志。 “自我意识” (Self-awareness) 是一种以“自我为思考对象的行为”,实际上就是一种以他人眼光审视和评价自己的行为[4]。易言之,自我意识是个体在一定的社会语境中通过“自我”和“他我”的互动与对话完成的,将自己作为认知的对象。随着人工智能技术的发展,尤其是无人驾驶汽车在人工智能的帮助下完成风险规避和道路选择等任务;机器伴侣能对于他者的诉求做出一定的配合,且智能机人甚至具有深度学习和自我识别的能力,人工智能的自我意识在不断自我进化。2019年,英国《快报》(Express)报道,哥伦比亚大学创造性机器实验室创造的机器手臂具有自我修复功能[5]。耶鲁大学科学家开发的机器人Nico和纽约“伦斯勒”的科学家开发的机器人Nao甚至通过了“智者难题”的测试。这为人工智能具有自我意识提供了有力证据。因此,有学者认为,“我们需要打开意识的概念,并接受机器行为和功能相当于人的意识的整合,它们应被认为是具有意识的。”[6]

其二,人工智能对于自由意志的挑战。自由意志是人作为生命存在的必要条件,也是道德责任承担和自主性的根本依据。长期以来,自由意志成为人区别于动物的重要标志,并强调,“当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的”[7]。康德曾将自由意志和自主性联系起来,认为一个自主的行动者能够按照自己选的择法则来行动。自由意志要求一种行为只属于理性存在者的因果性,即理性存在者就是自己目的的原创者,可以被处理为“目的本身”。人工智能虽然是被人开发的对象,但是它们具有深度学习的能力,在完成任务的过程中,能根据环境变化独立于人来的指示采取行动。国外开发医疗伦理专家系统(MedEthEx),能够教会医学人工智能(如手术机器人),理解人类的伦理规范 (也包括法律) ,懂得协调患者和医生的利益冲突, 做一个有道德的机器人[8]。战争机器人也可以自动检测危险,自动打击敌人。“由于人工智能装有随机性发生器,它们的行为不可预测,其工作具有创造性,因为与人类之间不存在不可超越的差异而具有自由意志。”[9]也正是因为如此,有人发出“人工智能是否取代人的自由意志”的担忧?

其三,人工智能对道德主体性的挑战。道德主体是指具有自我意识和自由意志,根据道德判断做出道德决策并为此承担责任的行为主体。按照此标准,婴幼儿、精神病患者等有限理性者以及动物被排除在道德主体的范畴之外。然而,人类社会的进步,正是基于对道德主体范围的拓展,经历“从理性人到生命体、技术人工物和智能人工物”[10]的变迁历程。维贝克(Verbeek)以“道德物化”赋予人工物道德主体地位,丹尼尔森、霍尔等在相关著作中均强调关注机器道德,承认智能机器的道德主体性;艾伦等甚至构建了人工道德主体模型。

基于自主性在人的自我身份认同以及道德责任判断中具有的特殊地位,决定了人工智能对于自主性的挑战在根本上涉及如何对待人机关系,人类与人工智能如何共处。人工智能的自主性与人的自主性究竟有何异同,其道德边界究竟何在?为此我们必须从自主性的本质以及延展边界来厘清人工智能的自主性逻辑。

2 人工智能拥有何种自主性

AI具有自我学习和自主选择的能力,这种能力甚至成为赋予它们法律身份和公民权利的条件,如瑞士为AI纳税,日本为AI缴纳工会会费,Sophia获得了公民资格。由于AI的行为具有明确的目的性以及极强的行为能力,甚至在某些方面超越人类,如AlphaGo战胜柯洁,这些都似乎表征着AI的自主性。但我们也很清楚,AI的物理属性是机器,是技术的产物,而非真正意义上的人。那么,AI是否拥有自主性呢?

何为自主性?自主看似是一个多元化、意义晦涩甚至模糊不清的概念。但是在众多解读中,我们依然可以看到最合理的内核。关于经典的自主论述中,自主被解读为“理性的自我决定”。彼彻姆等将自主区分为“自主的人和自主的行动”,二者存有细微区别的关键因素是理性。判断行为是否理性,需要回应行为选择的目标以及目标实现的方法。基于此,形成了“认知模式”和“建构主义模式”以判断个体是否自主。前者强调,行为动机决定行为本身的“善”,这种善独立于行为本身。建构主义则将善等同于理性选择的目标,并形成了新休谟学派和康德主义学派。新休谟学派强调理性判断依赖于行为是否满足于个体的欲望,而欲望本身必须反映在实现欲望认知的方法上,即使欲望本身并非理性的,实现欲望的行为必须是理性的,它要求道德主体允许他们决定属于自己的“善”。在这种模式下,理性剔除了“道德的因素”。康德主义认为,自主性是理性思考的结果,任何基于自由意志的自主必须遵守绝对命令,而且是可普遍化的。为此,康德提出“真实意愿”和“理性意愿”的区别,这要求自主性必须追求“理性意愿”。康德主义模式通过分析行为可普遍化的约束条件,将理性和道德联结在一起,并认识到理性的社会性和自主之间的本质联系。人作为一种社会性和精神性存在,道德是其社会性的内在规定。自我意识和自由意志的社会实践,是横亘在AI与人之间的鸿沟。在这个意义上而言,AI并不具备完整意义上人的自主。问题在于,这是否表明AI完全没有自主?易言之,自主是否为“有”和“无”两种形态。以此作为判断方式是对“人工智能自主性问题”的简易化处理。

应当说,人工智能具有行动自主的能力,或者说具有新休谟主义模式下的自主性。由于深度学习能力和大数据技术的支持,人工智能能自我学习和自我归纳,甚至根据经验和数据总结出规律,根据具体情境作出独立的判断,形成自己的意图,并采取相应的行动。佩蒂特建构BDI(belief-desire-intention)模型[11],认为信念是能动者自主的始点,并以此影响个体的欲望,通过欲望指向意图。遵循此模型的能动者的行为,均可以被称之为具有自主性。但是该自主模型“仅仅考量了决策与行动的连贯性,是削减版的自主概念”[12]。由于人工智能是人类行为的数字化表达,故简约的自主概念也不可避免携带属人的特征。但是数字化本身是由人类设定的,其决策权威是被人类赋予的,是对人类现有行为和以往行为的统计。

可以说,自主实际上也是分层次的。参照瓦拉赫(Wallach)与艾伦的《道德机器:指导机器明辨是非》[13],区分道德主体的模式,个人将自主划分为操作性自主、功能性自主与完全自主。从层级看,操作性自主最低,它是指主体按照设计者的程序去执行相应的指令。这种自主性实质上是设计者自主的直接延伸,但缺乏对于外在环境的敏感性。完全自主是指具有完全的基于理性的决策系统和情感交互能力的自主,典型代表就是人类。而功能性自主则是能评估自身行为的智能系统,具有一定的伦理敏感性。由于人工智能是以数字化的符号进路将学习当作一套预先确定的概念进行重组的理性化过程,它们没有欲望和基于自身的情感,因此他们的自主是功能性自主。

事实上,人工智能在本质上并没有摆脱其作为一种技术的本质属性,因此,它的自主性实质上最终转换为技术自主性问题。传统的主流观点认为,由于技术是人为设计的产品和对象,是人们意志表达的结果。技术作为一种手段属性而服务于一定目的存在的,其本质上是中立的。人类能掌控技术的使用和发展,应该慎重选择技术的发展途径。随着技术更迭日新月异,技术与人的关系在发生微妙变化,人类似乎正在失去对于技术的掌控。“技术自主性”成为不少学者备受推崇的观点,马尔库塞、哈贝马斯、埃吕尔等,尽管不同学者的思想存有分歧,但其核心观点有相通之处。技术自主论认为,现代技术依赖并制定自己的路径,倾向于封闭和自我决定……它创造了“人工世界”且“自主地”以技术的自我逻辑改变和限制“自然世界”的发展[14]。应该说,技术自主论是指技术发展的独立性和普遍性,其指涉技术演变的轨迹和发展的规律。人工智能的自主性,更多是作为一种具体技术在操作和运行层面的自主性。差别在于,人工智能的自主性是技术自主论在应用层面的高阶发展和具体表现形式。因此,人工智能的自主性本质上仍没有脱离技术自主的讨论框架。当然,由于人工智能的自主更为具体和实际,尤其涉及自由意志,并嵌入人的理性因素,这决定了我们还必须给与人工智能的自主性以特殊考量,即人工智能的应用是否应承担相应的道德责任。

3 人工自主性与道德责任

如上所述,人工智能的自主性并非完全自主性,但也不是完全不自主,而是一种基于技术自主的功能的自主性。问题在于,人工智能是否应当对于其自主行为承担道德责任,承担何种道德责任?

道德责任是自主行为的构成要素,也是行为的“自我-他者”问题,即道德主体对自主行为影响他者和环境作出的责任判断。因此,道德责任不仅关注行动者,还需要关注能动者应承担责任的他者。亚里士多德曾从意愿行为和理性选择作为考察主体德性的关键要素,它们也成为道德责任的基础条件。尽管“自由意志并非道德责任的必要条件”[15],但是具有自由意志行为的主体应当为其行为承担必要的责任。如果人工智能物在自主行动的过程中出现伤害他者的结果,如无人驾驶汽车的交通事故、智能机器人手术失败,该承担何种责任?对此有两种观点:第一种,人类责任论,人工智能是决策的实施者,但是人类应该对人工道德主体的行为负责。这种观点承认人的唯一主体性,否定人工智能机器的完全自主性和相应的道德主体地位,因此为“避免将责任过度推卸给机器人,智能机器人必须受到自主性的限制”[16]。应当说,这种观点看到了这样一种趋势,即人工智能化水平越来越高,而出现伤害时设计者免责的现象。因此,他们认为应该由设计者负责。其二,机器责任论,人工道德主体在决策中扮演了决定性的作用,它们应该为其行为负责。这种观点认为,人工智能是具有自由意志的道德主体性,它们在一定的情境中能识别并执行道德上正确的行为,因此他们应该承担起相应的道德责任。当然有学者从“智能机器人满足他者对智能机器期望承载人类对机器的道德映射”[17]角度讨论其道德责任。他者视角强调道德责任的对象化,有助于让我们全面理解道德责任的全貌。但是,这种基于纯粹善良意愿的道德责任范式,遗忘了智能机器人自主行为可能带来的“伤害”。

因此,上述两种责任模式均有显偏颇。尽管不能将自主性与责任直接对等,但是自主性程度依然可以成为责任判断的重要依据,正如完全行为能力人与限制行为能力人的行为差别一样。因此,人工智能应承担“不完全责任”,又称之为“联合责任”。

一方面,契合人工智能的“不完全自主性”。人工智能在本质上并没有摆脱技术的局限性,并非完整意义上的人。故承担全部责任对于人工智能机器而言,并不合理。摩尔(Moor)曾区分四种人工道德主体模型[18]:受道德影响的人工道德主体; 内隐的人工道德主体; 外显的人工道德主体和完全的人工道德主体,并认为只有第四种才能被称之为完整意义上的道德责任主体。这种划分看似为讨论道德责任打开了大门,但是却忽视了完全道德主体的现实可行性。以无人驾驶汽车造成交通事故为例,若承认其完全道德主体性,则意味着汽车应承担全部责任,这无疑是非常荒谬的。且不说智能汽车没有辩护的能力,就算汽车愿意承担,又该如何实施呢?停运、拆除或者报废等方式,均不能成为合理的承当责任方式。“虚拟的道德主体”以虚拟的方式承担责任,对于受难者而言并不公平,只能感觉 “道德运气”太坏罢了。从这个意义上说,人工智能的道德责任必须与人类相连。

另一方面,“联合责任”有助于填补“责任鸿沟”。道德责任不仅是基于理性的判断,更对责任主体产生心理影响,而人工智能缺乏道德责任所需要的心理成分。责任鸿沟是指理性判断与心理影响在责任判断中的分离现象。联合责任表明人工智能自主行为的发生都是“人—机”共同行动的结果,单一的责任模式并不能解释全部。问题的关键在于,智能机器的设计者和机器运行的监管者承担何种层面的责任,包括人工智能的影响对象,如无人驾驶车的交通事故伤亡者。某种意义上说,联合责任的承担的最终主体依然是“人类”。或者说,人类最终承担了全部的道德责任,正是在这个层面上,“人工智能延展了人类的认知,而责任却不能延展。”[19]

4 余论:自主性作为属人概念的一种建构

道德作为“人别于禽”的重要向度而被赋予格外的分量,就在于自由意志和基于自主性上的行为选择。自主性在很大程度上成为区分道德责任承担的重要标尺,为此亚里士多德考察了行为和意愿的关系,大卫·罗斯发明了“初始义务”和“实际义务”的语汇,康德则给予道德最纯粹最深刻最彻底的刻画。其著名公式可以表达为“应当意味着能够”,它将道德负担压在难以确定的自主结构之上。作为应当的表述,这并不完全真实;但是在何种条件下,行为者应承担或者豁免某种责任,该表述则具有其合理性。人工智能以大数据和算法作为其意义世界的表达方式,是对人类自主性的延展,又具有机器自主性的特质。人工智能用数据解读并置换人类行为,将缤纷复杂的现实世界简约为数字,并消灭了人际间不可逾越的鸿沟。长期以来,我们将技术作为人的内在性的外显方式,技术成为展现人的重要载体。而人工智能技术区别于传统技术的根本之处在于,它以超乎想象的速度更迭,集结人类各种可能性并极有可能超越自然演进中的智慧极限。即便如此,人工智能并没有完全摆脱技术内在的局限性,如AI是缺乏道德想象力和批判精神,因此我们不能赋予人工智能与人一样的自主性,不能将自身的命运无条件地交给人工智能。[20]如果说,人类智慧曾以道德方式回答了存在的“人禽之异”的自然问题,那么,作为人类技术的人工智能因其特殊性提出了更为严苛的社会难题——“人智”之别。该难题在本质上依然是人类自身的问题,依然可以回归到人类“如何认识自我”这一元问题当中。自主性作为解读人之本质而建构的哲学范畴,其阐释本身就具有极强的开放性。但是这种阐释必须立足于复杂的生存境遇,依托于人类社会实践发展。既应该看到人禽之别和相同,也应该看到人类和人工智能的差异与联系。我们既要看到人工智能向“善”,更应该以历史的眼观透视其可能之“恶”本质上仍为人性之恶。在这个意义上,自主性只是作为考察人工智能的一个向度,如人的多面向一样,人工智能也是复杂的和多面的,因此,自主性并不能穷尽人工智能的全貌,人工智能的自主性并未超越于人类的自主性。

猜你喜欢

意志自主性理性
“双减”的路向反思与理性审视
时代新人与意志砥砺
国家自主性与文在寅政府的对朝政策
游戏中的规则与幼儿游戏的自主性
About the bug of the theory of evolution
人人都能成为死理性派
《西厢记》中的理性意志与自由意志
英语学习的自主性及其教学应用
改革牛和创新牛都必须在理性中前行
发展性教育督导与学校办学自主性