马克思主义视域下人工智能道德主体地位辩识
2021-01-13张北斗
朱 喆,张北斗
(武汉理工大学马克思主义学院,湖北 武汉 430000)
随着人工智能的广泛应用和强人工智能的高速发展,人工智能也带来诸多伦理问题,目前其核心伦理问题是:谁应为人工智能的行为负责?人工智能是否拥有道德主体地位,是解决人工智能道德责任归属问题的关键。学界对道德主体范围有不同的界定,本文以马克思主义对道德主体的一般性规定为基础,从马克思主义视角辩识人工智能道德主体地位问题。
一、学界关于人工智能道德主体地位问题的探讨
1.关于道德主体范围的研究
道德主体范围是研究人工智能道德主体地位问题绕不开的话题。基于对客观世界认识的不断加深和科技的发展,学界认为道德主体范围历经三个阶段:从人到生命体、从生命体到技术人工物、从技术人工物到人工智能。
“道德主体指的是具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体”[1]。道德主体在法律上是指具有主观判断并且为自己的行为承担法律责任的人。康德把道德定义为理性当事人之间的关系,基于这个角度的判断,具有理性思维的人才具有道德主体地位,理性的人不包括婴儿和精神病患者,因为婴儿及精神病患者具备一些道德能力,但不具备道德意识,不能为自己的行为负责。按照这个规定,其他生物也不属于道德主体的范围。随着物种起源和进化论的应用,动物学家Joel Feinburg提倡动物拥有道德主体地位,因为动物和人类都是生物进化的结果,都具有意识和欲望,满足道德主体地位的要素;因植物没有意识,没有基于意识的实践,所以植物不属于道德主体范围。环境学家Holmes Rolston基于伦理学的内在价值理论认为自然环境中包含的一切生命体都具有道德主体地位,他首次把植物纳入道德主体地位范围。由此,道德主体范围由人扩展到自然界的其他生命体。
技术人工物具有道德主体地位是Bruno Latour提出的,他认为技术人工制品能够借以人类的行为方式执行道德准则,比如红绿灯使交通顺畅,避免交通事故的发生,这一人工物是借助司机的行为执行道德行为。21世纪初,Peter Paul Verbeek的“道德物化”这一理论在技术人工制品中融入道德概念,人工制品在运用中通过其性能在道德意义上引导和规范人们的行为,他认为技术人工物是道德的载体,并非简单的工具。在这一阶段,学界认为能够影响人类道德行为和道德结果的人工制品具有道德主体地位,如此道德主体的范围就从生命体扩大到技术人工物。
人工智能是否具有道德主体地位首先要考虑智能机器与人类的区别。约翰逊(Deborah G.Johnson)围绕意向性展开对道德主体的讨论,人类行为的意向性是区别于智能机器的根本特征之一,并以此讨论人工智能是否具有道德主体地位。Aaron SIoman预测未来机器人应具有思考和感知能力,以此判定智能机器具有道德主体地位。强人工智能的发展让越来越多的研究者承认人工智能的道德主体地位。许多人工智能专家把人工智能作为道德的实施者,而不是人类活动的承载工具,Heinz Von Foerster认为强人工智能具有信息采集、分析、处理、并转化为道德行动的能力,称之为道德智能主体。在这一阶段,学界认为类似于人类道德感知、道德判断和道德实践的智能机器也具有道德主体地位,如此道德主体从技术人工物扩大到人工智能。
2.人工智能道德主体问题的争论
随着人工智能的深入研究,强人工智能的推理决断更符合人类的道德准则,同时带来一系列伦理问题。人工智能是否具有道德主体地位是解决人工智能核心伦理问题的关键,学界的争论较大。
目前人工智能的核心伦理问题是:谁该为智能机器人的行为负责?尤其是智能机器人的行为损害人类利益或者伤害到人类后,如果机器人不能承担责任,那么谁为机器人的行为负责?“因为主体性问题关系到人工智能是工具性的存在,还是具有与人类同等主体地位的价值性存在”[2]。所以,智能机器人是否拥有道德主体地位问题,是解决人工智能道德责任归属问题的关键。目前学界对人工智能道德主体地位持有三种观点:肯定、否定和中立态度,并提出“准道德主体”的概念。
持肯定态度的学者认为随着算法的完善和技术爆炸,智能机器跟随意识做出的道德判断和道德行为与人类无异,当其基于智能意识做出道德行为时,它也是其行为的责任承担者,这种行为包括危害人类、危害社会的不道德行为。当智能机器人在自我决策下独立做出危害社会、人类的不道德行为时,智能机器应当负法律责任。学者认为当人工智能拥有道德主体地位后,智能机器不再是人类活动的辅助性工具,而是转变为与人类享有同等权利义务的社会主体、法律实体。反驳人工智能具有道德主体地位的学者认为智能机器不具备法律责任主体的能力,人类法律无法适用于智能机器。有学者从认识论和价值论出发,认为智能机器没有欲望、情感,难以实现自我价值,不满足道德主体的要素,从哲学层面否定了人工智能的道德主体地位。“技术质疑论”研究者对人工智能是否具有道德主体地位持中立态度,他们认为人工智能是准道德主体。虽然智能机器不具备和人类相同的道德主体地位,但智能机器在人类道德准则算法的指挥下,具有自主性、意向性,从而被人类赋予道德主体地位。
二、马克思主义对道德主体的一般性规定
1.道德主体具备基于自我意识的道德感知
道德主体的内核条件是具有理性的行为主体。哲学界对“主体”和“理性主体”有不同观点。康德提出“人为自然立法”,即“人的理性为自然立法”,康德把道德看作是理性主体之间的关系,同时把作为理性主体的人放在了统治地位。黑格尔认为主体是人类认识世界和改变世界的原则,因为人类作为理性主体时,具有改变现实、实现自我的能力,现实存在的客体必定会成为理性主体的认识对象,进入人的自我意识,成为人绝对精神的一部分。康德和黑格尔的主体性理论夸大了人的理性主体地位,是主体膨胀理论。费尔巴哈批判黑格尔过度重视理性主体,忽视了主体理性之外的感性因素,但费尔巴哈提出感性是物质和精神的基础,这夸大了感性的作用和地位。马克思则认为主体是感性和理性的统一,感性是主体的直观感知,理性是主体的能动分析、认识。
马克思认为主体的感性认知和理性认知都来自于人的自我意识。意识来源于主体,能直观反映现实,还能够独立于实践活动之外,分析总结实践活动后指导实践。自我意识是马克思区别人类与动物的重要因素,自我意识是作为主体的人在与客体发生关系时,把“自我”的主体概念和“对象”的客体概念相区别,把主体“我”和客体“对象”的关系作为“我”的意识。这种自我意识反映出自我认识与客观存在的不同,这也是辩证唯物主义中所讲的主观世界和客观世界的辩证统一关系,这一关系正是通过自我意识实现的。主体基于自我意识得出的感知不仅反映了客观存在,还体现了主观认知。人具有理性思考能力,作为道德主体的人往往在反思对客体的关系中,经过思维的逻辑推理形成道德感知。基于自我意识的感知能够清晰地厘清主体和客体的道德关系。道德主体基于自我意识的道德感知是支撑道德主体进行道德判断和道德实践的前提和基础。
2.道德主体具有自由意志的道德实践
马克思对主体的另一规定在于主体能够进行自觉能动的创造性活动。在康德那里,真正严格意义上的自由只能是自由意志,并且自由意志不是一下子就明确起来的,而是通过一系列自由任意的范围而逐渐纯粹化和显露出来的,它最终表达为道德律或义务的形式[3]。黑格尔把自由理解为对必然性的认识,马克思和恩格斯继承了这一观点。但是马克思认为的自由,不仅仅是对必然性的认识,更是在认识和掌握必然性基础之上对必然性的利用,人是否正确的认识必然性是由实践来检验的,人类的实践是带有主观性的改变世界的活动。人是否是自由的,要看人在实践中是否实现了主观意愿与客观规律的统一。马克思所讲的“人的自由意志”指的就是人不像动物那样只是被动地适应自然,而是“积极地”“主动地”按照客观规律去改造自然,把它改造成我们喜欢的样子,即主体按照自己的意愿行动,实现自身自由全面的发展。在此,马克思所说的“自由意志”可以被概括为“人主动地让自己去适应客观规律、顺应自然规律”。人这一主体与其他实践主体不同的就是人类主体是主动地去适应,而其他实践主体被动地适应。
马克思主义注重实践。马克思指出:“人应该在实践中证明自己思维的真理性,即自己思维的现实性和力量,亦即自己思维的此岸性。”[4](P3)意识是在实践活动中形成的,但意识也在大多数情况下指导、规划着主题实践活动。意志不完全等同于意识,是在意识的相对独立性中找到的独特思维方式,当这种意志作用于实践时,就可以体现出实践的能动性、独立性。自由意志来源于主体实践认识,主体可以通过自由意志选择自己的实践自由。人类作为道德主体在进行实践时,往往做出一些超越自身本能的实践行为,比如人类抢险救灾时,除了保证自身的基本生存外,还会帮助他人,参与社会重建,这既保证自我安全又体现了自己的道德行为。这一实践活动中会有意识的先行性,这一实践过程还会有规划性,对实践结果的预测构想也体现出主体对自己行动的期待。从这一实践过程来看,道德主体的自由意志体现在对既定目标的意识先行性,对事件过程的规划构思,对实践结果的预测、期待。意识与实在之间的互动性和规定性,使得主体的实践是在自由意志的指引下进行的能动的创造性活动。综上所述,道德主体必须具有基于自由意志的实践能力以实现自己的道德选择。
3.道德主体具有主体交互的主体间性
马克思认为主体间性是人类社会性的体现,体现了主体与主体之间、个人与社会之间的交互关系。就人作为道德主体而言,这种道德的判断基础是在社会关系中形成的,人的道德属性也是在人与人或人与社会中形成的。费尔巴哈把人类本质定义为“孤立、抽象的个体”,马克思批判费尔巴哈只看到了人类本质中的自然属性,没有看到人类的社会属性。马克思在论证人类的社会性时,指出“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”[4](P5)。历史唯物主义揭示了在长期历史时期中人类形成的客观存在的社会关系。马克思主义用社会关系来确立人的本质,实则是表达“社会人”概念,社会关系的一个显著特点是交互性,这种交互性通过各种复杂的社会关系体现出来。主体间性主要强调主体与主体之间的关系,同时主体也可以创造社会关系,这种关系是在实践中形成的,有既定的社会关系,也创造新的关系来实现主体与主体之间的交互。
道德主体首先要具有基于自我意识的自我感知能力,运用道德感知判断道德对错,同时在进行道德实践时,要有解释自己行为或未承担义务的能力,道德实践后要对道德行为负责,思考自己在这次实践中充当了什么角色,行为是否违背普遍认同的道德准则,自己在这次实践中与其他主体的关系、与社会的关系,有无损害其他主体或社会的行为。基于自我意识的道德感知是支持道德主体进行道德实践的前提和基础,道德主体用自由意志来保证自己选择道德实践,那么道德主体所具有的主体间性就是对自己行为的道德反思,是与其他主体、与社会发生道德关系时,对自己的行为负责,并承担道德责任的能力。马克思认为的主体间性是在社会性中体现出来的,而道德关系也是在主体与主体、主体与社会的交互中形成的,因此道德主体需具有主体交互的主体间性。
三、人工智能不具有道德主体地位的理论省思
1.人工智能道德感知:去自我意识的特定感知
随着强人工智能的技术发展和在各行业的广泛运用,人工智能似乎“无所不能”,其大数据分析能力甚至超越人类。目前智能机器通过植入算法进行道德感知,这种道德感知和人的理性思维相像,但人基于自我意识的道德感知是理性认识和感性认识的有机统一。目前人工智能虽然能够判定和模仿人类的情绪等非理性因素,但它不具备这些非理性因素,例如:勇气、信念、信仰、情感、习惯、本能等。没有这些感性因素的道德感知,就无法实现主观世界与客观世界的辩证统一,因此这种道德感知只是“机器意识”的产物,是无法支撑道德主体来进行道德判定的,即使是植入道德准则的人工智能,在进行道德判定时也会遇到困难,从而影响道德实践。
人类的自我意识是大脑的产物,是人区别于其他生物的根本所在。人类只有有了自我意识,才能进行物质生产实践,建立社会关系、划分道德标准,构建完整的体系来维护自身权益,促进人类这一群体发展。假如这种自我意识可以赋予给人工智能,那么拥有自我意识的人工智能会产生怎样的行为呢?以机器人为核心,建造机器人王国?目前已有的道德准则是否通用?或是智能机器维护机器人权益,制定机器人的道德准则?这些结果无法预测。有人提议把人类的自我意识上传到智能机器上,这样机器就拥有基于人类自我意识的道德感知而不会产生以机器为中心的思想。实现这一设想也存在难题,虽然信息可以在信息系统之间传输,但是信息系统自身的信息活动无法传输,意识是信息活动,不是信息,所以意识无法在信息系统之间传输,所谓的意识上传终归是空想。综上所述,人工智能不具备自我意识,其道德感知只来自于特定的方式,因此人工智能作为道德主体难以实现。
2.人工智能道德实践:无自由意志的复刻、模拟、拓展行为
目前人工智能道德实践的模式是:算法输入—分析判定—行为输出。人工智能在模仿人类主体行为时,能准确地做到救援、防护等维护人类利益的道德行为,这种实践水平达到了人类所不能达到的水准。人工智能甚至可以深度模仿人的神经网络,按照人类已有道德认识做出本能的实践反应。即使这种反应是人类本能的行动反应,依旧是模仿人类的,不同的人面对同一个道德问题有多种行为选择,这是基于人类自由意志的本能,这种基于自由意志的实践选择是无法产生于人工智能之中的。在面对道德问题时,虽然智能机器可以通过分析人类性格特点、神经网络,做出更能遵守道德准则或更能维护大多数人利益的道德行为,但这也只是对人类自由意志下进行道德实践选择的模拟和拓展。
人工智能主要以物理信息化手段来运行,其信息系统的接收、运算、判断控制着它的行为。人工智能的实践要遵守其信息系统的判断和指示,不存在指导意识与行为的偏差,而自由意志则在一定程度上使主体思想和主体行为保持一定的空间。意识指导主体进行实践时,主体可以做出一些与意识有偏差的行为,拥有自由意志的道德主体做出与道德意识有偏差的行为时,道德主体就要对自身行为承担责任。而人工智能没有自由意志,做出与其道德感知相偏差的行为甚至违背道德原则时,我们无法以人类的法律法规要求智能机器担负责任,而是要求给人工智能植入算法的人类工程师承担法律责任。长此以往,不排除人工智能工程师为了规避风险而让人工智能变得不再智能。拥有自由意志的道德主体是能够承担自己实践而导致的责任的,而无自由意志的人工智能显然不具备为其行为承担责任的能力。
3.人工智能主体间性:与人类的主体交互何以可能
人类作为道德主体,人类的主体间性表现在主体与主体的交互关系中,这种交互关系也体现出人类的社会性。人在其本质上是社会关系的总和,而人工智能则不适用于这一概念,在既定的社会关系中,智能机器人很难作为一个独立的主体融入人类社会,人类主体不承认它的主体地位,不把它当做社会的一分子看待。人工智能机器人索菲亚已经被沙特政府授予公民地位,享有公民享有的权利,但仍没有把它当做正常的人看待,原因在于族群意识。人类社会最基本的血缘关系、宗亲关系维系着人类这一种族群体的基本社会关系,人工智能显然不具备这种关系,因此始终被人类看作不具备道德主体地位的行为体。
马克思共同体思想是马克思主体交互思想的体现,马克思指出:“人同自身的关系只有通过他同他人的关系,才成为对他来说是对象性的、现实的关系。”[5](P99)人工智能制造的初衷是帮助人类改造物质世界,是人类认识世界、改造世界的辅助性工具,目前人类与人工智能是控制和被控制的关系。在未来人工智能与人类的交互中,假如人工智能具备和人类相同的道德主体地位,在人工智能与人类实践能力不对等的情况下,是否会颠覆人类与人工智能控制与被控制的关系?假如人工智能与人类都具有主体性,人类的绝对主体地位将被打破,二者会朝着超主体性或去主体性的方向发展,双主体超越主体性成为与世界并存的自为自在状态,这种状态更像是去主体化的纯粹客体阶段[6]。这样看来,即使人工智能被赋予道德主体地位,它与人类的主体交互也难以实现。
四、结语
从马克思对道德主体的一般性规定来看,道德主体需具有基于自我意识的道德感知,在自由意志下进行道德实践,在实践中进行主体交互。从人工智能发展现状来看,人工智能的道德感知不具有自我意识,其实践是无自由意志的复刻、模拟、拓展行为,与人类的主体交互也难以实现。由此得出人工智能不具有道德主体地位,进而为解决人工智能道德责任归属问题提供新思路。
面对人工智能带来的伦理道德挑战,厘清人工智能道德责任归属,建立完善的人工智能法律法规、伦理规范和政策体系迫在眉睫。人工智能的研究和发展还存在许多不确定性,其发展应始终以造福人类为宗旨,不能将人工智能的自主意识等同于人类特有的自由意志,不能改变人工智能由人类创造的事实。不以规矩,不成方圆。只有为人工智能的研发与应用制定完善的、合乎人类利益与道德标准的相关伦理规范与法律制度,才能确保人工智能的可持续发展,确保人类的生存权利与安全。