APP下载

人工智能伦理的技术设计及其道德认知基础研究

2022-02-13

科学经济社会 2022年4期

孟 伟

人工智能伦理治理的理论与实践已上升为一项国家层面的战略规划。习近平总书记在2018年9月17日《致世界人工智能大会的贺信》中指出,要“处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题”①《习近平致2018世界人工智能大会的贺信》,2018-09-17,http://www.xinhuanet.com/politics/leaders/2018-09/17/c_1123441849.htm。;2018年10月31日,习总书记在主持中共中央政治局集体学习时再次强调,“要加强人工智能发展的潜在风险研判和防范”②《习近平:推动我国新一代人工智能健康发展》,2018-11-01,http://www.banyuetan.org/dyp/detail/20181101/1000200 033137441541034775479480661_1.html。;2019年7月24日,主持召开中央全面深化改革委员会第九次会议审议通过《国家科技伦理委员会组建方案》,提出不仅要明确科技活动必须遵守的价值准则,而且要通过构建“科技伦理治理体系”把这些准则落实在行动中③张霄:《发展科技伦理:从原则到行动》,《光明日报》2019年12月9日。。

人工智能不仅是一种为人类所设计、驱动和使用的一般性传统技术,随着人工智能设计和制造的飞速进步,作为模拟人类思维和智能的特殊技术,人工智能越来越可能成为一种具有高度“自主性”“能动性”并可能在未来颠覆和重塑传统人机关系的新型技术。因此,人工智能伦理治理的课题,不仅需要回答在经济、医疗、教育等各个领域如何合理使用人工智能,而且需要面对人工智能在技术层面上的伦理设计问题,即人工智能如何在技术上合理实现道德的生成与嵌入。国内外学术界越来越意识到,人工智能伦理治理不仅是一个涉及伦理监管和审查的实践课题,也是一个涉及道德认知与道德心灵的元哲学课题。人类自身的道德意识、道德概念与道德规范是如何生成的,这应当是人工智能这种特殊“能动性”技术伦理治理体系研究中的重要一维甚或是基础性一维。

一、双重技术属性的人工智能

人工智能既是一种被动性技术,又是一种能动性技术。社会技术系统观为理解人工智能技术的双重属性提供了一个技术观的良好理论框架。在现代社会技术系统观(view of sociotechnical systems)视野下,人工智能被视为一个能够与社会实时互动、具有自组织能力等结构和功能的复杂系统。社会技术系统观主张,人工智能技术是一个由技术人工物(technical artifact)、人类行动者(human agent)、制度规则(institutional rules)、人工行动者(artificial agents)和技术标准(technical norms)等模块构成的复杂自组织系统。作为一个社会技术系统,人工智能技术不再是简单的物理装置,而是一种同时具备物理功能和意向功能的二元属性混合体。或者说人工智能技术具有双重特征:一是作为被设计的物理硬件所体现的物理属性,二是这种物理硬件所体现出的意向心理属性。物理和意向心理两种属性正是这个复杂的技术社会性系统各构成部分综合作用的功能呈现①Peter Kroes,Anthonie Meijers,“The Dual Nature of Technical Artefacts”,Studies in History and Philosophy of Science,2006,Vol.37,No.1,pp.1-4.。

(一)人工智能作为一种“被动性”技术

在社会技术系统观看来,作为一种“被动性”技术的人工智能主要由技术人工物、人类行动者和制度规则构成。人工智能作为技术人工物表明人工智能首先是一种人类设计并用于人与环境互动的物理技术装置,即在社会技术系统中被设计具备某种功能并且能够实现这种功能的物理装置。人工智能作为人类行动者表明作为社会技术系统的人工智能不仅由物理装置构成,而且由这种物理装置的设计者、管理者和操作者等人类主体构成。除了技术人工物和人类行动者之外,作为社会技术系统观的“被动性”人工智能技术,还离不开人类行动者所依赖的制度规则。就人工智能伦理生成与嵌入问题而言,人类行动者承担了伦理意向和伦理设计的功能,制度性规则提供了约束人类行动者的伦理规范内容,而技术物理装置则是上述伦理规范内容的物理载体。

(二)人工智能作为一种“能动性”技术

人工智能不仅是一种“被动性”技术,更是一种被赋予某种意向性功能的“能动性”特殊技术。在社会技术系统观看来,人工智能技术还具有一般技术所不具备的特殊结构和功能。作为一种“能动性”的特殊社会技术系统,人工智能除了技术物理装置、人类行动者、制度性规则等构成模块之外,还负载了人工行动者和技术标准等新的结构和功能①Ibo van de Poel,“Embedding Values in Artificial Intelligence(AI)Systems”,Minds and Machines,2020,Vol.30,No.9,pp.385-409.。与一般“被动性”技术相比,人工智能体现了更鲜明和强大的自主性(autonomy)、互动性(interactivity)与自适应性(adaptability)特征②Luciano Floridi,J.W.Sanders,“On the Morality of Artificial Agents”,Minds and Machines,2004,Vol.14,No.8,pp.349-379.。这种自主性、互动性和自适应性使得人工智能承担了某种与人类主体性近似的人工行动者角色,体现了某种“拟主体性”③段伟文:《人工智能的道德代码与伦理嵌入》,《光明日报》2017年9月4日。的典型特征。作为人工行动者的人工智能,其“拟主体性”甚至替代了人类行动者在人工智能社会技术系统中的部分功能。

因应作为特殊社会技术系统的人工智能“拟主体性”新功能,针对人工智能的伦理思考更加倾向于技术层面上的道德生成与嵌入问题。相比制度性规则,人工智能技术标准作为技术运行规则能够更直接影响人工智能的运行,能够更具体地替代制度性规则的部分伦理功能。此外,人工智能“拟主体性”特征,也使作为人工行动者的人工智能体现了人类行动者的伦理功能。人工行动者可能更加自主地强化人类行动者的意向价值,并且可能产生技术自身无预期的正向新价值,同时,也可能因其自主性、互动性和自适应能力而产生一些困扰人类的负面伦理结果④Stephen Cave,Rune Nyrup,Karina Vold,et al.,“Motivations and Risks of Machine Ethics”,Proceedings of the IEEE,2019,Vol.107,No.3,pp.562-574.。当然,人工智能作为人工行动者的“拟主体性”不完全等同于人类行动者的“真实主体性”:人类行动者始终是设计者,而人工行动者终究是被设计者;人类行动者具有意向性,而人工行动者是否具有意向性以及具有何种意向性仍旧存在争议;人工行动者的物理—生理自主性目前还不能等同于人类真实的意向性、自由意志等自主性表现。

二、人工智能伦理的技术设计机制

从技术设计层面看,具有双重技术属性的人工智能在伦理设计上也有其特殊之处。

(一)作为“被动性”技术的人工智能伦理设计

作为一种“被动性”技术的人工智能,其意向性功能主要通过人类设计者呈现。一般来说,作为“被动性”技术,人工智能的道德生成与嵌入需要满足两个基本条件:一是人工智能必须符合设计者的意向性伦理设计;二是人工智能在运行过程中需要实现初始的意向伦理设计。也就是说,“作为技术人工物的人工智能X成功体现出道德价值V,这需要满足两个相互关联的前提:一是X被意向设计具有V,二是X的使用有助于体现V;并且前者和后者之间存在因果关系”⑤Peter Kroes,Anthonie Meijers,“The Dual Nature of Technical Artefacts”,pp.1-4.。这说明作为“被动性”技术的人工智能道德设计需要满足两个要求:一是人工智能伦理意向的前端设计,二是人工智能后端伦理意向的正向实现。

作为“被动性”技术的人工智能,其道德设计主要通过人类行动者、制度规则、技术人工物所共同组成的设计、运行、反馈和再设计等环节实现。(1)人类行动者具有初始的价值意向能力,其通过意向因果行为将制度规则蕴含的伦理规范设计并嵌入到技术人工物中;(2)作为技术人工物的人工智能,在使用和运行过程中通过物理因果作用在技术功能运行中实现伦理价值的初始意向;(3)在人工智能的价值运行过程中,由于后端的价值实现可能偏离人类行动者的初始意向价值,因此人类行动者需要根据规则进行评估从而做出意向价值的调整,以此实现规则伦理在人工智能技术人工物上的再设计①Ibo van de Poel,“Embedding Values in Artificial Intelligence(AI)Systems”,pp.385-409.。当然,人工智能伦理价值的再设计和调整,不是设计者初始意向的一种消极应变,而是一种创新性应变,它可以不用改变技术人工物的物理结构而按照新的意向规划来实现某种新价值②Pieter E.Vermaasa,Wybo Houkes,“Technical Functions:a Drawbridge between the Intentional and Structural Natures of Technical Artifacts”,Studies in History and Philosophy of Science,2006,Vol.37,No.1,pp.5-18.。

(二)作为“能动性”技术的人工智能伦理设计

与一般技术不同,人工智能具有明显的双重技术属性。由于人工智能是对人类真实智能这一特殊对象的模拟再现,因此人工智能不仅是一种为人类所用的一般技术器具,而且可能成为一种具有某种自主性甚至脱离人类控制的特殊技术装置。人工智能这一特殊技术装置可能体现出的不同程度的行为自主性和可能产生的某种脱序性行为,我们姑且称之为人工智能技术的“能动性”属性。

可见,与一般“被动性”技术不同,人工智能显然可能具有更加强大的自主性、互动性和适应性,从而展现出明显的“能动性”特征。与“被动性”技术不同,人工智能的“能动性”特征使其在价值技术生成和嵌入问题上具有更加独特的可能性和约束性。更具自主性和能动性的人工智能技术,在其运行过程中更有可能出现无预期的道德风险或者价值偏离。为了尽可能规避人工智能因其“能动性”而产生的道德风险或价值偏离,这就使得审视“能动性”技术视角的伦理设计显得尤其必要。这意味着,在社会技术系统观视角下,除了人类行动者、制度规则、技术人工物的角色功能之外,人工智能的伦理设计更需要重视人工行动者和技术标准所承担的独特功能。

第一,规避人工智能的自主性可能产生的道德风险或价值偏离,可能更加需要完善的价值反馈和再设计机制。“相比其他技术系统,人工智能的无预期意向后果对于具有学习能力的人工智能系统而言尤为特殊”;因此,对于“能动性”人工智能技术而言,“如何控制价值实现以及如何进行持续的再设计显得异常关键,同时,如何处理人工智能系统可能面临的无预期结果也非常关键”①。由于未来的人工智能更加趋向于具备自主性特征,这就更需要人类再设计等活动的介入,从而尽可能保证人工智能的“能动性”不会偏离所预期设计的正向道德价值。

第二,面对人工智能的“能动性”在道德价值上可能带来的不确定性,技术标准的及时调整也成为规避人工智能道德风险和价值偏离的必要途径。从人工智能道德价值的建构视角看,人类行动者的道德意向性可以具现于设计人工智能的技术标准中,因此,人工智能道德价值技术生成和嵌入的再设计和再调整可能直接依赖制度规则和技术标准的调整。相比制度规则,技术标准可调整的弹性更强。

第三,人工智能的自主性主要体现在人工行动者的角色上,进而“能动性”人工智能技术装置可能成为某种类型的人工道德行动者(artificial moral agent)①Colin Allen,Iva Smit,Wendell Wallach,“Artificial Morality:Top-down,Bottom-up,and Hybrid Approaches”,Ethics and Information Technology,2005,Vol.7,No.3,pp.149-155.或人工伦理智能体②段伟文:《人工智能的道德代码与伦理嵌入》。。作为人工道德行动者的人工智能设计有两种可能思路:(1)完全的人工道德行动者设计。完全的人工道德行动者设计还停留于理想化层面,至少目前看来,“人工智能等人工系统的道德能力具有严格的领域限制。相比之下,人类行动者等人类真实主体的道德能力范围更广并且可以潜在应用于任何场域”③Catrin Misselhorn,“Artificial Morality:Concepts,Issues and Challenges”,Society,2018,Vol.55,No.2,pp.161-169.。也就是说,人工智能不是与人类行动者无差别的同等道德行动者④Ibo van de Poel,Peter Kroes,“Can Technology Embody Values?”,in P.Kroes&P.-P.Verbeek(Eds.),The Moral Status of Technical Artifacts,Dordrecht:Springer.2014,pp.103-124.。进一步说,人工智能目前尚不可能越出“特殊化、专门化的发展范围”而具有“全面的智能和自由意志”的综合能力⑤赵汀阳:《人工智能会“终结”人类历史吗?》,《南风窗》2017年第23期,第87-90页。。(2)不完全的人工道德行动者设计。不完全的人工道德行动者设计主要着眼于人工智能作为人工行动者能够部分实现人类的道德自主性。不完全人工道德行动者的设计目前存在“自上而下”“自下而上”(bottom-up)以及两者混合等三种方式①。“自上而下”的设计路径是“用代码编写的算法使人所倡导的价值取向与伦理规范得以嵌入到各种智能体之中”②;“自下而上”的设计路径则是直接从人工智能与环境的互动中动态获取和调整价值,这种路径可能是算法也可能是非算法的;自上而下和自下而上的混合设计路径缘于人类的道德认知能力是两种设计方式的混合,即由进化和学习能力所塑造的自下而上机制以及理论推理的自上而下机制的混合,因此“道德智能机器人设计需要自下而上的倾向和离散技能与自上而下的道德行动评估的两者混合”⑥Wendell Wallach,Colin Allen,Iva Smit,“Machine Morality:Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”,AI&Society,2008,Vol.22,No.4,pp.565-582.。

三、人工智能伦理设计的道德认知基础

人工智能的伦理生成、嵌入问题与道德认知问题密切相关。当代认知科学以及相应道德认知研究的进展,不仅深化了人工智能“自上而下”的道德设计路径,而且为“自下而上”的道德设计路径提供了理论支撑。

(一)两种道德认知观

从认知科学的产生和发展来看,与认知主义、联结主义和具身(涉身)认知(embodied cognition)的三大认知科学研究纲领相应,人工智能的技术设计也出现了“自上而下”(与人类智能的自然进化相反,从高阶知识到符号组织再到低阶信号处理,从而完成人工智能设计)和“自下而上”(立足人类智能的自然进化,从信号处理行为等低阶智能行为到符号加工和知识等高级智能的设计路径)两种设计思路。20世纪50年代以来,认知主义的表征——计算主义和联结主义的神经模拟研究长期主导着人工智能的研究,两者总体上体现为“自上而下”的人工智能设计路径。20世纪80年代以来,与认知主义和联结主义不同,认知科学中出现了交互主义、生成主义、嵌入主义、情境主义等的具身认知研究纲领,这一纲领强力支持了以布鲁克斯等为代表的“自下而上”的人工智能设计路径。

与之相应,道德认知研究领域也出现了表征主义和具身认知的两种道德认知。前者认为道德认知是关于道德表征的计算,而后者则主张道德认知缘于身体与自然和社会情境的交互,进而形成了具身道德认知(embodied moral cognition)理论范式。(1)具身道德认知有其哲学基础。现象学主张人类道德意识产生于主客体原初的意向关系中,正如黑尔德(Klaus Held)所说,马克斯·舍勒(Max Scheler)的现象学伦理学就是“从现象学方法的基本原则出发,从显现者与显现的相互关系原则出发而被建造起来”①克劳斯·黑尔德:《现象学的意向性伦理学》,孙华来译,《南京大学学报》2001年第1期,第15-25页。。梅洛-庞蒂(Maurice Merleau-Ponty)明确指出道德认知与原初知觉体验的相关性,主张人类原初的知觉世界通过“意向弧”等机制“投射”出伦理道德等抽象的意识形态或精神情境②梅洛-庞蒂:《知觉现象学》,姜志辉译,北京:商务印书馆2001年版,第181页。。(2)具身道德认知也得到当代认知科学家的认同。在瓦雷拉(Francisco Varela)的生成主义认知观看来,知觉是生物体身体与环境之间一种不断生成的行动,道德意识也是被行动实时导向,道德意识与道德概念等认知结构也是不断在知觉—行动的循环中被呈现的③Francisco J.Varela,Evan Thompson,Eleanor Rosch,The Embodied Mind:Cognitive Science and Human Experience,Cambridge,Mass:MIT,1991,p.172.。克兰西(William J.Clancey)则从情境认知观解释,道德概念等认知活动与主体的感官运动协调和社会情境密切相关④William J.Clancey,Situated Cognition:On Human Knowledge and Computer Representations,Cambridge:Cambridge University Press,1997,pp.27-28.。莱考夫(George Lakoff)和约翰逊(Mark Johnson)立足认知语言学研究,主张道德认知等复杂和抽象的认知活动是隐喻投射机制的结果。“我们最重要的抽象概念,从爱、因果关系到道德性,都是通过复杂隐喻被概念化的。这些隐喻是这些概念的本质构成,并且如果没有这些隐喻,那么这些概念就只剩下骨架从而被剥夺了几乎所有的概念和推理结构”⑤George Lakoff,Mark Johnson,Philosophy in the Flesh:the Embodied Mind and Its Challenge to Western Thought.New York:Basic Books,1999,p.73.。

(二)基于两种道德认知观的人工智能伦理设计

两种道德认知观在理论上大体决定了人工智能“自上而下”和“自下而上”的两种道德设计进路。表征主义的道德认知理论更为支持“自上而下”的、基于算法承载的道德规范设计思路⑥龚亮:《怎样提升人工智能的“道德水平”》,《光明日报》2017年9月11日。,而具身道德认知理论则支持基于身体图式等低阶道德认知活动并以此实施的“自下而上”的道德规范设计⑦徐英瑾:《具身性、认知语言学与人工智能》,《上海师范大学学报(哲学社会科学版)》2017年第6期,第5-11页。。

目前看来,主流的人工智能伦理设计采纳了“自上而下”的道德算法进路,但是“自下而上”的道德设计进路不仅在理论界得到讨论,而且已经引起技术应用领域的强烈关注。原脸书(Facebook)的人工智能研究总监杨立昆(Yann LeCun)就指出,自然智能是现有人工智能研究的短板,“人工智能与人类在学习上还是有很大的不同。就像一辆由AI驱动的自动驾驶汽车可能需要模拟5万次的撞树之后,才能知道这种做法是错误的。但是在现实世界中,野外的羚羊面临生存的威胁可没有那么多的试错机会,人类的婴儿从咿呀学语到奔跑活动也不需要经过上百次的尝试。”①杨立昆、马库斯:《人工智能or人类智能?两位AI权威掀起了终极讨论》,2017-10-09,https://www.sohu.com/a/196959158_354973。总体上看,具身道德认知观在道德意识、概念和规范的生成问题上更加重视体验、情境、互动等因素的基础作用,因而它弱化了“自上而下”的人工智能道德设计,更倾向于“自下而上”的设计进路。同时,由于具身道德认知观更加能够解释自然道德智能,因此,它更能适应“能动性”人工智能的道德技术设计。

当然,我们认为,“自下而上”的道德技术设计并不意味着完全排斥“自上而下”的设计路径。就目前来看,在人工智能技术伦理设计问题上,“自上而下”的传统设计思路依然是主流,但是具身认知与具身道德认知对自然智能的研究来看,“自上而下”的道德技术设计应当至少要更为包容注重认知交互生成机制的“自下而上”的道德技术设计思路。

四、人工智能伦理设计的几个道德心灵哲学问题

人工智能的道德技术设计路径需要技术观、认知观和道德心灵哲学的合作。“电脑技术的发展需要基于某种道德哲学理论的独特伦理考察。(人工智能等)人工道德(artificial morality)领域不仅提出了工程设计的任务,而且需要道德哲学的理论分析。”②Colin Allen,Iva Smit,Wendell Wallach.“Artificial Morality:Top-down,Bottom-up,and Hybrid Approaches”,pp.149-155.设计和建造“具有正向价值的道德系统”需要哲学家与工程师的合作,需要若干道德心灵哲学问题的理论澄清。

(一)道德自然主义的技术实现

人工智能伦理设计的技术实现,更倾向于认同道德自然主义的立场。人工智能伦理设计的技术实现,意味着人类行动者的伦理意向实现于人工智能这种特殊技术人工物上,意味着人工智能作为人工道德行动者的道德自主性最终需要通过某种物理—生理装置加以实现。显然,人工智能伦理的技术实现更为兼容道德自然化的哲学理念或者道德自然主义的形而上学框架,也就是说意向性的价值规范是可以通过自然主义的方式在技术人工物上呈现的。科幻小说《转圈圈》中,机器人伦理三定律良好地嵌入机器人的“正电子”大脑中,“这表明,机器人定律并不全然是道德律令,也符合其技术实现背后的自然律。换言之,机器人定律所采取的方法论是自然主义的,它们是人以技术为尺度给机器人确立的行为法则,既体现道德法则又合乎自然规律”③段伟文:《人工智能的道德代码与伦理嵌入》。。当然,科幻小说中的故事情节毕竟不能完全等同于技术的现实实践。人工智能技术在实践层面上能否实现道德规则与自然规律的合一,能否完美地践行道德自然主义的方法论设计,这尚且需要人工智能技术设计者和道德心灵哲学家的深度合作。

(二)向道德认知的交互建构主义拓展

表征主义的道德认知观倾向于支持“自上而下”的人工智能伦理设计,而生成主义、交互主义、进化主义的非表征主义道德认知观更倾向于支持“自下而上”的人工智能伦理设计。表征主义道德认知观要求将道德认知表征化、模块化和计算化,“不管人工道德行动者是一台电脑还是机器人,人工智能中的道德能力运行都需要科学家和哲学家研究并且将人类道德决策能力分解为可计算和可控的模块或成分”①Wendell Wallach,Colin Allen,Iva Smit,“Machine Morality:Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”,pp.565-582.。而非表征主义的道德设计则倾向于感官—运动神经系统的模拟、动态交互生成、隐喻等功能的技术实现。目前看来,后者在道德神经科学、认知语言学等领域引起了强烈关注,但是在技术实践上仍处于起步阶段。总体上看,正如表征主义道德认知观开始包容道德认知交互建构主义的观点,人工智能伦理设计的“自上而下”进路也应当包容“自下而上”的设计进路。进一步说,在人类道德行为乃至人工道德行动者的伦理意向行为选择的理解上,道德哲学应当拓展传统的道德自然主义,即将物理—生理机制与情感、情境和社会机制整合起来,接受一种物理学—生物学—社会学的包容道德自然主义。

(三)需要何种人工道德行动者?

人工智能伦理的技术设计问题面临的一个棘手问题是如何理解和应对人工智能的人工道德行动者的特殊角色。作为人工行动者的人工智能具有自主性、互动性和自适应性,其伦理设计的实现就需要分析和澄清人工智能是何种的人工道德行动者,以及可能成为何种的人工道德主体。哲学家摩尔(James H.Moor)概括了人工智能的四种人工道德行动者角色:(1)具有人类意识、自由意志和意向性等属性的完全道德行动者。完全的道德行动者是一种理想化的人工道德行动者,更为现实的人工道德行动者则体现为三种不完全形式。(2)仅仅对人类与环境产生伦理影响、自身并不承载道德规范的、完全物理性的人工道德行动者。(3)按照人类赋予的某种道德规范来运行的机器人和程序等隐性的人工道德行动者。(4)可以表征伦理范畴并且按照这些范畴通过机器语言来进行自主推理的显性人工道德行动者②James H.Moor,“The Nature,Importance,and Difficulty of Machine Ethics”,IEEEIntelligent Systems,2006,Vol.21,No.4,pp.18-21.。具有表征或学习能力的显性人工道德行动者虽然具有一定的道德自主性,但是其与物理的和隐性的道德行动者都在人类可控范围内。完全的道德行动者因其自由意志能力则似乎超出了人类可控范围,这也正是人们对这种超级人工智能感到忧虑和恐惧的原因。

五、结语

人工智能的伦理设计目标是在人工智能技术的运行活动中能够有效和正向地实现伦理规范的要求③Raja Chatila,Kay Firth-Butterflied,John C.Havens,et al.,“The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”,in Aldinhas Ferreira M.etc.,(eds.),Robotics and Well-Being,Springer,Cham,2019,Vol.95,pp.11-16.。这个问题又称“人工智能的技术价值具身性”(value embodiment in AItechnology)④Ibo van de Poel,“Embedding Values in Artificial Intelligence(AI)Systems”,pp.385-409.问题,即人工智能伦理规范能够良好地体现在人工智能的技术设计和运行中。国内学者也将人工智能伦理的生成与嵌入问题形象地称为人工智能的“良芯”与“良心”⑤李伦、孙保学:《给人工智能一颗“良芯(良心)”:人工智能伦理研究的四个维度》,《教学与研究》2018年第8期,第72-79页。问题。“良芯”与“良心”是一体两面的问题,即人工智能在技术设计和运行(“良芯”)中能够有效地实现伦理规范要求(“良心”)。社会技术系统观为我们理解人工智能提供了一种良好的技术观框架,它从技术设计者、人工行动者、制度规则、技术标准和技术物理装置等构成视角较好地展现了人工智能何以具有被动性和能动性的双重属性。表征计算道德观和具身道德认知观则为我们呈现了自上而下和自下而上的两种伦理规范设计进路。从人工智能的技术属性和道德心灵哲学的视角看,自上而下和自下而上的混合方式是较为现实的伦理规范设计进路。人工智能的能动性并不意味着其具有完全的自由意志,人工智能始终不可能成为完全的人工道德行动者,因此人们对超级人工智能的顾虑或许是杞人忧天了。