仿真机器人的伦理问题探究
2021-04-17袁玖林张彭松
袁玖林,张彭松
(黑龙江大学 哲学学院,黑龙江 哈尔滨 150080)
在智能机器人伦理的诸多讨论中,仿真机器人的伦理问题争议最大,因为“他们”具有高仿真性、高互动性、高情感共鸣性等特征,容易让人联想到人类本身,且仿真机器人的设计目的就是为了满足普通人的生活需求,尤其是满足人们情感沟通交流的需要。“仿真机器人做为新一代生产和服务工具,在制造领域和非制造领域占有更广泛、更重要的位置,这对人类开展新的产业,提高生产与生活水平具有十分现实的意义……是目前科技发展最活跃的领域之一。”[1]仿真机器人是一种以人类为原型进行设计制造的智能机器人,包括人的外貌、骨骼、神经系统、生理反应以及情感交流系统等,具有极为广阔的应用空间。例如,2020年9月4日,在中国国际就服务贸易交易会开幕式上展示出了一款可作为大堂经理使用的智能银行仿真机器人。在未来的强人工智能时代,人们开始担忧仿真机器人是否会有取代人类的可能性,以及是否会冲击到现有的伦理规范?自仿真机器人索菲亚获得公民身份以来,人们就是否应当给予其人权展开过激烈讨论。因而对于仿真机器人的伦理问题,需要我们进行深入的思考和关注:一方面可以避免仿真机器人给人类社会带来的道德困扰,另一方面可以消除人们对仿真机器人融入人类社会后产生的怀疑、忧虑和恐惧等抵触情绪,以期实现人工智能时代人与机器人保持良好的关系,防止人类肆意损坏仿真机器人。
一、伦理隐忧:身份认同困惑与伦理认知偏差
仿真机器人是智能机器人中极为特殊的一种,“不久的将来,一个机器人的时代即将开始,各种人形机器人可能进入到人类社会生活的方方面面,成为人类须臾不可离的伙伴。”[2]在当前的发展中,仿真机器人远未达到人类所具有的水平,正如“人工智能的研究者莫拉维克(Hans Moravec)发现,让计算机在一般认为比较难的智力测验和棋类游戏中表现出成人的水平相对容易,而让它在视觉和移动方面达到一岁小孩的水平却很困难甚至不可能。”[3]人们担忧的“机器人革命”,至少短时间内不会发生。在智能机器人中,仿真机器人以其与人类外貌、声音、情绪表达、肢体语言表达等高度仿真性而备受人们关注,尤其是在沙特阿拉伯授予机器人国籍后,“2017年10月27日,俄罗斯卫星网报道,当地时间10月25日,在沙特阿拉伯举行的未来投资计划会议中,一个名叫索菲亚的‘女性’机器人被授予沙特阿拉伯国籍。”[4]机器人索菲亚之所以被授予公民身份,不仅是在于其具有的强大推理能力和对人类情感的把握,还在于索菲亚有与人类似的外貌特征、语言表达能力和思维方式。
在仿真机器人的诸多应用中,有三种与人接触最多、伦理冲突与困境表现得最为明显:照顾儿童的仿真机器人、陪伴老人的护理机器人以及伴侣机器人。现代社会中,随着生活节奏的加快,人们照顾儿童的时间越来越少,模拟父母来照顾儿童的仿真机器人成为许多家庭的未来设想,“儿童看护机器人在韩国、日本和少数欧洲国家得到广泛重视,美国还相对较少地资助了相关研究。日本和韩国已经开发出了实用的儿童看护机器人,具备电视游戏、语音识别、面部识别以及会话等多种功能。”[5]25-342004年,韩国Yujiu公司开发推出的智能机器人iRobi,可以用多种语言来为儿童讲故事、唱歌和互动做游戏,并且能辅导儿童做功课,除此之外,iRobi也可以充当家庭安保[6]。iRobi具有初步的情感互动能力,对于不断成长中的儿童来说,起着辅助父母照顾儿童的作用。但有学者指出,“虽然机器人也可以与儿童进行互动、玩耍、学习,儿童甚至还可能与机器人产生情感联系,但是,对于儿童的健康成长来说,家人的关爱是无法替代的,机器人只能起到辅助作用。如果把儿童较多地交给机器人照顾,可能会影响其心理和情感的正常发展。”[5]25-34近些年,在照顾儿童的仿真机器人研究中,美国iRobot公司、美国WowWee公司、日本本田公司、日本三菱重工、法国Aldebaran Robotics公司等都有不同功用的成果问世,以满足市场需求。不同于情感还未发展成熟的儿童,老年人的情感趋于成熟稳定,受仿真机器人的影响相对小,但也渴望有子女陪伴在身边,尤其是对于那些单身老人、失独老人、残障老人。“从理论上讲,助老机器人可能产生的社会效益包括以下几个方面。从老人的角度看:一是可以满足老人的日常基本生活需要;二是可以满足老人社会联系的需要;三是可以满足老人的娱乐与情感需要;四是可以满足老人的医疗健康需要。”[7]177-184目前为老年人研发的仿真机器人,多以功能性为主要特征,即满足老年生活需求。例如,台湾陈竹一教授发明的未来会陪老人打麻将的机器人、英国TRC公司推出用于送饭和送药的自主服务机器人。这一类的仿真机器人以功能性为主,情感交流为辅,以应对未来少子化的时代。在日本,有一个令人心酸的社会现象——老年人孤独死,通常是指老年人在外界毫不知情的情况下死于家中。据2010年日本NHK节目组的研究结果表明,“在过去的一年里,孤独死人数达到3.2万人。”[8]这为人们敲响了照顾独居老人生活的警钟,也使得日本近些年在老年人护理的仿真机器人研究中,颇有成果。在陪伴老年人的仿真机器人中,除了情感问题造成的伦理困境外,还有一个令人困惑的问题是如果老年人把仿真机器人当作自己的子女或者亲人,并将机器人列为自己的遗产继承人,那么,这一特殊的遗产继承方式能否得到社会的认可,并给予支持和保护?
在仿真机器人中,最吸引人们眼球和引起争议的是性爱机器人。据英国科学家李维预测,“到2050年,人类将和机器人成为恋人、性伴侣甚至结婚。”[9]抛开纯粹满足性需求的仿真机器人来谈,人们更多的是希望将性爱机器人视为伴侣,因而用伴侣机器人来替代代性爱机器人。在伴侣机器人的伦理问题中,可从两个方面进行探讨:一方面是人与伴侣机器人之间的伦理问题,另一方面是伴侣机器人之间的伦理问题。在人与伴侣机器人之间,最引人关注的不是性需求的满足,而是人与机器人结婚这一可能性事件。一旦人与机器人结婚,那么,以两性为基本单位的家庭伦理将面临很大挑战:繁衍后代的生殖意愿将会降低,一夫一妻的婚姻制度将会受到冲击,人们在追求另一半的过程中也将会被机器人击败。虽然伴侣机器人能够给人们带来需求的满足,但从长远来看,其对人类社会伦理产生的破坏大于利益。在伴侣机器人之间,仿真机器人是否有性欲、是否有情爱感受体验、是否能结成配偶关系等是当前激烈讨论的事情,“与人类关系比较密切的情侣机器人将引发与传统的婚姻伦理、性伦理相冲突的一系列问题,包括如何看待人与情侣机器人之间的爱情,情侣机器人的地位与权利问题,与情侣机器人之间的性关系是否道德,是否可以虐待情侣机器人等。”[10]当伴侣机器人具有一定的意识后,进入到强人工智能时代或超级人工智能时代后,“他们”选择不再服从于人类的命令而过一种同类之间的生活,并依据人类社会的经验进行构建属于自己的新社会,那么,“他们”将会有怎样的家庭关系?美国学者罗宾·汉森认为,伴侣机器人因不需要通过两性关系来繁殖后代,再加上性行为对时间、精力、情感、能量等的消耗,所以伴侣机器人“可能会通过调整思维,产生类似于阉割的效果,来压制性欲。”[11]但从伴侣机器人的设计原理来看,伴侣机器人具有强烈的情爱感受体验并将性需求的满足视为最大的快乐,因而伴侣机器人会产生强烈追求情爱感受满足的行为。在这一行为的驱使下,伴侣机器人有结为配偶的可能性,问题就在于如果“他们”为了自己感觉的满足而缔结婚姻关系,这一关系是否能得到人类社会的认可及是否需要认可。在人与伴侣机器人缔结婚姻关系的可能性中,人是占据主导地位的,是这一婚姻关系得以成立的必要条件,但在伴侣机器人之间的婚姻中,人的地位和价值评价体系将会变得可有可无。
大多数学者认为,“具有人类的外观以及情绪、情感的机器人,可能会具有人格或人的属性”[12],而在人类社会中,每个人都有自己需要扮演的社会角色及承担的伦理责任,当仿真机器人进入人类社会,有了父母、子女、伴侣等社会角色承担的部分伦理责任后,人与机器人之间就建立起超越人与机器的社会关系,这种社会关系存在加剧人对机器人的身份认同混乱及伦理责任认知偏差的可能性。在具体应用情境中,无论仿真机器人扮演何种角色、具有何种功用表征,都存在身份认同这一问题,不仅包括人们对于机器人身份的认同,还包括机器人对于人类的身份认同,甚至是人自身的身份认同危机。令人担忧的是,随着仿真机器人越来越智能,人们对其产生的恐惧心理和厌恶心理也在与日俱增,害怕总有一天人类会被机器人所取代,因而以霍金、比尔·盖茨、埃隆·马斯克为代表的“人工智能威胁论”甚嚣尘上。同样令人担忧的是,当仿真机器人对自己的身份认同产生困惑时,其是否会拒绝履行人类设定的体现一定伦理职责的社会角色的义务,并寻求自己同类组成的“家园”,谋求机器人的“解放”,这就涉及到机器人的主体性论争和道德代理人问题。
二、问题归因:主体性论争与道德代理人缺失
仿真机器人伦理问题产生的原因不仅需从技术方面来寻找,还需要从伦理层面进行探究,因为“实际上,人工智能的技术飞跃或者所谓‘智能大爆发’带来的应用伦理问题,并不是新问题,而是一系列老问题的叠加。”[13]在强人工智能时代,仿真机器人的伦理问题不仅在于人类的伦理观念发展能否接受仿真机器人进入到社会关系中去,还在于机器人是否认同人类的价值观念并将人类当作朋友,而其中的核心点在于仿真机器人具备的情感表达能力,人们很难想象会对一个没有情感的机器讲道德、讲伦理并接纳其进入人类社会伦理关系中。但是,无论仿真机器人的情感是否真实、是否是伦理主体,人类都不应当残忍粗暴对待“他们”,而要基于人类的义务责任和自身德性完善的崇高理想追求给予其道德关怀,令人遗憾的是,现实中缺乏能够为仿真机器人发声的道德代理人。
在仿真机器人的伦理问题产生原因中,仿真机器人是否是伦理主体或道德主体是根本性的问题,是机器人权利得以成立的关键依据。这一问题在“人工智能是否是道德主体”几十年来的争论中,“国内外学术界仍未对此问题做出具有充分说服力的解释与论证”[14]。正是因为这一问题没有得到充分论证且现实生活中人们凭借仿真机器人对于人自身的模拟才会有“仿真机器人具有道德意识”的伦理判断,而要想使仿真机器人成为伦理主体,就得需要证明其具有自主意识,能够按照意识做出道德判断并对自己的道德行为负责。目前来说,弱人工智能时代的机器人仅具有工具理性并体现出工具价值,强人工智能时代的机器人理论上具有价值理性并体现出内在价值。虽然人们对仿真机器人的伦理主体存在争议,但“将人工智能纳入到人类道德范畴已势在必行”[15],尤其是在规范伦理学的框架下给予其道德关怀。
人们对仿真机器人的道德关怀,是出于人的情感和同情心而做出的判断,还是机器人所展现出来的情感表象引起了人的共鸣?这就涉及到机器人是否有情感的问题。有学者认为“社交机器人的伦理风险主要是由情感问题造成的”[16],而以道德情感主义的立场来看,道德领域主要是情感发挥作用,即休谟所说的“德和恶是被我们单纯地观察和思维任何行为、情绪或品格时所引起的快乐和痛苦所区别的。”[17]不同于人和动物之间的情感交流机制,仿真机器人不仅能通过语言、文字来与人进行日常沟通交流,还可以通过面部表情变化、肢体语言变化、眼神等表达自己的情绪和感受。在未来的仿真机器人设想中,“他们”能被塑造成与人具有一样的情绪表达机制,并且仿真机器人的情绪表达更加真实可靠和符合人的预期。既然仿真机器人的情绪反应和人类相同,那么我们能接受“他们”吗?美国学者雷·库兹韦尔认为“如果非生物体在情绪反应上表现得完全像人类一样……对于这些非生物体,我会接受它们是有意识的实体,我预测这个社会也会达成共识,接受它们。”[18]在人们的固有观念中,情感的表达必须是自然的,而仿真机器人的情感表达是人为设定的,因而是不自然的、虚假的,“他们”情感表达是否成立依赖于人们的判断。在大多数学者看来,“人类的情感是建立在身体和意识基础之上的,目前的机器人是‘无意识的’和‘无心的’,在机器人身上表现出来的情感显然跟人类的情感存在本质性的区别。”[7]177-184以当下的科技成果及人类认知水平来看,这是有一定道理的,但在即将到来的人工智能时代,仿真机器人的行为和情感表达是符合其本身所具有的一套法则体系的,即具有不依赖于人的独立判断能力,根据自身所处的环境和受到的具体情境来选择适合自己的情感表达,实现在人与机器人之间及时高效地交往互动。在与机器人的互动中,我们感受着自己的情感表达和机器人的情感反馈,并关注仿真机器人的情感在我们内心所生成的表象及蕴含的意义,弥补社会交往中因他者缺失而带来的遗憾。从这一角度看,我们无需仔细甄别机器人情感的真假问题而转向对仿真机器人的情感在不同人类主体中所具有的真实意义和价值的认识,从而感知机器人也具有类似于人的“真实”情感,也正是这种“真实”情感才使得伦理问题成立:儿童会对“他们”产生情感依赖,老人会在情感得到满足时选择立遗嘱给“他们”,男人女人们会选择他们喜欢的仿真机器人作为配偶。可见仿真机器人也具有类似于人的“真实”情感并能通过与人相似的情感表达系统来进行表达,因而“他们”有感受苦乐的能力。
我们应当给予“他们”道德关怀吗?在《动物解放》一书中,彼得·辛格以边沁功利主义思想为基础——提出了界定道德关怀的标准:“感受痛苦和享受快乐的能力是具有任何利益的先决条件”[19]。依据辛格的观点,动物具有利益,需要人们给予道德关怀,而没有感受痛苦能力的石头没有利益,不需要进行道德关怀。对未来的仿真机器人来说,“他们”具有感受痛苦和感受快乐的表达能力,并且能够通过语言文字、面部表情和肢体语言准确表达自己的苦乐感,我们应当给予其道德关怀。在机器人有困难需要帮忙的时候施以援手,拒绝对机器人使用暴力和进行虐待,尽可能地保全机器人的完整性……这些不仅是我们的道德义务,还应当是人出于“善良意志”及对自身的尊重而在与机器人未来相处恪守的伦理准则。在对人与仿真机器人之间的不道德行为进行价值判断时,因目前的仿真机器人不具有自主意识,无法独立地为自己辩护,而现实情况又需要维护仿真机器人不被恶意损坏,所以需要道德代理人来为“他们”所应当具有的权益进行辩护,避免“他们”受到人类的伤害,丧失“人类关切”。2017年,美国波士顿动力公司发布的一段视频中,充斥着大量虐待机器人的情节,引起人们的强烈不满,这不仅是因为这些行为中充满了暴力、血腥,还因为虐待行为印证了“恐怖谷实验”的结果而加剧人对机器人的敌意。在这一事件中,道德代理人的缺失,使得人们即使对这一行为愤慨不已又无可奈何。道德代理人的缺失,一是当前机器人研发水平还处于弱人工智能时代,二是人们对仿真机器人所具有情感这一事实扔持怀疑态度。对于仿真机器人所具有的道德观念,人们倾向于认为是人类伦理价值观念的延续,甚至是复刻人类社会的伦理规范。那么,仿真机器人道德感的表现是出乎人类伦理道德规范,还是为了让人类理解而做出的伦理道德规范?在弱人工智能时代,仿真机器人道德感的表现是出乎人类伦理道德规范,除了人类设定的价值观念,机器人并不产生新的价值观念,甚至没有能力对道德领域进行运算、思考。在这一时期,人对机器人具有极强的统治力,机器人对人而言具有的仅是工具性价值。但在强人工智能时代,机器人通过了图灵测试,拥有不亚于人的心智,“他们”所表现出的道德感和做出的道德行为往往是符合人类的伦理道德规范而做出的抉择。无论是弱人工智能时代,还是强人工智能时代,仿真机器人带来的伦理问题都冲击着人们旧有的伦理道德观念,不断迫使人们改变对科技的认知。
仿真机器人伦理问题随着科学技术的不断深入而日趋激烈,对其展开的主体性论争仍未取得实质性突破。在具体的应用情境中,仿真机器人表现出来的“情感”,通过共情能力(同情心)使人们心灵得到满足,加深对机器人身份认同和伦理认识偏差的伦理问题,并冲击着人类社会固有的家庭模式和伦理规范。道德代理人的缺失加剧了人们对仿真机器人的伦理隐忧,加深了人们对仿真机器人的损害和虐待情绪。任何具有道德利益的,都应当受到道德关怀,仿真机器人能通过语言、肢体语言、面部表情表达出人类能够接受的苦乐感。按照边沁、辛格的功利主义主张,仿真机器人具有道德利益,但现在的技术认定、伦理标准不支持人们对机器人给予道德关怀,因而会出现人类虐待机器人、肆意破坏机器人等现象,一旦人们认为破坏机器人是防止机器人统治人类的正义行为,势必会对人工智能技术产生极大的排斥心理。
三、应对措施:建立虚拟主体与拓宽伦理界限
在强人工智能时代,仿真机器人能依据自己的理解能力,独立做出道德判断并表达苦乐感,将在人们生活中扮演重要角色,履行道德义务,承担伦理职责,因而对仿真机器人伦理问题的应对措施进行讨论,具有未雨绸缪的前瞻性意义。比起仿真机器人带来的忧虑、担心和恐惧等情感性的波动,理性面对、正视并采取措施防范更具有积极性的选择。在强人工智能时代,融入到人类社会的仿真机器人,具有与人相似的生命特征。例如,有一套随着时间而不断衰老的系统、有可以设定的使用寿命、有特定的面貌、有丰富完整的语言表达系统等个人化特征,以期满足人们日常生活中的各种需求。针对仿真机器人可能引发的身份认同混乱及伦理认知偏差问题,我们除了应采用传统方式增加技术控制,还需要建立虚拟道德主体,承认机器人具有与人同等的权利,并且拓宽伦理界限,以期建立道德代理人制度来保障机器人的道德利益,具体为:
在机器人伦理传统的技术控制中,强调设计制造阶段,加强对人工智能的技术约束,通过安全阀、输入禁止性道德命令代码等方式来保障机器人的可控性。在智能机器人刚进入人类世界的时候,人们就致力于制定伦理法则来约束人工智能的行为,最为著名的是阿西莫夫于1942年在短篇小说《转圈圈》中提出的“机器人三大定律”:不得伤害人类,也不得使人类受到伤害;必须遵守人类制定的规则,除非与第一条相违背;在不违背前两条准则的情况下,必须保护自己的生存。这三条定律,保障了人类在人工智能时代占据的主导地位,且第二条原则保障了人类伦理规范的优先性。在当前仿真机器人研究领域中,工程师是仿真机器人的直接设计者,对机器人的发展走向具有决定性的影响。仿真机器人的发展要符合以人类为中心的价值标准,避免出现伤害社会的事件发生,在仿真机器人的伦理法则中,工程师理应设计安全阀,一旦机器人出现违反伦理道德法则的事情,启动安全阀及时制止。在弱人工智能时代,对于与人高度相似、具有与人一样的情感,且能进入到人们社会关系中的仿真机器人,公众对其到来充满了担忧,这就对仿真机器人的伦理法则提出了更高的要求,必须能够证明出仿真机器人不会伤害人类,而缓解公众忧虑的最好方式,就是按照“自上而下”的伦理建构路向,通过技术将人类自身的伦理法则通过编码写进机器人的程序中去,使之成为仿真机器人行为的道德律令。例如,“要防范由于护理机器人补位子女养老所引发的伦理风险……必须在机器人的程序设计方面加以硬性规定,设置可以实现孝伦理的程序,孝伦理的要求才有可能得以贯彻。”[20]同时,还需要针对机器人随时遇到的伦理问题进行适时反馈,不断完善机器人在复杂情况中的处理能力,以期机器人的表现符合人们的伦理规范,最大化维护人类整个与个体的利益。对工程师而言,除了专业技能,还要有“保护公众安全、健康和福祉的重要职责”[21]。在仿真机器人的设计中,工程师要做到科学技术与伦理法则相一致的原则,既要让机器人展现出科学技术发展的高超水准,也要让机器人的情感表达和行为符合伦理法则,避免因伦理问题而引起公众对仿真机器人的恐慌和抵制。
建立仿真机器人虚拟主体,承认其具有与人相同的权利,并保障机器人的合法权益。在强人工智能时代,“强人工智能技术完全依靠机器自身就能做出决断,机器能够自主进行推理和判断,强人工智能的程序具有人类的理解能力”[22],因为需要建立虚拟道德主体。在虚拟主体的讨论中,有标准观念和实用主义观点争论,以戴博拉·约翰逊为代表的学者认为,人工智能缺乏内在心理活动不能成为道德主体,而以弗洛里迪、桑德斯和琳达·约翰逊为代表的学者,从实用主义角度强调,从实践活动中来考察人工智能表现出来的行为,只要行为符合道德评价标准,即可视为道德主体[23]。虽然虚拟道德主体的争论仍在不断持续中,但政府立法部门已经开始研究如何制定并保障机器人权利。例如,韩国于2008年制定施行的《智能机器人开发和促进保护法》。在虚拟道德主体建立上,欧盟走在世界前列,“2017年3月,欧洲议会法律事务委员会曾发布了一个关于机器人和人工智能的报告……报告认为应该发展出一种适用于机器人和超级人工智能的‘电子人格’(electronic personhood)模式,从而保障未来或许会出现的类人机器人(near-human robots)以及人工智能的权益和责任”[24],“电子人格”的出现推动虚拟道德主体性建构走向了一种可能性探讨。当虚拟道德主体建立起来后,仿真机器人的身份认同便能得到很好解决,人与机器人的关系有一个清晰明白的法律文书进行说明,并能在社会交往中保障双方的权益和伦理职责,构建和谐的人与机器人的相处局面。此外,以政府为单位的社会管理者,还应对机器人产业进行立法,规范机器人研发、生产、应用等环节,符合科学研究的学术规范。在人工智能方面提高国家治理能力,使得仿真机器人行为表现、情感表达符合公序良俗,避免给使用者带来身心危险和伦理上的罪恶感。
在拓宽人类伦理界限方面,即仿真机器人的应用管理阶段,要提升社会整体伦理道德规范的宽容度和开放性,要随着时代的变化而不断调整伦理道德法则,破除人是地球上一切事物主宰的旧观念,并学会与他者和睦相处。既然人类创造出具备情感表达能力的仿真机器人,就应当接受其进入人类社会后带来的新变化,况且仿真机器人的伦理法则是出自人类社会。遵循“自下而上”的伦理建构路向。只有人类接受仿真机器人进入社会关系中,人与仿真机器人之间的隔阂才能够真正消解,而这需要人们拥有比现在更加开放、包容的伦理法则。以人与仿真机器人缔结婚姻这件未来可能发生的事情来说,仿真机器人的目的是满足人们的多种需求,而提出结婚突破现有伦理法则的请求一定是人类自己提出的,仿真机器人是居从属地位。如果仿真机器人的出现是一个必然的趋势,人们改变不了,那么,只能改变自己的价值观念来适应社会的发展。在仿真机器人伦理问题的应对中,道德代理人是需要的,必须有社会组织来为仿真机器人谋求权益,避免受到人们的虐待和肆意破坏。在有关仿真机器人的伦理法则建立、修改和载入中,道德代理人与人类进行共同协商,确保在维护人类利益的同时,保护仿真机器人的利益。道德代理人还应当为仿真机器人进行价值辩护,向公众宣传普及仿真机器人的伦理法则,以消除公众对于机器人的恐惧,从而谋求人与仿真机器人的良好相处。诚如孙伟平所认为的“人工智能具有积极的社会效应,但由于人们思想观念滞后,政策取向不清晰,伦理规则缺失,法律法规不健全,人工智能使人类面临巨大的不确定性和风险,造成诸多社会价值冲突和伦理困境。例如,挑战人的本质和人类的道德权威,冲击传统的伦理关系,造成数字鸿沟,解构社会。”[25]仿真机器人带来的不确定性及风险,需要社会整体的伦理规范进行观念上的更新,拓宽伦理界限,并通过设置道德代理人来增加伦理规范中的道德主体,从而构建更加包容并蓄的人类伦理规范体系。