人工智能人格权确认的道德风险和法律困境
2018-02-22陈鹏
陈 鹏
伴随科学技术的不断进步,我们已经悄然进入到人工智能时代。2017年7月20日,国务院下发了《关于新一代人工智能发展规划的通知》,通知指出,人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。目前,学术界对于人工智能的不断发展和广泛应用所带来的法律与伦理问题的探讨开始不断加深,形成了系列的研究成果,例如高奇琦的《人工智能:驯服赛维坦》、王利明对人工智能对民法学冲击的论述和袁曾等学者对人工智能的法律人格问题的探讨等。人工智能在具体应用过程中产生的法律和伦理问题是学术界和社会公众无法绕过的,特别是人工智能是否具备人格权、我们是否应该赋予人工智能人格权以及赋予人工智能多大程度的人格权等争论是当前学界热议的人工智能话题之一。
人工智能作为人类、机器和环境交互的产物,其发展也正在经历不同的阶段,发展的水平呈逐步提高的态势。依据人工智能水平的阶段性特征,可以将人工智能分为弱人工智能、强人工智能、超人工智能。从弱人工智能到强人工智能再到超人工智能,既包括技术层面的人工智能的快速发展和进步,也包括对未来的不确定性的预测。学术界对人工智能问题的探讨既要着眼于眼前的科技发展,也要对未来的科技发展可能性和不确定性进行应对。目前,人工智能的发展,正处于从弱人工智能向强人工智能转变的时代。对于人工智能人格权的探讨,主要着眼于伦理、哲学和法律维度三个层面。
一、有关人工智能人格权思考的三种维度:人类中心主义时代的人工智能
人工智能简称AI,是英文Artificial Intelligence的缩写,具有类似于人类的独立思考与深度学习的能力是人工智能与其他科技最大的差异[注]袁曾:《人工智能有限法律人格审视》,载《东方法学》2017年第5期。。对于人工智能的含义,尚没有完全准确的定义。Sergio Ferraz 和Victor Del Nero认为,人工智能是指有生命的个体习得知识或技能,并将其应用于完成任务或在逻辑上得出结论的能力。[注]Sergio Ferraz,Victor Del Nero:《人工智能伦理与法律风险的探析》,载《科技与法律》2018年第1期。刘伟认为,人工智能是人机环境系统交互的产物。“人工智能是人类发展到一定阶段而必然产生的一门学科,它既包括人,也包括机和环境两部分,所以也可以说是人机环境系统交互方面的一种学问。”[注]刘伟:《关于人工智能若干重要问题的思考》,载《学术前沿》2016年第4期。高奇琦认为,“人工智能本身就是一个知识跨界的产物,是通过借鉴神经认知学的发展,从而模拟人类智能的一个成果。”[注]高奇琦:《人工智能:驯服赛维坦》,上海交通大学出版社2018年版,第8—9页。
人工智能时代的来临,在改变人类生产和生活方式的同时,也对传统的伦理认识、哲学观念和法律适用带来了很大的冲击,需要对人工智能的人格权进行较为深入的探讨。目前,我国对人工智能权利问题的讨论还不够深入,“大多数人还停留在对机器人的传统认识中,依然把机器人仅仅看做机器,一种非生物的物体。因此,人们自然地认为机器人不应该享有权利。”[注]同前引[4],第21页。
(一)伦理维度
学界从伦理维度讨论人工智能的人格权,主要的关注点是将人工智能看做是机器还是人。如果认为机器人是机器,那就不存在任何的人格权问题,更没有必要去讨论人工智能人格权的赋予和保障问题。如果认为机器人是人,人工智能具有自我意识的话,那么就应该赋予人工智能相应的人格权。部分学者认为,随着人工智能技术的发展,机器人正逐步地从机器向人转化,人工智能自我意识不断完善,需要人类对其人格权的承认和尊重。例如,高奇琦提出了人与人工智能的相互承认的观点。他认为,“可以想见,当机器人的智能逐渐提高并获得自我意识,它们不可避免地会‘为了承认而斗争’,这样的斗争将对人类社会带来巨大的威胁。而只有主动尊重和承认人工智能的主体地位,才能最终缓和人与机器之间的矛盾,正如玛蒂娜·罗斯布拉特(Martine Rothblatt)所说:‘当我们做到像尊重自己一样尊重他人(即虚拟人),并将这一美德普及至世间各处时,我们就为明日世界做了最好的准备。’”[注]同前引[4],第204—205页。
(二)哲学维度
从哲学维度讨论人工智能的人格权问题,主要的关注点是将人工智能视作何种存在物以及怎样对待这种类型的存在。主张不赋予人工智能以任何人格权的学者,往往将人工智能视为无生命的物质存在,认为应该用对待机器的态度对待人工智能,谈不上任何的人格权的赋予和保障问题。主张赋予人工智能人格权的学者,将人工智能视为与动物、植物一样的生命主体,主张赋予其与其它生命主体一样的权利。美国北卡罗来纳州大学哲学教授汤姆·雷根,是动物权利哲学的积极倡导者。他认为,“动物(主要是哺乳动物)与我们拥有一样的行为、一样的身体、一样的系统和一样的起源,它们应该和我们一样,都是生命主体(subject-of-life)。所有的生命主体在道德上都是一样的,都是平等的。”[注]杜严勇:《论机器人权利》,载《哲学动态》2015年第8期。印度哲学家萨卡尔也认为,“人类需要提出一种超越自我狭隘关联的新人道主义。换言之,人类在考虑定义时,需要把动植物以及所有的生命都考虑在里面……如果从萨卡尔与佛教的观点出发,人类就应赋予机器人与人工智能某种权利。因为它们是与人类平等的存在,既然人类有权利,那么动物、植物和机器人也应该有权利。”[注]同前引[4],第21页。高奇琦将人工智能视为一种生命体,将其称为数据生命。他从阿甘本(Giorgio Agamben)的“赤裸生命”概念来为赋予人工智能人格权寻求哲学层面的支撑。他认为,“机器人可以在意大利思想家吉奥乔·阿甘本的‘赤裸生命’的概念中得到解释,因为机器人本身是没有地位和身份的,而这两点恰恰是赤裸生命概念的核心含义。”[注]同前引[4],第21页。但是伴随人工智能与人类不断地互动,人工智能将摆脱机器的定位,逐步获得生命的主体地位,并与人类建立起平等的社会网络关系,人工智能也完成了从最初的赤裸生向实体生命或者数据生命的转化,赋予人工智能以相应的电子人格权不仅必要而且正当。
(三)法律维度
对于人工智能和机器人的人格权问题,不仅要从伦理视角和哲学维度来分析,更要落实到法律层面,来论证其可行性。伴随人工智能技术的不断推进和广泛应用,很多与人工智能相关联的问题,特别是人工智能的人格权赋予和保障问题已成为诸多法律实务界绕不开的话题,从法律层面来研究和讨论人工智能问题已然成为当务之急。例如,2016年特斯拉无人驾驶汽车出现两起致人死亡事故。2016年6月30日,在美国的俄亥俄州,一辆由美国特斯拉汽车公司生产的S型电动汽车发生了撞车事故,该车的司机当场身亡,而事故发生时该电动汽车处于自动驾驶模式状态。2016年9月14日,一位23岁特斯拉中国男性车主驾车在京港澳高速河北邯郸段公路上行驶时,因前车躲避障碍物,导致该男子躲闪不及撞上道路清扫车发生车祸。这也是特斯拉自动驾驶在中国出现的首例死亡事故。在上述两起事故的责任认定中,就存在责任主体如何认定的难题。
约翰·弗兰克·韦弗在《机器人也是人:人工智能时代的法律》一书中认为,作为一项前所未有的科技,人工智能对于法律的挑战是根本性的,因为我们现有的法律体系都是围绕“人作出决定”这一假定展开的,而人工智能具有自主决策能力,进而从根本上颠覆了现有法律体系的根基。鉴于人工智能具有自动决策的能力,法律应当赋予其法律人格,将其视为独立的法律主体。同时,对于人工智能引发的事故,理当由人工智能本身来承担责任,而非消费者和制造商。为此,我们应当配套相应的责任保险或储备金制度,为人工智能设置专门的账户,及时救济受害人。[注]约翰·弗兰克·韦弗:《机器人也是人:人工智能时代的法律》,元照出版公司2018年版。《国务院关于新一代人工智能发展规划的通知》(2017年7月20日)也专门强调,要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。法律层面对人工智能人格权问题的探讨,与伦理视角和哲学维度的分析存在很大的不同,我们需要少一些热情,多一些冷静;少一些感性,多一些理智。
法律人格,是指法律认可的一种享受权利、承担义务的资格。包括自然人主体、法律拟制主体两种形式。对于任何自然人,法律均承认其法律人格,民法上分为无民事行为能力人、限制行为能力人与完全行为能力人,但法律人格伴随自然人终生。对于法律拟制主体的人格,则需要经过法律规定的程序方可取得,例如有限责任公司的设立等。[注]叶欣:《私法上自然人法律人格之解析》,载《武汉大学学报》(哲学社会科学版)2011年第6期。目前,从法律层面来讨论人工智能的人格权的观点主要集中于以下三类:无人格权、限制人格权和完全人格权。其中,以赋予人工智能以有限人格权和完全人格权为主。例如,高奇琦主张赋予人工智能以完全的电子人格权。而袁曾认为,现行法律体系下对于人工智能的法律人格规制缺位,造成实践应用缺乏法律价值指引,人工智能的法律地位与具体规制亟待明晰。人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格。但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格,域外法律对此已有立法借鉴。[注]同前引[1]。孙占利认为,初期的人工智能仍属于工具范畴,自主智能机器人的“自主意识”和“表意能力”是赋予智能机器人取得法律人格的必要条件,其“人性化”将直接影响甚至决定其法律人格化[注]孙占利:《智能机器人法律人格问题论析》,载《东方法学》2018年第3期。。
二、人工智能人格权确认面临的道德风险:人工智能中心时代的人类
伦理维度和哲学视角对人工智能人格权的认定,虽存在认定标准和权利范围尺度上的差异,但根本出发点是一致的,就是要突破人类中心主义的思维方式,在特定范围内赋予人工智能一定程度的与人类相同或相似的权利,是对万物平等理念的践行,具有一定的价值合理性。但赋予人工智能人格权,并非能做到真正意义上对人类中心主义思维惯性的突破,并可能引发对人类发展极具颠覆性甚至毁灭性的冲击。
首先,由人类来赋予人工智能人格权,是人类中心主义思维的延续。伦理维度和哲学视角对赋予人工智能人格权的呼吁和论证,是人类对其人格权利的确认和界定,正是人类中心主义思维的延续。从伦理维度来看,人工智能具有一定思维和情感,应该获得与人类一样的人格权。从哲学角度来看,人工智能与人类、动物一样,是生命主体,应该赋予其与人类一样的权利。人工智能的人格权,关系到人工智能拥有的权利和承担的义务,因此,对于人格权的确认和界定,需要人工智能在场,需要听取人工智能自身的意思表达,只有这样,才是对人类中心主义的真正突破。但现有伦理维度和哲学视角对人工智能人格权的界定,是人工智能不在场的情况下进行确认和界定的,实质上依然是人类中心主义思维的延续。
其次,赋予人工智能人格权,可能危及未来人类的生存状态。从法律层面来看,赋予人工智能有限或者完全的人格权,将对现有地球秩序和人类命运带来颠覆性甚至是毁灭性的冲击。伦理维度和哲学视角对人工智能人格权的讨论和界定,属于应然层面的价值诉求,如果不在法律层面得到实践,将不会对现有地球秩序和人类命运带来任何实质性影响。而如果人工智能人格权在法律层面得到完全落实,很多关系到现有地球秩序和人类命运的问题将接踵而至。
现有的地球秩序是由人类主导的,世界各国和地区的法律都是由人类制定的,人工智能的人格权的确认和范围界定也是依据人类意志来决定的。伴随人工智能从最初的无人格权到有限的人格权,直到未来某个时期人工智能将会获得等同于人类的完全人格权,人类面临的不确定性风险也逐步增加。一旦人工智能获得了完全人格权,他们将会是自然人之外另一类生命体,对于现有人类依据人类意志制定的法律和社会规则体系,他们将不会轻易接受并将提出重新制定法律和社会规则的要求,并且那时的人工智能可能已经进入到超人工智能时代,拥有比人类强大很多倍的力量,且在生命周期上存在无限延续的可能。可以设想,如果真的出现这种情况,人类的地位将会从地球的主导力量变成等同于今天自然界中的动物一样的生物,人类中心时代可能会被人工智能中心时代所取代,到那时可能会出现人类的人格权由曾被我们人类赋予人格权的人工智能来界定和确认的现象,那将对现有地球秩序和人类命运带来颠覆性甚至是毁灭性的打击。
诚然,停留在伦理和哲学应然层面的价值诉求,可以对人工智能人格权在法律层面的落实起到一定的推动作用和借鉴价值,但不会且更不能作为法律层面变革的充分条件。我们在从伦理维度和哲学视角来讨论人工智能的人格权问题时,不仅要正视法律实践层面可能出现的问题和困境,更不能回避法律层面赋予人工智能人格权所带来的伦理层面的巨大的不确定性风险。因此,今天对人工智能人格权的讨论,最好不要逾越伦理维度和哲学视角,法律层面对人工智能人格权的界定和确认只能限定在特定范围之内。人工职能人格权确认的问题,不仅面临伦理层面的巨大风险,在现实层面也面临很多的困境。
三、人工智能人格权确认面临的法律困境
《国务院关于新一代人工智能发展规划的通知》(2017年7月20日)专门指出,要加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。当前,在人工智能人格权确认方面,除了面临一定的道德风险外,也存在诸多的法律困境。
(一)人工智能人格权确认面临的法理困境
对人格权的理解,既可以从哲学和伦理角度做较为宽泛的解释,也可以从法律层面来准确界定人格权的范围。伦理视角和哲学维度探讨的人格权,主要是指人作为人应该享有的权利,属于抽象的概念范畴。例如,洛克就认为,生命权、财产权和自由权是人之为人应该具备的最基本权利。除此之外,平等权也被很多哲学家和伦理学家视为人类应享有的基本权利。与这些对人格权的抽象层面的讨论不同,法律层面的人格权比较具体,需要通过相关的法律条款来对自然人和拟制人格的人格权进行规范界定。
在我国,人格权的界定采用了一般条款的形式进行了明确,但没有用具体人格权来加以更加详细的规定。对此,很多学者一直呼吁应该采用一般条款加具体人格权的立法体例来对人格权进行明确。例如,李新天和孙聪聪认为,我国的人格权立法应采用一般条款加具体人格权的立法体例,一般条款应是概括性、补充性的规定,囊括未能被具体化的人格法益,为将来可能出现的新型人格法益的保护提供规范依据。[注]李新天、孙聪聪:《人格伦理价值的民法保护——以体系化视角界定人格权的内涵》,载《法商研究》2014年第4期。我国《民法通则》对自然人和法人、个体工商户、个人合伙等拟制人的人格权进行了一般规定,涉及到的人格权主要包括公民的生命权、健康权、肖像权;公民和法人的名誉权、荣誉权;法人、个体工商户、个人合伙的名称权等。我国《民法通则》第九十八条规定,公民享有生命健康权;第九十九条规定,公民享有姓名权,有权决定、使用和依照规定改变自己的姓名,禁止他人干涉、盗用、假冒。法人、个体工商户、个人合伙享有名称权。企业法人、个体工商户、个人合伙有权使用、依法转让自己的名称;第一百条规定,公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像;第一百零一条规定,公民、法人享有名誉权,公民的人格尊严受法律保护,禁止用侮辱、诽谤等方式损害公民、法人的名誉;第一百零二条规定,公民、法人享有荣誉权,禁止非法剥夺公民、法人的荣誉称号。
人格权包括生命权、健康权等权利,是主权利与从权利的结合。生命权是主权利,其他权利是从权利或附属权利。其中,公民的人格权以生命权为前提,法人、个体工商户、个人合伙的人格权以拟制生命权为前提,必须要到有关部门办理注册登记方可获得,且有一定时间限制。例如,我国《民法通则》对企业具体成为法人,获得拟制人格权的条件进行了规定。《民法通则》第三十六条规定,法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织。法人的民事权利能力和民事行为能力,从法人成立时产生,到法人终止时消灭。第三十七条规定,法人应当具备下列条件:依法成立;有必要的财产或者经费;有自己的名称、组织机构和场所;能够独立承担民事责任。
(二)赋予人工智能人格权的现实困境
从伦理和哲学层面回答人工智能的人格权问题,一般只要依据一定的伦理立场和价值判断标准,给出是和非的答案即可,不需要过多考虑人工智能的人格权在现实层面的可能性、可行性问题,而这些恰恰是法律层面必须要正视和回答的问题。从现有我国《民法通则》对公民、法人等人格权确认的条件可以看出,如果人工智能要获得人格权,必须具备以下几方面的条件:生命权或者拟制生命权;具有独立的意识且能够自我表达意志的自由;能够意识到自身行为可能带来的后果;能够独立开展民事行为;具备必要的财产和经费,能够独立承担民事责任等。同时,我们还要考虑到人工智能一旦获得人格权以后,可能会对现有法律的合法性及法律体系构建等问题产生的巨大冲击效应。
首先,生命权是人格权的必要前提,人工智能属于人工制造物,不具备生命权。上述赋予人工智能和机器人以人格权的主张,主要基于道德、伦理、宗教、哲学层面的思考,忽略了生命权是其他人格权的前提。人工智能不论是现有的弱人工智能,还是不久之后的强人工智能,抑或是未来的超级人工智能,始终改变不了其人工的属性,这条对于人工智能来说是无法具备和补救的,也是其不能获得人格权的根源之一。人工智能重点是智能,但前提是人工,是人类的创造物,而非自然生成的,不具备人格权。虽然很多学者认为,人工智能可能会在不久的将来成为数据生命体,但依然难改其人工的印记。人工智能的本质是人类设计和制造出来的用于减轻人类的工作负担、改善和提升人类的生活质量的工具,不应该赋予其任何价值理性。况且,自然界中绝大部分具有生命的动物和植物还没有获得类似于人格权的权利。相比于人工智能来说,自然界的动物和植物都是自然赋予的生命,就算要赋予人工智能以生命权及其相应的人格权,那么按照顺序也应该是先赋予目前尚没有人格权的动物和植物以部分或者完全的人格权。因此,人工智能非生命体,不具有生命权,更不会也不能拥有人格权。人工智能注定只能是法律的客体而不能成为法律的主体。
其次,人格权的行使要求人格主体具有独立的意识且拥有能够自我表达意志的自由,并能够意识到自身行为可能带来的后果,而人工智能虽然智能,但还是人类意志的体现,在意志表达和行为认知上存在很大人为因素。在自由意志层面,人工智能虽是智能,高于人类制造的一般机器,但前提仍然是人工。从人工智能的设计、制造、系统维护、程序升级、硬件维修等各环节,都离不开人类,体现了人类的意志和智慧。人工智能如果被赋予了人格权,就意味着人工智能必须要具有独立的意识且拥有能够自我表达意志的自由,能够意识到自己的行为可能会导致的结果,并对结果承担相应的责任。但在行为结果认知层面,人工智能虽可以准确预测行为可能带来的结果,但驱动这种行为的是技术力量而非人工智能本身具备某种行为的意识,人工智能自身对于某种行为可能带来的道德、伦理层面以及价值层面的问题没有任何意识,它只是在执行人类的设计指令而已,一旦硬件和软件出现问题,人工智能的行为可能会导致与设计意图相悖的结果。
同时,由于驱动人工智能的行为及其结果的还是设计和制造人工智能的人类,而并非人工智能自身所为,因此其行为的后果及其责任承担,应该坚持“谁设计、谁制造、谁使用、谁承担相应责任”的原则来确定人工智能在实际运作过程中的责任主体和责任比例,由授意设计、制造和使用人工智能的相应主体来承担。
再次,人格权的获取和行使,要求人格权主体具备独立开展民事行为的可能和能力。如果赋予人工智能相应的人格权,必须要保障人工智能可以作为主体,进行独立的民事行为。但在现实中,人工智能很难独立参与民事行为,人工智能之间、人工智能与公民之间、人工智能与法人、个体工商户和个人合伙等主体之间的民事行为,必须要以人类的必要参与为前提和保障,人工智能不具备开展独立的民事行为的能力和可能。“合同关系中的当事人必须是公认的法律主体,并能够表达各自的自由意志。两个独立的人工智能之间如果进行交易,即使交易符合法律的规定,被认为是有效的,也是不完整的,因为这种交易的权利义务关系不能与监督这些人工智能的主体(自然人或法人)相分离。如果几个独立的人工职能系统进行交易,且不可能确定其行为的负责人,这将导致出现有效交易,但没有行使权利或履行义务的法律主体的情况的出现。”[注]詹可:《人工智能法律人格问题研究》,载《信息安全研究》2018年第3期。
又次,人格权的获取和行使,需要具备必要的财产或经费保障,能够独立承担民事责任,人工智能的财产权难以有效实现,更难以独立承担民事责任。法律层面的权利与义务是对等的,人格权主体在行使权利的同时也要具备相应的履行义务和承担责任的能力,为此,需要具备必要的财产和经费作为保障。在责任承担层面,独立人格决定了其可以独自承担责任。但在独立承担民事责任方面,人工智能离不开人工智能之外的人类,人工智能不具备独立承担民事责任的能力和财产保障,使其不能成为人格主体,获得人格权。一方面,人工智能没有相应的财产权或经费做保障。目前,部分学者主张按照人工智能在生产过程中创造价值的大小,对人工智能分配一定的收益,以此作为人工智能承担责任的财产和经费保障,但这种思路是行不通的。如果赋予了人工智能以一部分财产,谁来保障人工智能财产的使用和安全,而现有的金融部门只认可自然人和法律拟制人格的开户和投资申请。同时,照此逻辑推理下去,机器在生产过程中也创造了价值,那是不是也应该分得一部分生产利润。如果人工智能创造的价值被其自身占有,那么设计和制造人工智能的人类将会因为无利可图而终止人工智能的研发活动;另一方面,如果人工智能的财产和经费不足以承担其责任,不足部分将由谁来补偿,这也是我们在民事责任承担过程中无法回避的问题。此外,如果人工智能可以独立承担民事责任,在很大程度上会引发责任转嫁的问题,原本很多属于人工智能之外主体的责任会转嫁给人工智能,这样的道德风险是在赋予人工职能法律人格时不可回避的问题。
最后,如果赋予人工智能人格权,现有的法律将面临合法性危机问题,法律体系将面临彻底重构的危险。我国《民法通则》赋予的人格权的主体有公民、法人、个体工商户、个人合伙,这四类主体拥有的人格权范畴虽存在一定差异,但他们都是由自然人来表达主体意志的,无论对法人、个体工商户、个人合伙等人格主体的人格权做出如何的界定和规范,这些主体对现有法律的形式上的合法性不存在任何的质疑。而如果赋予人工智能以人格权,将会导致存在自然人以外的另一个意志主体,该意志主体会否接受按照人类意志制定的法律,存在很大的不确定性,现有的法律将会面临很大的合法性危机。如果该意志主体不愿意接受现有法律体系,将会出现自然人和人工智能两种意志主体共同主导法律制定的结果,现有的法律体系将面临彻底重构的巨大风险,而这一点是我们在法律层面思考人工智能的人格权问题必须要考虑的,一旦现有法律的合法性危机蔓延开来,对现有人类的法律体系和由现行法律体系确立的社会秩序将会是颠覆性的冲击。
四、结 论
人工智能还处在不断发展过程中,对人工智能法律人格权的讨论和争论也必将随着人工智能形态的不断变化而走向深入。但不论人工智能怎样发展,我们必须恪守人工是智能的前提,不能因人工智能的发展,对人类的权利和生存秩序产生颠覆性甚至毁灭性的冲击。科幻作家艾萨克·阿西莫夫(Issac Asimov)在其短篇科幻小说《环舞》(1942年)中提出了机器人三大法则应该成为人工智能发展及其法律适用的底线,即第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;第二,除非违背第一法则,否则机器人必须服从人类的命令;第三,在不违背第一及第二法则的前提下,机器人必须尽可能地保护自己。因此,我们可以给予人工智能以伦理上的关怀和哲学上的反思,但不能在法律层面赋予人工智能以人格权,因为这不仅在可行性和可能性上存在绝大困难,更是出于对人类法律秩序和人类未来的关注和保障的考虑。同时,我们也要关注人工智能对民法等法律领域带来的冲击,需要“积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间”[注]王利明:《人工智能时代对民法学的挑战》,载《东方法学》2018年第3期。。例如,我们可以通过设置人工智能机器强制保险制度对人工智能造成的伤害进行赔偿,通过向人工智能机器的使用者征收一定的赋税来给特定的利益受损群体进行补偿,主动关怀那些因人工智能的大规模使用导致利益受损的群体。