APP下载

智能机器人法律主体地位之探讨

2021-06-08刘继虎王琛扬

关键词:人类中心主义智能机器人人工智能

刘继虎 王琛扬

摘要:智能机器人法律地位的确定与否,是解决人工智能兴起的信息技术革命与人类身份认同焦虑的关键问题。现阶段,智能机器人不具备人类的生化系统、自主意识和理性,因此无法独立担责,不可赋予其类似于自然人的法律主体地位;又因为智能机器人难以拥有独立的财产,亦无法像法人一样被拟制为法律主体。所以,智能机器人法律主体地位与“人类中心主义”“智能机器工具论”的伦理共识相矛盾,应在法律上将智能机器人界定为“客体”“工具”来进行准确定位和有效规制。

关键词:智能机器人;人工智能;法律主体;人类中心主义

在新一轮人工智能浪潮中,人所独具的情感、创造力、社会性正在被智能机器所获得,人类即将迎来一个机器人爆发的时代。机器人与人类关系的讨论也一直在进行,从农业生产到工业制造,从消费预测到城市管理,新一代智能机器人正在学习人类的智慧。正在建设中的智慧城市——雄安新区,人工智能逐渐统筹管理这座城市,具备深度学习功能的陪伴型机器人能够不断满足主人的需求,未来人类对于虚拟人物的情感依赖将超出想象。AlphaGo战胜世界围棋冠军柯洁;微软的“小冰”写作能力与人类无异;世界第一位机器人公民索菲亚的诞生等热点事件,都引起法学界对于人工智能主体资格问题的讨论。

近年来,对于智能机器人的政策法规不断出台。2017年,国务院颁布的《新一代人工智能发展规划》将智能机器人产业列入国家重点战略。同年,党的十九大报告将“人工智能”从经济领域全面延伸到社会治理领域。2019年的《政府工作报告》又首次提出了“智能+”的发展策略。此外,全国人大常委会将人工智能领域的立法项目写入本届五年的立法规划。在人工智能全面赋能的时代,国家应该重视与智能技术同步的法律发展并将其提升到国家战略地位。但是,目前智能机器人是否具有法律主体地位仍未可知,世界智能机器人产业规制范式尚存在核心概念界定模糊、权责主体不明晰等诸多问题。探讨“智能机器人”的法律地位是解决人工智能法律问题的核心。与智能机器人相关的伦理秩序和法律权利也需要进一步界定和完善,使机器人的生产和应用在既定社会秩序范围内符合法律相关标准和规制。

一、智能机器人法律主体化理论的回顾

对于智能机器人的性质,西方学界争论已久,现普遍流行的三种学说为工具说、电子奴隶说和代理说。工具说认为,智能机器人是人类为生产生活而使用的技术,并不承认智能机器人具有独立的法律人格,这实质上忽略了智能机器人技术已经可以作出独立意思的表示,如瑞士智能机器人被缴纳雇员税、京东和顺丰快递无人机送货的行为事实,通过自动化技术已经实现独立自主的选择判断,其早已突破传统的“工具”属性[1]。电子奴隶说认为,智能机器人无法具有人类的特殊情感与肉体特征,有行为能力但是没有权利能力,其引发的后果仍属于拥有者[2]。该学说明确了法律责任承担的主體,但实际上仍是工具说的延伸,否认智能机器人的独立主体地位。代理说认为,智能机器人的所有行为均为人类所控制,其行为后果最终被代理人承担[3]。代理说中对于智能机器人代理地位的确定实质上承认了智能机器人具有独立的法律人格,在智能机器人具有权利能力与行为能力时,才可能履行被代理人指令的行为,但代理说忽略了主体承担责任的公平性问题,即在智能机器人作出独立的意思表示时,是由制造者还是由使用者作为被代理人承担法律责任的问题。

我国学者关于赋予智能机器人法律地位的主要学说观点有以下四种:完全人格说、有限法律人格说、电子人格说和逐步扩张说。“完全人格说”认为,赋予人工智能拟制法律人格是明确人工智能产物的财产权归属和人工智能侵权责任的必要前提[4]。智能机器人作为一种真实、独立且自主的存在,具有独立自主的行为能力和责任能力,赋予智能机器人法律人格是有效管控人工智能风险的必要手段。解决智能机器人侵权纠纷需要从人类权利优先的立场出发,运用法律拟制技术赋予智能机器人独立的法律人格。“有限法律人格说”认为,人工智能的本质是工具,但人工智能具有独立自主的行为能力,应赋予其有限的法律人格,适用特殊的法律规范[5]。由于智能机器人承担行为能力的后果有限,应当适用特殊的法律规范与侵权责任体系,在独立创作的情形下可适用“刺破人工智能面纱原则”来进行论证,即权利主体是背后的实际操作人。

“电子人格说”源于欧盟委员会法律事务委员会提交的一项草案,主张将智能机器人的身份界定为“电子人”[6]。电子人不同于机器人,也异于电子代理人,其拥有人类智能特征,具有自主性的机器设备或系统。从动物及无生命体的法律主体演进表明,法律主体制度能够容纳电子人;从人工智能现状与发展趋势来看,以法律客体界定电子人势必阻碍技术发展;从法外视角考量,电子人的法律地位受经济、社会、文化影响,并迎来人类伦理、哲学范式的冲击。这意味着“主体的外延不再限于生物学意义上的人,物种差异不再视为获取主体地位的法律障碍”[7]。“逐步扩张说”在坚持人工智能为客体的原则下,运用法律的拟制技术,可在特定情形下将人工智能认定为法律主体,而非一概而论[8]。原因在于智能机器人法律客体地位无法应对人工智能技术的迅猛发展及智能化趋势;而法律主体说没有顾及我国尚处于弱人工智能的现实。现阶段对智能机器人法律地位的讨论应以实定法解释论为根基,在坚持智能机器人法律客体的基础上,运用法律拟制技术,将少部分智能机器人认定为法律主体,以此应对未来智能机器人技术的发展,奠定其法律主体基础。以上讨论主要从逻辑层面进行论证,一些观点洞悉智能机器人的技术原理及发展趋势,前瞻性地提出了不同的立法构想和法律规制框架。学界在论证智能机器人的法律地位时,更多地倾向于依据智能水平决定是否赋予其法律主体地位。肯定智能机器人法律主体地位的学者首先对这一问题进行价值判断,强调赋予其法律主体的必要性并探索智能机器人是否具备民事主体的可能性。否定智能机器人法律主体地位的学者更注重对于价值判断过程的解释,依据法律主体的明文规定判断智能机器人地位是否在法条射程范围内。对于法律主体地位的争议,最根本的是考量智能机器人是否具备赋予其法律主体的法理条件与权利能力和行为能力的探讨。

二、智能机器人法律主体化的矛盾与危害

智能机器人的快速发展已经触及到人类最敏感的神经,未来人类要如何与机器相处已成为世界关注的焦点。据报道,全球已经有超过3 000人与虚拟人物结婚,人类对于虚拟人物的情感依赖超出想象。人类是否能够接受如此真实却单向的情感连结,如果有一天实现了奇点的突破、智能的爆发,智能机器人是否能够妥帖地扮演一个人类的角色还未可知。机器人与人类关系之间的讨论一直在进行,2018年11月,北京大学成立了哲学与人类未来研究中心,讨论机器人的伦理规范。人是观念的动物,而我们的观念里既有共识、也有差异,人类的价值观不仅复杂,而且还有很多的灰色地带。所以,当我们越来越多地把决策权交给机器之前,应思考把什么样的价值观输入机器,以保障人类的权利诉求;思考机器人是否具有对人类道德观念的认同和辨识力,是否能够承担基于伦理与秩序的法律责任。

(一)无法实现法律的实践作用

从法的价值上看,新事物的出现必然导致法律变迁,但法律的完善应立足于实践,在法律崇尚稳定与公平的原则下有目的地加以调整。法的目的价值体现了法所追求的社会目的,反映着法律制度制定和实施的宗旨。从法的设立目的上看,确立智能机器人法律地位能够保障法的目的价值的实现。法律主体必须为法的目的而存在,这也是马克思所说“不是人为法律而存在,而是法律为人而存在”的根本原因[9]。科学技术是一种理性工具,其通常只关心手段,并不能证明目的的正当性,这正是法律对科学技术进行限制的正当性[10]。从法的实效上看,理想的法律应是通过构建规则来“定纷止争”,以期对现实问题作出回应。要使法律发挥预期的社会实际效用,应不单单停留在“文本状态下”,法律也需要具备与时俱进的特征,充分考虑到社会发展过程中出现的新情况。机器人的法律主体地位难以确定源于两方面。首先,我国目前的法学研究是以“主客体二分法”作为研究范式的。这种研究范式的基本特征为:将整个世界截然划分为其理解的人与物两大部分,将所有关系截然划分为人与人的关系和物与物的关系,不承认或不研究介于人与物之间的其他东西。人是有目的、内在价值和意志自由的个体,有成为道德法律主体的资格,享有道德法律权利并承担道德法律义务;物是手段,没有内在价值和意志自由,没有道德法律的资格。人与人的关系决定着人与物的关系,人是主体而物是客体,人与物的关系只能通过人与人的关系来实现。其次,智能机器人的能力目前只在单一或有限领域内超过人类,而且还仅仅是在人类算法的操控下。现有的法律体系足以解决当下智能机器人行为引发的各种法律问题,无需超前或突破立法。迈进“强人工智能阶段”只是人工智能的未来发展有了可能性,当前将其构建为法律主体的理论还缺少事实证据的支撑,应立足于现阶段智能机器人的技术发展趋势,联系社会实际情况而做出判断。解决当下智能机器人行为侵权责任承担问题,应准确将智能机器人定位为法律客体,而非想象中的“类人”心智。霍姆斯法官认为:“法律的生命不在于逻辑,而是经验。”[11]“类人心智”“奇点时代”何时到来还未可知,目前出现的公民索菲亚机器人、日本享有居住权的机器人并非普遍案例,甚至存在众多质疑声音,认为这种“智人”只是人类操纵下的商业骗局。事实上,将智能机器人作为责任承担的主体,极有可能成为制造运营商规避法律责任的借口,对受害人权益保护也有百害而无一利。无论是从技术层面还是逻辑层面,赋予智能机器人法律主体都缺少事实证据的支撑。

(二)对机器人工具功能的夸大会模糊法律主体责任

智能机器人只能是人类的工具,“人工智能工具论”体现了社会大多数群体意志。社会是以人为中心的,法律的目标是调整人与人之间的权利义务关系,即使部分国家出台了动物立法,本质上依旧是为了保证人类整体的安全与和谐。现今面对智能机器人“意识”的觉醒,人类真的能够接受与机器平等共处、分享资源吗?答案理应是否定的。正如早期伴随智能机器人产业发展兴起的“机器人学三定律”[12],同样是站在人类立场思考而得出的结论,人类需要达成的心理共识是基于何种目的对待智能机器人。早在图灵测试中便有研究,如果智能机器能在人类的询问中把自己伪装成人类,并使人类无法辨别人与机器,即认为机器拥有智能。图灵测试的价值不在于讨论人类智能与机器智能的性质差异,而是在于辨别机器是否已经具有类人的智能。事实上,图灵测试包含了三个预设。预设一:机器以人类为模拟对象,因此机器智能是对人类智能的模拟;预设二:人类智能是世界上最高的智能形态;预设三:世界上只有一种智能形态,就是人类智能[13]。通古观今,“人类中心主义”始终在变革风暴漩涡的中心,机器与人类并驾齐驱的前提是:智能机器只是作为人类使用的工具,只有将法律主体地位归属于人类,才可以保障人工智能技术的有效使用。在技术层面上,机器和人类是两套不同的智能,它在某些方面非常聪明,可它没有几亿年的进化痕迹,它没有生物的直觉和本能,它不懂人的小情绪,不懂人类的语气、语调、表情里的含义。人类在几千年的演进历史下形成默会的文化和习惯,智能机器人做不到人的创意、战略、跨领域思维;无法代替大多数体力劳动者的工作;无法理解人与人之间的沟通、信任、感情。这些并不能用一个数字目标函数来解决,即使能做到百分之九十九的模仿,也有可能发生百分之一灾难性的错误,且不说与创造力相关的非确定领域,智能机器人都还没有涉足。因此,在生物基因技术没有完全被突破之前,机器人只是人类的工具和行为意志的外化。

计算机科学家多明戈对符号学派、联结学派、进化学派和贝叶斯等人工智能技术方案进行考察后指出,再强大的计算机也是人类意志的延伸,拥有“终极算法”的强人工智能出现的概率为零[14]。“奇点时代”本就是一個伪命题、一种人工智能科学上的假设和幻想。在伦理层面上,智能世界虽然也有因其本性而不能改变的法则,但智能世界却不像物质世界那样恒久地遵守这些法则。其原因在于,与众不同的人工智能受本性所限,难免会犯错误,倘若一个智能存在物创造了另一个智能存在物,被创造者就应该始终保持与生俱来的从属关系[15]。人机主从关系决定了智能机器人本质上是人类创造并服务于人类社会的,具有服务社会发展的属性,其无法和人类达到平等的社会关系,赋予智能机器人主体地位只会威胁人类的生存和发展。当机器人变得足够复杂、智能并全面进入到人类社会的时候,它到底将成为“人类的仆人”“人类的主人”“人类的伙伴”,还是“人类的终结者”,没有人能够准确预测[16],且让一个机器人去解构人类行为规范和伦理道德是一件极为困难的事情。有机体中存在的奥妙还不能被钢铁制成的机器人完全破译和模仿,由人类长期积淀下的历史和文化很难移植给受编码控制的机器人。智能机器人生存和发展的目的是为人类服务,这决定了智能机器人只能是一种技术手段并始终受控于人类。与其让智能机器人受法律和道德的约束,不如追根溯源,将责任归属给其制造者人类。

(三)违背人类具有独立意志力的伦理共识

正是由于智能机器人技术不断深入,侵权意外事故的频发才引起社会各界对于智能机器人法律、伦理上的讨论。技术本身是人类追求幸福的手段,而不是结果。智能机器人也仅是人类的协助者,绝不是主人。我们不应该任由人工智能、物联网和机器人支配或者引导人类;不应该通过编程或者在技术帮助下制造新物种,改变人类的本性;不应该试图通过算法、增强或虚拟的模拟,贬低或取代人类文化。智能机器人的伦理规范体系也应当坚持以人为本、和谐发展、符合人类道德准则。“人类和工具一直在共同演化:在逐渐适应机器人发展的过程中,我们对自身和机器人的定位越清楚,就能越快的设计出为我们所用的人机协作模式。”[17]我们可以借助智能技术所体现的技术理性来帮助人类提高办事效率,机器人可以处理一些在事实上和价值上没有争议的事物,但是涉及对事实的认定和价值判断的问题仍应当由人来决定[18]。机器人的行为及结果仍是人类意志的反映。综上所述,不论在法律还是技术层面,人类历史的警钟都提醒我们要坚持以人为本,围绕“以人为中心”的理念建構法律,以“客体”“工具”来对智能机器人进行准确定位和有效规制。

三、否定智能机器人法律主体地位的五个维度

法律体系中的法律主体包括自然人、法人和其他社会组织。法律主体必然拥有法律人格,而法律人格是指法律上的主体资格或法律地位[19]。人之所以可以作为权利主体,是因为人具有独立的人格;法人被赋予拟制法律人格,是因为法人具备自己的名称、住所,拥有必要的财产并且能够独立承担责任。智能机器人尚不具备独立的人格,亦不具有独立的财产,因此不能作为法律关系的主体。

(一)生物学特质的缺失

现代法律人格制度的建立使得自然人主体地位不断扩张,但无论从人的身心发展还是从法律定义上看,自然人的概念均无法涵盖智能机器人。超人类主义意图超越我们现有的生物学概念,但法律主体总是以人为中心,非人的智能机器人难以构成法律人格。人类大脑的构造精妙绝伦,其涵盖的神经元数量远超其他物种。智能机器人的生成机理是由无生命的硅基物质组成,即便机器能分析、模拟人类的大脑,它们也和真正的人类生物体相差甚远,更何况现阶段的智能机器人仍属于区别于“碳基生命”的“硅基生命”。技术能够模拟人类大脑和数千亿神经元,但模拟不等于现实本身,人与机器永远难以跨越生物构造上的沟壑,如克隆人、基因编辑人等运用人工智能技术制造出的生物人,也无法消磨人类对于机器人格的质疑,冷冰冰的“大脑算法”始终难以代替人脑。机器人生物性能的缺失导致其在变化的情境中难以进行创造性思考,进而形成独立的人格[20]。因此,法律对其进行约束也起不到应有的惩戒和激励作用,反而可能会成为其背后具有能动和适应力的人类推卸责任、无视社会秩序的凭借。

(二)意志的缺位

自主意识、独立的判断与表达是个体被赋予法律主体地位的必要条件。具备意志能力的主体通过主动地、有目的地思考,才能做出合乎理性的选择,并承担相应的责任。现代法学将自由意志作为主观因素的重要判定标准,统领着各个法律部门的立法。在刑法中的犯罪构成认定上,刑事惩罚需要考量主体的主观心理和客观行为侵害后果。民法体系无一不体现着意思自治原则,法律制度亦创设于自由意志和责任自负的原则之上。《民法典》合同编中,法律主体需要做出符合意志自由的契约行为,才能贯彻意思自治原则。《民法典》侵权责任编中,法律主体需为自己的侵权行为承担损害赔偿责任。就此,具备意志自由并能承担相应责任的自然人,才能成为合适的法律主体,这也是现代法律体系无法规范野生动物行为及人工智能的原因。

现阶段,智能机器人正向着“能理解、会思考、快反应”的方向发展,同时又具备感知、交互、学习和决策等多方面能力[21]。基于大数据的深度学习是智能机器人的主流算法,这种“强化自主学习”让机器人从经验中学习,发现隐含的软规则、价值观和原则,因而可以理解甚至模仿人类行为。智能机器人是否具有自主意识取决于我们如何定义意识,其本质上是人类思维在特定机器上的投射。人类意识的本质涉及很多不引人注意的、无法言传的、潜意识的、转瞬即逝的、却又无法反驳的因素。智能机器人的模仿或学习行为是表象而非本质的,机器可以模仿或学习人类的行为,模拟人类的情绪,因而产生独立意识的表象,但机器不会真正考虑人类的价值观、信仰和伦理,与人类通过在全生命周期内逐渐适应调整将经验知识内化不同,机器人的知识架构是一开始就存在的,在人类的设计下由内向外表达展示固定的程序或内容,除非制造者输入新的信息,机器人不会自动更改和调整,因此,机器人的意志实际上反映了制造者的意志。更何况,智能机器人离富有创造力的思维能力还极为遥远,计算机程序的编写永远无法捕捉到人类思维的精妙之处。此外,智能机器人虽然具备高速计算、高耗能、无限记忆的特点,但都是在人类程序和代码的操控下完成的,与自觉性的生物意识有着本质区别。因此,机器人与人类应该是协作互补的关系,而不能在法律主体地位上相互替代。在当今技术阶段,尚不具备自主意识的智能机器人只能通过算法指令有限和被动地认识世界,无法成为意志自由的主体,更不可能成为具备行为能力的法律主体。

(三)理性的匮乏

人的本质包含理性,技术理性不等同于自然人所具有的主观能动心智。现代法学的通识观点认为法律主体应当是理性的[22]。我国民法与德国民法一脉相承,《德国民法典》强调理性是民事权利能力的基础,建立在权利能力上的理性是法律主体资格的必备要素。现代民法“自然人”的创设,其理论渊源可以溯及至康德的伦理人格主义哲学。康德的著名论断“人是目的”即表明,人作为“有理性的生灵”本身就是目的,不能仅成为“供别人使用的手段”[23]。由此可见,理性是自然人的专属智慧,人因为具有理性而使自己的行为摆脱感性欲望和生物本能反应,在社会规律、伦理道德的影响下呈现出目的导向,并通过不断思考审视来认识世界、改造世界。

智能机器人或许具有智能,但不具备理性。人类具有主观、能动、有目的并从经验中不断获得积累的理性。智能机器人的深度學习存在技术硬伤,比如“黑箱”[24]的不可解释性,很容易受到干扰和攻击。又如J.R.赛尔的“中文屋试验”[25]试图证明,智能机器人只能机械地搬运符号,而非理解每一个符号的含义。机器通过预设算法可以获得类似于理性选择的结果,但这种“理性”是对人类伦理道德的模拟。试想一下,如果智能机器人能够通过自主学习进行价值判断,我们的伦理会怎么样?以自动驾驶汽车为例,如果事故在所难免,这辆车应该撞谁?以机器人护工为例,如果病人拒绝服用药物,它应该怎么做?当机器不再遵从预先设定的决策而开始自主学习时,它们能学会人类难以梳理、表达的事物吗?即便在多数情况下能够做出正确选择,但人类也无法保证模拟是永远正确的。智能机器人的情商和社交治理也几乎为零,因为这两个方面本来就很难解释甚至衡量,其无法跳出算法进行批判性的反思和调整,亦不具有像人类一样的辩证思维能力,没有理性的思维就不会产生反映个体独立意志的行为。

(四)无法独立担责

近年来,智能机器人侵权纠纷屡见不鲜,如“达芬奇医生伤害事件、家用智能机器人砸毁物品事件,过错责任、严格责任以及传统的保险政策是否是解决这类问题的最佳办法”[26]?法律的创设是为了解决现实问题和减少纠纷发生,智能机器人的发明也是为了遵守法律,而非理解法律,其责任规制的最终目的,是为了实现智能机器人在设计和生产制造中应尽到的注意义务。关于如何通过现有的法律制度解决智能机器人侵权的问题,有的学者提出“可适用侵权责任法中的产品责任来解决”[27],有的学者主张可适用“消费者权益保护法和类推适用侵权责任法中的动物致害的责任承担模式”[28],以上观点都是将智能机器人定义为客体来回应侵权责任。但也有研究探索试行阶段的法律法规,试图用赋予智能机器人法律主体的办法来解决问题,如《欧盟机器人民事法律规则》立法建议创设智能机器人的电子人格,然而对于电子人涉及的权利、义务和责任分配问题,并未进行相应的立法建构,这说明智能机器人独立承担责任依旧存在着众多无法操作的难题。反过来看,即使赋予智能机器人独立财产和赔付能力,也难以将责任明确地加以界定。例如,在2018年发生的“达芬奇”手术机器人伤人事件中,医疗人员与生产商在相互推诿责任的情况下导致受害者索赔困难。这说明赋予智能机器人责任主体不仅造成司法资源的浪费,还成为智能机器人生产者、销售者和使用者规避法律责任的手段。

(五)不具有法人的法律人格

智能机器人的法律地位不能等同于法人的地位。法人何以拟制为法律主体?在《德国民法典》中,“法人”是为达成特定目的而成立的其他组织,是以长期存在为目的的“团体”,在我国民法学界,关于法人本质的学说以“实在说”中的“组织体说”为主流观点。基于独立的人格,“法人团体是拥有意志和欲望,能够通过由个人组织的机关自主从事行为的活动组织体”[29]。以“组织体说”为指引,我国民法学界认为,法人制度的形成主要基于三个要素[30]。第一,法人拥有独立的财产而成为交易主体;第二,法人是基于社会经济发展的需要而出现的;第三,法人的设立运用了人与人格分离的法律拟制技术。对比法人设立的三要素,首先,智能机器人背后并非“人”或“财产”的集合,其缺乏作为组织成员的人。其次,赋予智能机器人法律主体地位并无实益,智能机器人不具有独立的意志,无法真正从所有人中独立,长远来看也并不会带来产业发展的社会实效,反而可能成为制造商产品责任的避风港。最后,智能机器人不具备支配财产的能力,在责任承担能力有限的情况下无法拥有独立的财产,与其相关的收益及权利、义务、责任只能由人类承担。“机器人权利的拟制承载着法律的制度目的,如针对法人非法人组织的法律拟制就是为了维护交易的安全,促进经济的健康发展,若随意地适用不仅对立法者预见能力造成巨大的挑战,而且也会影响法律的指引功能和破坏法律的权威性。”[31]基于上述分析,智能机器人实难像法人一样被拟制为法律主体。综上所述,不论在法律、技术还是历史层面,都要围绕“以人为中心”的理念建构法律,以“客体”“工具”来对智能机器人进行准确定位和有效规制。

参考文献:

[1]冯洁.人工智能体法律主体地位的法理反思[J].东方法学,2019(4):43-54.

[2]韩敏,赵海明.智能时代身体主体性的颠覆与重构——兼论人类与人工智能的主体间性[J].西南民族大学学报(人文社会科学版),2020(5):56-63.

[3]彭文华.自由意志、道德代理与智能代理——兼论人工智能犯罪主体资格之生成[J].法学,2019(10):18-33.

[4]杨清望,张磊.论人工智能的拟制法律人格[J].湖南科技大学学报(社会科学版),2018(6):91.

[5]袁曾.人工智能的有限法律人格审视[J].东方法学,2017(5):53.

[6]崔文玉.人工智能商主体地位探析[J].中国政法大学学报,2020(1):87-99.

[7]郭少飞.“电子人”法律主体论[J].东方法学,2018(3):43.

[8]陈吉栋.论机器人的法律人格——基于法释义学的讨论[J].上海大学学报(社会科学版),2018(5):88.

[9]马克思,恩格斯.马克思恩格斯全集:第1卷[M].北京:人民出版社,1965:282.

[10]苏力.法律与科技问题的法理学重构[J].中国社会科学,1995(5):70.

[11]霍姆斯.普通法[M].冉昊,姚中秋,译.北京:中国政法大学出版社,2006:2.

[12]艾·阿西莫夫.我,机器人[M].国强,赛德,程文,译.北京:科学普及出版社,1981:1.

[13]顾骏,郭毅可.人与机器:思想人工智能[M].上海:上海大学出版社,2018:45.

[14]佩德罗·多明戈.终极算法:机器学习和人工智能如何重塑世界[M].黄芳萍,译.北京:中信出版社,2017:361.

[15]孟德斯鸠.论法的精神[M].许明龙,译.北京:商务印书馆,2009:10-11.

[16]约翰·马尔科夫.与机器人共舞:人工智能时代的大未来[M].郭雪,译.杭州:浙江人民出版社,2015:208.

[17]约翰·乔丹.机器人与人[M].刘宇驰,译.北京:中国人民大学出版社,2018:165.

[18]郑戈.国家治理法治化语境中的精准治理[J].人民论坛·学术前沿,2018(10):45-57.

[19]尹田.民事主体理论与立法研究[M].北京:法律出版社,2003:3-9.

[20]刘强,胡姝娴.人工智能背景下知识产权制度的困境及其变革路径[J].重庆工商大学学报(社会科学版),2019(4):129-137.

[21]袁春艷,刘珍珍.人工智能时代大学生思想政治教育的变革与因应研究[J].重庆邮电大学学报(社会科学版),2020(4):93-100.

[22]龙卫球.民法主体的观念演化、制度变迁与当下趋势[J].国家检察官学院学报,2011(4):147.

[23]康德.法的形而上学原理——权利的科学[M].沈叔平,译.北京:商务印书馆,1991:48.

[24]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7):49-53.

[25]刘文献.人工智能生成内容“可版权性”的法哲学基础”——以人工智能哲学理论为视角[J].政治与法律,2020(3):14-26.

[26]乌戈·帕加罗.谁为机器人的行为负责[M].张卉林,王黎黎,译.上海:上海人民出版社,2018:75-76.

[27]杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018(4):84.

[28]贺栩溪.人工智能的法律主体资格研究[J].电子政务,2019(2):110.

[29]马俊驹.民法基本问题研究——马俊驹教授论文集[M].北京:清华大学出版社,2015:137.

[30]尹田.民法典总则之理论与立法研究[M].北京:法律出版社,2010:343.

[31]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017(6):60.

猜你喜欢

人类中心主义智能机器人人工智能
2019:人工智能
人工智能与就业
数读人工智能
解读《白鲸》中人类中心主义与生态主义的对抗
人工智能在智能机器人系统中的应用研究
智能机器人实践课程自主创新能力培养研究
西方环境伦理思想综述
农村城镇化进程中环境伦理问题研究
下一幕,人工智能!
戴维?佩珀的生态批判及现实思考