人工智能法律主体资格研究
2021-11-30居茜钱宇婷
居茜 钱宇婷
1. 苏州市职业大学 江苏 苏州 215009;2. 苏州大学 江苏 苏州 215301
1 问题的提出
机器人可以创作诗歌、驾驶汽车等,机器人已经可以从事目前很多种类的民事活动。在未来,机器人成为人类伴侣也将成为可能。2020年,微软小冰团队宣布启动人工智能框架Avatar Framework小规模测试,即按照每个人类用户的需求,为其定制创造各种类型的AI虚拟人类,首批虚拟人类的身份限定为情感陪伴型女性恋人。微软小冰的对话引擎可以实现“主导对话”,这类机器人具有共情能力,可以进行意思表示。在机器人替代人类扮演社会角色的过程中,对于人工智能民事活动的规制成为法律亟须解决的问题。机器人人身损害责任,自动驾驶汽车发生的交通事故责任、人工智能生成物的著作权归属问题等,需要法律予以明确。2017年国务院印发《新一代人工智能发展规划》提出,各地要开展与人工智能应用相关的民事与刑事责任确认,明确人工智能法律主体以及相关权利、义务和责任等。毫无疑问,明确人工智能的法律问题,是推进人工智能发展和未来法治建构的重要内容。而在讨论对机器人进行相关规制时,首先讨论的则应是机器人法律主体的问题,机器人在法律关系中究竟为权利主体,抑或为客体。这是探讨人工智能问题的前提性和基础性问题,在此确认的基础上进行人工智能相关权利、义务以及责任的分配。
目前学界对人工智能体法律主体问题的探讨如火如荼,各家学者各抒己见,进行了充分的论证,无论是从传统理论,还是从实践中寻求经验以求解决问题。在理论上,学者对此问题看法不一,大体上可分为两类,即肯定说和否定说。本文将对现有的主要观点进行梳理和评析,以探讨相关的问题。
2 人工智能法律主体肯定说主要观点及评析
2.1 肯定说的主要观点
持此立场的学者认为应赋予机器人法律主体地位,机器人具有法律上的人格。具体到对机器人人格的认定上则各有差异。有“部分法律主体说”“电子法人说”“有限人格说”“电子人说”等诸多不同的观点。
彭诚信认为,在现行法律下,部分弱人工智能体应被认定为权利客体,但若出现需要对特定的人工智能主体予以保护或承担责任的具体情形,通过法律的扩张解释将部分高级人工智能体认定为法律主体。他认为现如今的司法实践可将人工智能作为一类“弱势群体”解释进《民法总则》第128条的“等”字,通过扩张解释把人工智能认定为主体。在未来则通过意志能力的认定和具体的物质性条件来确定人工智能的主体地位。
张志坚认为,人工智能并非完全受人类控制的工具,其本质是财产,可以被买卖、处分,是一种会说话、会思考、会自主行为的财产。人工智能具有意思能力和责任能力。具有财产性人格,但无人身性人格,其意思能力和责任能力仅限于财产,其背后的人的意志是一种混合意志,所以应归入法人的范畴。将机器人以财产性人格的进路拟制为电子法人。
郭少飞认为,从自然人法律主体的历史演化、动物法律主体的历史经验以及无生命法律主体的历史梳理来看,“电子人”具有法史基础。人工智能具有自主性、规范性,已非纯受支配之客体,在法律上应设定为“电子人”。
袁曾认为,人工智能是具有智慧工具性质又可作出独立意思表示的特殊主体,享有法律权利和必须承担的法律责任。人工智能虽然具有法律人格,但享有的是有限的人格,并非完全的法律人格,运用“刺破人工智能面纱”来确定责任主体,其造成的侵权损害赔偿根据实际情况由其设计者、开发者、制造者或使用者承当,通过强制投保责任险,确立以人为本的监管体系。
许中缘认为,智能机器人应当定义为“理性代理人”,虽然具有法律人格,但归根结底是由人类创造并服务于人类社会发展的智慧型工具,其具有工具性人格。
郭剑平认为,理性能力是作为主体的基本能力,是法律主体和法律客体相区别的实质所在。人工智能具有法律主体地位的实质要件,即理性能力,其能够生成自由意志,高度智能化的人工智能可以进行情感的表达。人工智能也具有法律主体地位的形式要件,即权利能力,可以享有权利和承担义务,以及负有相关的责任。
叶明认为,智能机器人其因具备“理性”而应享有民事法律主体地位。智能机器人“理性”来源于人类,是人类认知理性和行为理性的延伸,其具备与人类相当甚至超越人类的认知理性及行为理性,智能机器人的“理性”与人类“理性”可以互通。其主张按照理性程度,将智能机器人民事主体地位类比我国自然人民事主体法律地位,划分为无民事行为能力机器人、限制民事行为能力机器人和完全行为能力机器人。
持肯定说的学者大多都认为,机器人有自主的意思表示,并且能够通过该意思从事一定的法律行为,具有法律上的权利和义务,应该具有法律人格,而具体的责任承担方式则须立法进一步规制。
2.2 肯定说论证的主要理由
2.2.1 从法律主体的抽象性和扩张性。从法律主体的发展态势来看,其主体具有扩张性。论者论述权利主体地位发展的历史,从自然人法律主体的历史发展,到动物、河流、法人等非人主体的法律主体地位的确认来论述人工智能取得法律主体的正当性。
“权利主体”是一个观念建构性、价值判断性的概念。法律关系的主体,是指在法律关系中享有权利和履行义务的人。在法学意义上的人区分于社会意义上和哲学意义上的人,乃是一种抽象概念,指向该主体所具有的法律上的权利和义务。当人成为法律上的人时,法律规制其法律行为,在法律上为由法律行为产生权利与义务的抽象概念。成文法使得现实中的人在法律上以统一的标准人、制度人的方式出现,经法律抽象而形成的人,为法学上的“法律主体”。虽然法律主体的概念由自然人演变而来,但是并非只有自然人才能成为法律主体,不是必须具备自然人的意志特征和理性特征才可成为法律关系的主体,法律主体具有一定的抽象性,比如法人制度的创立。在论述法人的主体地位时,拉伦茨指出,“法律上的人”本身就是“形式上的人的概念”,它不如伦理学上的“人”那样丰满,具有“权利能力”即可行为。法人制度的创立使得法律拟制的组织体成为法律关系的主体,法人为法律上享有权利和承担义务的组织,法律主体的概念扩张至组织。法律主体的扩张还表现在法律主体地位的设定扩张至某些非人的物上。为了环境保护的需求,部分国家赋予河流一定的法律主体的地位。2017年3月,新西兰旺格努伊河成为世界上第一条具有法定权利的河流。法律主体范围的扩张使得法律主体不限于传统的自然人和法人,为了特定领域的利益保护和制度需要,赋予某些原本为法律关系客体的物予以主体的资格。而未来随着人工智能技术的发展,为了社会治理和人类利益的需要,可以把人工智能作为一类独立的主体来看待,这从法律主体的概念和发展趋势上是具有正当性的,关键是看法律如何确认。
2.2.2 人工智能具有理性能力。持肯定说的一部分论者认为,理性能力是成为法律主体的本质,人工智能体因其具备理性能力而能够成为法律主体。理性成为具有主体地位的重要基础,有理性即有人格。理性能力是人工智能具有法律主体地位的实质要件,人工智能能够生成自由意志和进行情感的表达和交流。智能机器人不是物,因其具备“理性”而应享有民事法律主体地位[1]。
有的论者认为,人工智能体因其发展程度已经到了与人类水平相当的理性,因其理性是人类认知理性与行为理性的延伸,甚至具备超越了人类的认知理性与行为理性,与人类的理性可以互通,因具有理性而成为法律主体。此类论者的主要观点是,区分民事主体的关键在于其是否具有理性能力,不具备理性能力即不具备法律主体的资格,例如动物。人工智能因其特性,根据算法和程序,具有感应、选择和反思调整的能力。因其所具备的程序、算法、数据处理和交互等能力,可以看成其具备理性能力,成为法律关系的主体。
2.2.3 人工智能能够享有权利。判断一个主体是否能够成为民事主体应看其是否能够享有法律上的权利和承担法律上的义务,即是否具有民事权利能力,享有权利能力也就意味着具有私法主体地位。人工智能体是否承担法律上的义务并未引起较大的争论,论证的焦点在于人工智能体是否享有权利。人工智能享有独立的权利,说明其作为独立的主体有区别于其制造者、设计者、使用者独立的利益,此利益有被法律保护的独立价值。持此种理由的学者认为,人工智能能够作为法律上独立的主体享有权利。人工智能独立做出意思表示的能力已得到实现,并且因其可以提起法律诉讼,法院在决定法律救济时必须考虑到损害以及满足它的利益要求,其权利应该得到法律的确认,应当享有法律权利。人工智能的利益乃是一种涉他利益,最终是为了实现人类的利益。其权利具有拟制性权利属性、利他主义权利属性,以及功能属性。保护机器人独立的利益,有利于维护人类的整体利益,规范人类和人工智能交互过程中的社会关系的建构。有的学者指出,如果机器人拥有拒绝甚至反抗对其滥用的权利,那么在一定程度上可以减少甚至避免人与机器人交互过程中可能出现的不道德现象,这些不道德的现象可能会针对其他人。有关于人工智能的权利类型,则有待于法律进一步规制[2]。
2.2.4 人工智能主体地位具有现实的必要性。创设机器人法律人格具有现实的必要性,主要基于人工智能的发展带来现有法律制度框架难以解决的问题,比如无人驾驶汽车侵权责任的承担、人工智能创作的利益归属,人工智能交易行为的效力等问题。有的学者还讨论在人工智能的意思超出人类意思表达时的权利义务归属问题,这些学者提倡通过建构新的主体类型,可以解决现行制度无法解决的问题。以机器人侵权责任的分担为例。当发生机器人侵权时,利用传统的产品责任不能解决责任分担问题。多主体协同、开放式支撑的人工智能为更为常见的形式,硬件制造商、软件提供商、系统运行维护商、基础网络提供商、改造利用的用户和网络侵入者都会实质性影响人工智能的运行,人工智能在运行过程中也会自我优化和发展。影响机器人的主体众多,机器人的侵权责任可能归因于多方主体且查明困难。在原因无法查明或多方共同作用所致时,以人工智能的名义和财产对外担责,可以有效地促进交易,从而保护无辜受害者和善意相对人,实现利益平衡。赋予机器人法律人格,避免责任认定不清,利于对被侵权者利益的保护。另外,在现行的产品责任的模式下,会给生产者、销售者带来沉重的责任负担,违反公平正义的要求,还会打击人工智能产业的发展创新。所以,授予智能机器人法律人格,使其独立的承担法律责任具有现实的必要性[3]。
2.3 对肯定说的评析
持肯定观的学者主张将人工智能体作为独立的民事主体看待,在法律上独立享有权利和承担义务。将民事法律主体的抽象性和扩张性来论证人工智能主体是可行的,从这一逻辑上看,任何实体只要符合民事主体的要件和现实的需要,通过法律确认都可能被拟制成为法律主体,智能机器人也并无另外。但智能机器人是否符合相关条件和必要性,笔者认为现有的论证并不具有说服力。机器人和传统机器表现不同的是其拥有一定的智力和自主学习的能力,但这是否能成为民法上的理性能力和意思表示,笔者认为是存在疑问的。智能机器需要人类为其制定完整的程序,通过人类为它设定的解决程序去实行,要是没有给予计算机充分合乎逻辑的正确信息,计算机就无法理解,无法采取正确行动。有自我意识的强人工智能尚未出现,目前的人工智能仍处于弱人工智能阶段,相关的法学研究也应以弱人工智能为基础开展,认为人工智能具有理性能力无疑是夸大了人工智能的作用。人工智能也无法享有权益,以著作权为例,因为人工智能体本身也无法行使利用著作权,人工智能生成物所带来权利的利用、收益归属于其开发者、设计者等主体,为其创设权利没有实际意义。所牵涉的独立于其开发者、设计者的保护的价值,如不得滥用人工智能以免对人类造成不法侵害,可以通过在法律上对其开发者、设计者、使用者在法律上的行为限制以及相关的行业规范加以实现。所保护的也并非人工智能权利的利益,而是社会秩序和人类的利益。在责任归属方面,让人工智能独立承担责任并非具有必要性的立法思路。因为人工智能不具有财产,最后责任还是由与人工智能相关的主体承担,在被侵权人和相关主题之间多增设一个无生命的实体不具有必要性[4]。
3 人工智能法律主体否定说主要观点及评析
3.1 否定说的主要观点
持否定立场的学者大多认为机器人为权利客体,不具有法律上的人格,人工智能终究只是人类的工具,为法律关系的客体。
王利明教授认为,智能机器人本质上由其自身算法决定,尚不具备人类所具有的自主思考的意识和能力,尚不能独立享有权利、承担义务。在一定时期内,既有的法律制度和规则体系仍可有效解决智能机器人所带来的挑战,目前人工智能机器人还不能也没有必要成为民事主体。
吴汉东教授认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,不能将其作为拟制之人享有法律主体资格。机器人是受民事主体控制的,不足以取得独立的主体地位[5]。
杨立新教授认为,即使智能机器人的人工智能再高端,其智慧再发达,也不具有民事主体的人格。其将人工智能机器人的民法地位定位为人工类人格,即指智能机器人所享有的,通过人工制造的,类似于或者接近于自然人的自然人格的民事法律地位。但否认人工类人格为法律人格,对其仍然界定为民法客体,机器人仍作为物存在,但划清智能机器人与其他物的区别,认为智能机器人处在最高的物格地位。
解正山认为,机器人与人具有本质差异,它们不可能成为“理性的人”,机器智能是一种演绎智慧,只是对数据进行无理性、无情感的枯燥处理,不过是对人类某些认知行为的模拟,机器人终究只是作为“工具”而存在。法律人格与法律权利的基础更多在于人性而非认知能力。机器人履行义务和承担责任具有非现实性[6]。
房绍坤认为,人工智能缺乏作为自然人的自我意识、理性和道德感,缺乏人类之“灵性”,没有需要保护的伦理价值,其本质上只是一台机器,不能取得与人类平等的民事主体地位。
石冠彬认为,人工智能获得主体资格地位并无理论障碍,在理论上和实践上均具有可行性,但人工智能获得主体资格并非解决现实问题的唯一途径,因为目前尚未达到必须构建的迫切程度,解决人工智能著作权保护问题和自动驾驶汽车的侵权责任均可以用其他路径予以解决。
郑戈认为,机器人无论以何种方式承担责任,最终承担责任的始终是机器人的“主人”,因为机器人不可能有独立的收入,无论以何种方式承担责任,最终的责任承担者都是人,赋予机器人以法律人格这一简单拟人化模式缺乏相应法律能力和法律责任分配机制,是不可行的[7]。
冯洁认为,从法理论的角度,成为法律主体意味着规范条件和事实条件两个条件的统一,前者为享有权利和履行义务的法律资格,后者为享有权利和履行义务的法律资格。人工智能不符合法律主体的事实条件和规范条件,无法成为法律主体。
赵万一认为,机器人的特性不足以构成赋予其民事主体地位的理由。因为机器人就其生成机理来说不可能产生生命和生命权,也不具有自然人那样的个体差异性,不具有自然人所具有的道德、良心、良知、伦理、宗教、规矩和习惯,机器人无法实现与自然的和谐相处,也无法在与自然的相处中实现对自然界的改造的目的。
综上,持否定说的学者大多数都指出机器人与人之间的差别,认为人工智能体成为法律主体还具有差距,通过分析机器人的意思能力,认为机器人没有自我意志,只能作为人的工具,即法律上的物而存在,不符合成为法律人格的条件[8]。
3.2 否定说论证的主要理由
3.2.1 人工智能体不具有独立的意志。持此观点的学者认为,人工智能不具有独立的意志,只是为人类利用的工具,是人类能力在某方面的延伸,是能被人所完全控制的,人工智能所具有算法和学习能力不能表现为独立的意志,而只是一种数字化的表达。人工智能不能成为目的,而只是方式。人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同,也区别于具有自己独立意志并作为自然人集合体的法人。人工智能是为人所利用的智能化的机器,其所表现出来的智能化的成果不能视为独立的意志的表达,不是具有独立意志的法律主体[9]。
3.2.2 人工智能无法享有权利和承担义务。在成为主体的条件方面,就现阶段而言,人工智能无法享有权利和承担义务,而且也无法得到法律的确认。解正山认为,机器人不可能成为权利主体,机器人履行义务或承担责任也具有非现实性。因为机器人和“人”具有本质差异,它们不可能成为“理性的人”。机器人无法类比法人主体地位和动物权利来获得权利,因为其本质上存在差异。而且赋予机器人拟制性的且利他的权利或不现实或多余,没有必要把产品意义上的机动性上升到权利的高度,赋予救济的权利完全可以给予其所有者或使用人。给机器人设立独立的财产使其独立的履行义务和承担责任从生产者或用户的角度看也是不现实的。机器人并不具备享有权利和履行义务的意志能力,也不应当拥有享有权利和履行义务的法律资格。人工智能无法享有权利和履行义务,其不能理解法律上的权利与义务,其意志水平决定了其无法遵守法律。有关于人工智能的权利与义务不具有现实性和可行性,完全可由其生产者、制造者承担[10]。
3.2.3 人工智能不具有自然人主体的特质。持否定论观点的学者,大多否定机器人的人性,主张其不具有法律人格。霍斯特·艾丹米勒教授认为,法律能力或者人格是与人类相关联的,赋予机器人法律人格会使世界非人化,我们应该避免持有这种态度。房绍坤教授指出,人工智能与具有法律人格的自然人没有共通性,缺乏价值判断力和道德感。缺乏自然人属性的人工智能体,即使表现出一定的智能,非自然性也决定了是人类利用的工具。张力教授认为,智能机器人取得人格具有推导谬误,混淆了自动化科学中的工具“自动化决策”和人类主体的本质区别,混淆了人之主体能力的本质与为人所创造工具的工作能力表象之间的区别。因为人工智能与自然人主体之间存在本质差别,其自主学习能力和自然人意识表达不同,人工智能没有理性道德、情感、判断力、逻辑、伦理观念等自然人意识特有的内容,其不能成为法律主体[11]。
3.2.4 把人工智能作为主体不具有必要性。目前仍处于弱人工智能时代,强人工智能的发展停滞不前,赋予人工智能主体地位没有必要性。有些学者认为从立法层面上来说,当前的法律制度尚可以解决目前出现的问题,将人工智能作为主体不具有立法上的必要性和紧迫性,应该在现有的法律制度中寻求解决人工智能相关问题的路径。目前在人工智能领域出现的法律问题主要集中在人工智能创作物的著作权归属问题以及人工智能物侵权的问题上,在其他方面还未涉及,现行法律制度可以对其进行调整。房绍坤认为,人工智能创作的作品实际上为人工智能体的孳息,该著作权应归属于人工智能体的所有人。在处理人工智能致害责任时,应以产品责任为原则,追究销售者和制造者的责任,在系统存在问题的情况下,责任承担人可以追究软件制造者和销售者的责任。石冠彬认为,不赋予人工智能以民事主体资格,不影响其创作物受到著作权法等知识产权法律的保护,在自动驾驶汽车的侵权责任上,不论是产品责任还是自动驾驶汽车专项保险制度的引入,都可以解决侵权责任的问题,赋予人工智能民事法律资格并非唯一的路径。将人工智能作为法律主体在立法技术具有困难,将引发巨大的法律变革,将打破现行以自然人和法人为民事主体的制度。无论是在立法上,法律的应用上还是社会观念的转变上,都会存在巨大的冲击和困难。在人工智能未发展至强人工智能智能普遍应用的阶段时,运用现行的法律制度仍可以解决人工智能带来的法律问题,将其作为民事主体不具有必要性[12]。
3.3 否定观的评析
在对于人工智能法律地位的讨论上,笔者支持否定观的观点,目前人工智能无法成为法律关系的主体。笔者认为,以人工智能不具有人性而主张其不具有主体资格的观点有待商榷。我们在讨论机器人是否能否成为法律主体时,应该看待其是否具有相应的权利能力,即享有权利和承担义务的法律资格。法律意义上的人格以权利能力的享有为标志,享有权利能力也就意味着具有私法主体地位。德国学界一般将权利能力定义为:成为权利与义务承受者的能力。法律人格与口语中的“人”的意思不同,其没有关于道德上的主张,这个术语本身也不需要任何的知觉和生命力。成为法律上的人是有能力在既定的法律系统内享有权利和承担义务,比如说订立合同,拥有财产和被诉的权利。不同于自然实体,特殊的权利义务伴随着法律上的人格。法律人格的确立是由立法或司法机构作出的评估,目的是赋予一个实体权利和义务,而无论该实体外观如何,是不是真正的人类。“人格”作为一个法律概念时,并非来自于主体的人性,而是来自于主体的权利义务归属。确立一个是否能成为法律上的人很大程度上取决于具体情况,不一定是一致的标准。故在讨论机器人是否具有法律人格时,不应将法律上的人格概念与哲学上的人格概念混淆,过分对比机器人和自然人在各个方面上的差别,对人的哲学属性做过多思考而强调因智能机器人不具有人性而不具有法律人格。关于人本身的自然属性以及哲学概念,并非是机器人拥有法律人格的必要条件。自然人的主体性的概念,与法律主体和法律人格的概念并不相同,不能混为一谈。如果以主体的人性作为法律人格的基础,那么法人的法律人格将无存在的基础。法律人格的创设是基于其享有法律上的权利和承担法律上的义务,目前智能机器人还不具备自我意识,无法成为权利与义务的承担者,也没有成为法律主体的必要性,笔者认为否定的观点更为合理[13-17]。
4 结束语
现如今立法对于机器人的法律人格仍没有明确规定,但不断发展的人工智能技术和现实中不断涌现的机器人权利义务和责任承担的问题使得机器人的立法成为迫切需要。本文讨论了我国关于机器人法律人格创设的主要观点,分析了国内目前主要的已有研究的对此问题的观点。人工智能法律主体问题是法学研究领域探索未来法治道路的前提问题,笔者认为在现如今的发展阶段还不宜将人工智能作为主体看待,还不具有相应的必要性。法学研究也应该在不断发展的科技热潮中保持一份清醒和理智,不必夸大人工智能的作用,站在实际立场上解决不断涌现的人工智能问题。