论机器人的法律人格——基于法释义学的讨论
2018-03-16陈吉栋
陈 吉 栋
(上海大学 法学院,上海 200444)
2017年7月20日,国务院正式印发了《新一代人工智能发展规划》(下文简称“规划”)。*2016年10月,美国国家科学与技术委员会相继发布了《国家人工智能发展与研究战略计划》及《为人工智能的未来做好准备》两份人工智能领域的国家战略报告。“规划”全面阐述了我国人工智能发展规划,要求“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”。明确人工智能法律主体以及相关权利、义务和责任是民法这一依法治国基本法的任务,[1]而权利、义务问题的解决,以确定人工智能权利主体地位为前提。本文以机器人为例,*《联合国世界机器人报告(2005)》提出了对机器人如下定义:机器人是一种以自动方式或者半自动方式操作的可以重复编程的机器,以便开展制造业务 (例如工业机器人),或者为人类的福祉提供服务(例如服务机器人)。当下,机器人的三个重要类别是无人机、无人驾驶汽车和辅助机器人(包括护理或工作场所的助理机器人)。本文讨论人工智能主要焦点是硬件的机器人和自主系统,也包括以人工智能软件形式呈现的机器人。检视人工智能时代对民法主体制度的挑战,尝试从民法释义学的角度探寻民法主体制度应对机器人挑战的策略。
一、机器人的发展现状及其问题
①早期人工智能研究主要集中于对人脑的仿真模拟,探究意识、理性等更为宏大的哲学问题,应用性较少;然而当下的人工智能早已走出实验室,借助互联网服务直接影响到普通人的生活,在技术上并不执着于创造一个完美的智能体,而是依靠算法(如机器学习和神经网络)不断优化,对海量数据自动挖掘与预测,通过无所不在的传感器实时更新数据,动态掌控着人类社会各个方面的运转,并把从某个特定领域升级为通用人工智能作为目标。参见胡凌: 《人工智能的法律想象》,载《文化纵横》, 2017年第2期。
机器人(或者更广意义上的人工智能)的发展本质上源于人类自身的需求。“规划”的战略目标和重点任务也表明,正是因为人类社会对机器人的巨大需求,使得机器人的发展必然更加复杂,认知能力更强,动作更自主,并可以做出自主的决定。①而这一发展又对现代法律提出了挑战。
(一)机器人的发展现状及挑战
早在2011年,英国国防部在其《联合条令》中即提出,人工智能在未来5到15年间,可能达到更高的自动程度。最新一轮的人工智能发展已经验证了这一判断,诸如苹果Siri、微软Contana等智能软件助手与数以亿计的用户互动,正在形塑新型的人机互动关系。马尔科夫对人工智能的发展有长期敏锐的观察,他认为,“在未来几年内,人工智能和机器人给世界带来的影响将远远超过个人计算和互联网在过去30年间已经对世界造成的改变。汽车可以无人驾驶,机器人可以完成快递员的工作,当然,还有医生和律师的”。[2]XIV
然而,上述发展在满足人类需求的同时,也产生了新的问题,并对现行法律体系提出了严峻的挑战。现代的社会人文价值和伦理准则建立于启蒙时代,显然已经不能适应未来崭新的科技社会。而奠基在这一套价值准则上的民法,就不可能不做相应的调整。因此有学者宣称:“现在开始法律、科技和伦理的对话,已经不早了。”[3]66实际上,“智能助手或机器人是否会变得自主”和“它们是否会拥有足够的自我意识,会让我们考虑‘机器人权利’这类问题”在20世纪即已引发理论界的激烈争论。[2]15
(二)机器人发展带来挑战的具体表现
1. 机器人能否享有著作权
2017年5月,微软机器人“小冰”所作的诗集——《阳光失去了玻璃窗》由北京联合出版公司出版。该诗集被称为“人类史上首部人工智能灵思诗集”,它的作者署名是“小冰”。“小冰”是否对其诗集拥有著作权?有学者反思道,“如果作品的著作权被侵犯了,如何行使权利?如果著作的人身权由机器人的所有人或控制人代为行使,财产权由机器人的所有人或控制人拥有、行使,则人与机器人之间是代理关系吗……还有,小冰会死吗?如果它不会死,这些诗的保护期是否就是永远的了……是否要重新定义人类?”[4]这一反思的基点在于如何认定机器人的法律地位,即机器人是不是法律主体。
2. 机器人致害的责任问题
在“姆拉赛克诉布林茅尔医院案”(Mracek v. Bryn Mawr Hospital)中,[5]34-35医院为患者实施前列腺手术时,使用了达芬奇医疗机器人,但机器人介入工作的过程中一直不能反映正确的信息,而且拒绝手术团队调整它的手臂位置,最终医疗团队只能人工开展手术。但是,手术一周后,患者手术部位严重出血,伴有腹痛,而且产生了勃起功能障碍。因此,患者发起诉讼,要求机器人制造商和医院赔偿损失。初审法院作出简易判决,否定了原告的诉请,高等法院维持了这一判决。法院将该案认定为产品责任问题,依据《美国侵权法重述(第二版)》(下文简称“重述”)的第402节A作出了前述判决。通过这一案件我们认识到:当机器人致害时,现行法律实践仅将其认定为产品或者权利客体而非法律主体。
法律主体是所有种类权利的共同之处,即所有权利都是某一个权利人的权利。[6]48因此,对机器人知识产权和致害责任的争论,也以确定机器人权利主体地位为前提。对此问题的探讨应区分如下两个层次:首先,能否将机器人认定为法律主体并赋予其法律人格,这一问题需要回顾民法主体制度的历史,探讨民法主体的本质;其次,是否在现阶段就赋予其主体地位,则涉及民法价值,关系社会、经济、伦理等问题,这一问题需要细致检视机器人智能发展所导致的及未来可能导致的社会问题,判断机器人主体论是否具有正当性与可行性。
二、“没有脸庞”的权利主体:民法主体的扩张趋势
机器人能否成为民事主体,需要检视民法主体制度的一般原理,回溯民法主体制度确立的原因、特质及其发展趋势。
(一)差序结构下的主体制度
现代社会人人均平等地享有法律主体资格(人格),但(自然)人可非(法律上的)人则是历史的常态。在人格理论起源的古罗马法中,法律人格呈现差序结构:即罗马法的人格制度将人本身与人格分离,[7]人格并非为人人所具,人可非人。具体来说,一个人要具备完全的人格,必须要同时享有自由权、市民权、家族权三种身份权。[8]三者缺一,则为“残人”,[9]人格受限;三者皆无,则为非人(奴隶),沦为客体。罗马法判断一个自然人是否具有上述权利(也是终极意义上法律人格)的依据是“身份”。“身份构成了生物人与法律人(格)之间的分拣器。它们排除一定的生物人于法律人(格)的行列之外。”因此,法律人格成为区分自然人不同的社会地位,一些人压迫另一些人的法律技术工具”。[10]51说到底,“(法律)人格是部分社会成员的特权”。[11]罗马法实践表明,法律人格制度在一开始即具有突出的技术性特点。
(二)主体的全面保护及其挑战
1. 主体的全面保护
14世纪文艺复兴开始后,尤其是经过了启蒙运动的洗礼,自然法理论一跃成为欧洲法学理论界的统治学说。《法国民法典》受到自然法精神的影响,扬弃了罗马法人格理论的身份基础,将人格与自然理性所生的人的伦理价值联系起来,最终实现了法律人格平等的制度设计。“该法典第8条规定:‘一切法国人均享有民事权利’的规定,标志着人类近代社会以伦理作为法律人格基础的法律传统的形成,拉开了法律上人格平等的序幕。”[12]正是该条规定,使人成为独立于“神”与“自然”之外之唯一的法律人格承载主体。而“作为身份区分工具的‘法律人格’在人人平等的社会中,应当毫无使用价值”。[10]52此时的法律主体概念已经不同于罗马法差序格局下的人格,在更大程度上成为一种抽象意义上的拟制人。*拟制人概念可以追溯到13世纪以来教会法学者所创造的“persona ficta et rapraesentata”。
1900年开始实施的《德国民法典》创造了权利能力制度。权利能力意指:“一个人作为法律关系主体的能力,也即是作为权利享有者和法律义务承担者的能力。”[6] 119-129该法典第1条明确规定:“权利能力自出生完成之时开始。”这意味着任何自然人一经出生,享有权利的能力即是平等的。权利能力已经超越自然人格,成为法律意义上的人——包括“自然人”和“法人”——的共同本质,[6] 119-129而现代意义上的人格则成为与权利能力相等的概念。我国《民法总则》第13条亦采用德国模式规定了权利能力制度。
德国民法乃至近代民法确立民法主体的伦理学依据是康德主义的道德哲学。依据康德哲学,“具备实践理性者才能够承担义务并称为主体”,而理性和意志是决定法律赋予主体地位的原因。[13]按此标准,只有自然人可以享有主体地位,而动物和其他物质仅是权利客体。在这一界定下,自然人是一个伦理的存在。[14]46但是,由于人格概念的抽象性和技术性,康德同时也指出前述其他主体也可以成为法律主体。即尽管只有自然人才可以获得权利并承担义务,但是法律仍有权将主体资格赋予任何东西,比如,商业公司、政府和海商法意义上的船只等。
2. 主体制度不断扩张与新挑战
民法所确定的抽象法律人格制度有不断扩张的趋势。首先,由于民法典不断将人的概念抽象化,同时由于商业发展的需要,在自然人之外,出现了法人制度。其次,随着生命科学发展,自然人内部出现了新的变化,自然人主体里出现了渐冻人、植物人等所谓的非自由人和半自由人。《民法总则》第28条和第33条对成年人监护的规定,即是因应此种变化而做出的相应调整。此外,由于基因科技的突破,人的器官已经在私下交易,人与动物的对立性也呈现相对化倾向。因此,产生了将主体当作客体的颠覆性影响。[3] 64-66最后,随着国外兴起的环境伦理学,域外法域出现了动物主体地位问题的讨论。这一讨论的理论基础是环境伦理学中动物权利论、生物平等主义和生态整体主义中大地伦理学、深层生态学。依据这些学说,每一种生命形式都拥有生存和发展的权利。动物权利理论者主张,动物具有感觉能力和精神能力,动物具有道德意义的利益,人类应采取“平等考虑原则”对待动物。所以,应赋予动物“不被当做工具来对待”的道德权利。[14] 56-57正是在这一背景下,《德国民法典》增设第90条第1款:“动物非物,动物应以特别法保护之。有关物之规定准用于动物,但另有不同规定者,不在此限。”这一规定宣誓了对于生命意义的尊重,也回应了社会对于保障动物权利的需求。但我国《民法总则》并未接受这一规定,因此,动物权利不具有正当性和可行性。[15]
综上,随着时代进步,法律关于法人、胚胎和动物权利的讨论,扩大了法律人格适用范围,因此出现了“没有脸庞”的权利主体。[16]在此意义上,运用抽象的法律人格赋予机器人民法主体地位,在技术上并无困难。如果社会现实需要赋予机器人法律主体地位,民法技术足以支持这一操作。问题在于选择何种路径,使机器人格与实定法契合,以解决现存问题。
三、机器人人格的最新讨论及评析
虽然将机器人认定为民事主体在技术上可行,但如何协调其与现行法的关系仍面临诸多问题。限于国内人工智能发展时间不长,法学界对此问题尚无深入讨论。因此笔者将考察现有关于机器人地位的观点及其具体的认定路径。总括而论,大致有两种观点:否认主体地位的即是机器人客体说;赞成机器人主体地位的观点里有赋予机器人独立电子人格的观点以及代理的观点等。
(一)客体说
机器人客体说认为,机器人仅是权利的客体。这是目前各国司法普遍接受的观点。依此观点,在机器人致害的责任归属上,致害路径是决定该机器人的所有人(占有人)承担责任的关键。[17]在责任归属的具体路径上,一般存在产品责任说与动物保有责任说两种观点。
首先,在“姆拉赛克诉布林茅尔医院案”中,法院认为,机器人机械故障造成原告的损害,应由其生产者负严格责任。依据“重述”第402节A的规定,严格责任不仅适用于因产品制造上的缺陷导致的损害,还包括产品设计上的缺陷导致的损害。但在这一路径下,原告必须证明产品有缺陷,这一缺陷是造成原告损害的近因(proximate cause),并且这一缺陷在产品制造者控制产品时已产生。本案患者不能证明机器人的缺陷,也不能证明机器人故障与自己损害之间的因果关系。依据产品严格责任下的事故理论,原告既未能提供任何证据以便消除其他可能的次要原因,亦未能发现关于被告过失因素的重要事实的任何真正问题。因此,法院没有支持有关的诉请。[5]34-35此案说明,美国的司法实践仍是把机器人作为权利客体看待。
其次,解决机器人致害责任问题的另一种思路是参照动物管领人的责任,这里“参照”即为类推适用。依据《侵权责任法》第78条,动物致害责任为危险责任,其构成需要满足动物危险的实现、受害人的损害和两者间因果关系等要件。*第78条规定:“饲养的动物造成他人损害的,动物饲养人或者管理人应当承担侵权责任,但能够证明损害是因被侵权人故意或者重大过失造成的,可以不承担或者减轻责任。”以“姆拉赛克诉布林茅尔医院案”为例,只要是机器人造成了患者的损害,患者无需证明机器人的质量瑕疵即可主张医院赔偿损失。除非医院证明患者之损害是由其自身故意或重大过失可以免除或减轻赔偿。在此路径下,受害人即可以避免因举证困难而遭受败诉风险,有利于保护受害人的权益。[18]
但是,两种路径其实都有一定局限:首先,产品责任路径下,一则产品缺陷的判断标准需要有相应的国家标准和行业标准;尤其是在机器人具有一定智能的情况下,受害人证明缺陷的存在很困难。其次,在智能机器人做出临时决定导致损害的情况下,由于人类无法准确预知人工智能系统针对某个问题的解决措施,将这些责任归诸制造商或所有人是不合理的。其原因是现代人工智能具有自主性或者作出独特决策的能力。
(二)主体说
将机器人认定为主体的理论也存在两种论证途径:代理说和电子人格说。
1. 将机器人作为其“所有人”的代理人
把机器人视为代理人在法律上也有相当长的历史。[19]2017年2月欧盟表决通过的《欧盟机器人民事责任法律规则》第52条即提出“非人类的代理人”的概念。[20]1这一路径首先将机器人作为一种人工智能体,且人工智能体是一个具有目的性的系统,这一认定接近于认为该人工智能体具有一定的法律人格。[21]189学界一般认为,将机器人作为电子智能体,进而作为人类代理人的观点,本质上是将机器人作为民事主体。[22]
在代理说下,机器人的用户或者操作者与机器人(人工智能体)的关系被认定为法律代理关系中本人与代理人的关系。根据代理的基本法理,可以作为代理人的人,必然是具有法律主体地位且具有一定行为能力的人。[23]代理人应为一定行为负责,而该行为的结果要归结到本人。对人工智能来说,人工智能依据本人的命令行为,对本人承担一定义务,而且本人命令即是其所承担义务的内容。这一主张已经被法律实践所接受,在“思瑞夫蒂电话公司贝森尼克案”中,*Thrifty-Tel, Inc. v. Bezenek.被告不经允许接入原告电话公司的长途电话系统,法院认为,“在思瑞夫蒂电话公司虽然没有人(自然人)接到并且按照被告的虚假要求给予其电子访问代码……智能体的信赖仍可归诸本人”,因为在法院看来,“思瑞夫蒂电话公司的网络系统即是其代理人或者类似角色”。[21]18-22
但是,代理说存在如下问题:首先,在民法上,因不同的产生依据,代理分为法定代理与委托代理。代理说并未明确人工智能体为何种代理,因此存在如下两种解释可能:如果将其作为委托代理,则由机器人自身过错所导致的损害,本人在赔偿被害人后,仍可以向其代理人主张赔偿。此时需判断代理人的注意义务,但是机器人致害的注意义务如何判断仍不明确。而且由于机器人多作为本人之“财产”存在,因此,并不存在本人向机器人请求的余地。而如果将其认定为法定代理,则需对现有法定代理进行法律解释甚或漏洞填补乃至修改法律。在解释论路径下之所以难以解决这一问题,是因为《民法总则》规定的法定代理的存在以代理内部关系的双方之间存在血缘关系、婚姻关系或其他亲缘关系为前提。自然人与机器人之间的法定代理显然并无法律依据和理论基础。因此,只能将此问题付诸将来立法。其次,依据《民法总则》的规定,代理人应具有权利能力(独立主体资格)和一定行为能力。以意志能力为标准将自然人区分为完全民事行为能力(18周岁以上)、限制民事行为能力(8-18周岁)以及无民事行为能力(不满8周岁)。机器人的行为能力如何判断,尚有待进一步明确。
2. 最新观点:电子人格
较代理说更进一步明确承认机器人主体地位的是电子人格说。*在电子人格说下,同样可以存在代理说。这一观点建立在如下理论基础之上,即机器人行为在法律上如未成年人和行为能力欠缺的成年人一样,因此,在法律上它们不仅可以作为给人类带来责任的来源,而且应该将机器人作为一个法律上具有独立人格的人。依据这一观点,未来的法律应认可机器人的法律主体地位。
欧盟通过的《欧盟机器人民事法律草案》第59 f:长远来看,要为机器人创设一个特殊的法律地位,以便至少大多数复杂的自动化机器人可以被确立如电子人(electronic persons)一样的法律地位,为其制造的大量的损害负责,或者,当机器人可以作出自动化决定或者与第三人自主交流时,要申请电子人格。[20]1依此规定,欧盟并未将机器人归入现有的法律人类别中,而是提出了一个新的类别——“电子人”。而且,机器人人格并非因机器人被设计或者制造而产生,而是需要申请。这一规定的背景原因是,自主的机器人越来越普遍。但既有的法律法规已经不适用处理和机器人有关的纠纷。例如,目前欧盟关于机器人损害责任的制度仅涵盖由制造缺陷引起的可预见的损害。在这种情况下,机器人制造商需要负责。然而,若一个机器人能够以不可预测的方式学习和适应其环境时,制造商难以预见机器人可能造成的伤害。[24]这一路径存在的问题是:机器人电子人格的获取,类似公司申请主管机关发给营业执照而取得法人资格的过程,而非自然人因出生自动取得法律人格。机器人电子人格的申请人是谁?申请设立的准则为何?诸如此类的问题,尚需解释明确。
在赞成机器人主体说的观点里,还有一种观点是拟制主体说。[5]153依据该说,应赋予其依赖自然人而非独立于自然人的主体地位。依此观点,机器人的主体地位仅是一种法律的拟制,就像公司。这一观点回避了对于机器人自身智能的讨论,运用法律拟制的方法处理机器人的法律主体地位,在理路上最为简洁明了。但是,在这一理路下:一方面拟制的结果其实仍是机器人具有独立的法律地位,只是机器人的意愿形成及表达仍是由自然人来决定;另一方面,如何处理机器人与自然人的关系问题仍不明确。
四、我国对机器人法律地位的应然态度:法释义学阐释
前述论证已经表明,机器人法律主体地位赋予在私法技术上并无困难,理论可行性上亦存在一定的论证路径。接下来笔者将讨论我国应然的选择路径,为“规划”的落实和人工智能产业的健康发展提供保障。
(一)现有观点评析
我国民法也面临主体扩张的难题。自然人一直面临社会关系异化或者物化的困境,[25]只不过机器人(人工智能)的发展造成的冲击更为根本和广泛,需要进行更为系统和全面的应对。我国学者已经在积极地回应这一问题,并提出一些富有建设性的策略。
1. 机器人人格赋予
吴汉东认为:“将机器人视为‘人’,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。”主要原因是:人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性……尚不足以取得独立的主体地位。[26]吴汉东的上述观点有如下缺陷:第一,对于人格赋予的认识,没有脱离主体客体分化的窠臼,忽略了人格的技术性特征。而且,这一观点对于人工智能的目前发展进程和未来前景未给予足够的重视。[27]按目前的预测,人工智能总是会发展到超越工具型的“强人工智能”的阶段,[28]当“强人工智能”实现以后,这种造物就不能被当做纯粹的工具。在这一阶段,人工智能已经具有自主意识,具有与人类对等的人格结构,今日人类成员所拥有的权利地位、道德地位、社会尊严等等,他们就应该平等地拥有。[29]
在否定机器人人格的基础上,吴汉东进而否定了机器人享有著作权。吊诡的是,吴汉东认为,人工智能生成之内容,只要由机器人独立完成,无论用途、价值和社会评价,即构成受著作权保护的作品。但机器人并不能像自然人作者或法人作者那样去行使权利,该项著作权应归属于机器人的创造人或所有人。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照《著作权法》关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。但这一观点显然是自相矛盾的:首先,如果承认机器人的创作是作品,则意味着对于创作主体地位的承认。吴汉东认可了机器人创作的作品地位,但否定了机器人是作者的前提。其次,在具体路径上,职务作品或雇佣作品*《著作权法》第十六条:公民为完成法人或者其他组织工作任务所创作的作品是职务作品,除本条第二款的规定以外,著作权由作者享有,但法人或者其他组织有权在其业务范围内优先使用。作品完成两年内,未经单位同意,作者不得许可第三人以与单位使用的相同方式使用该作品。有下列情形之一的职务作品,作者享有署名权,著作权的其他权利由法人或者其他组织享有,法人或者其他组织可以给予作者奖励:(一)主要是利用法人或者其他组织的物质技术条件创作,并由法人或者其他组织承担责任的工程设计图、产品设计图、地图、计算机软件等职务作品;(二)法律、行政法规规定或者合同约定著作权由法人或者其他组织享有的职务作品。本身仍以自然人主体地位和其与单位劳动关系存在为前提。而且,在有些职务作品中自然人可以享有部分权利,而吴汉东上述观点显然否定了此点。
2. 关于机器人致害的责任承担问题
吴汉东认为,智能系统致人损害有两种责任方式可供选择:一是基于行为人过失所产生的产品责任。由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。二是基于技术中立原则所产生的替代责任。在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。对于机器人致害责任的承担问题,吴汉东认识到机器人自主程度是责任分配的考察要素,但是忽略了自主程度背后更为细致的技术讨论。即对于不同种类的机器人究竟如何分别认定它们的自主程度,并以此为基础探讨责任的分配。
(二)释义学路径及开放体系的提出:“拟制”技术的运用
处理人工智能主体立法抉择的基本原则是:法律不应介入人工智能的技术黑洞。这是法律滞后于技术发展从而不具有判断技术黑箱能力的必然选择。因此,面对飞速发展的人工智能,法律应持一种开放的姿态,即在人工智能具备智能(自主)时赋予其民事主体地位;在未具备智能前,其仅为权利客体;但特殊情况下,应将尚未具备智能的人工智能“拟制”民事主体。
1. 现行法解释路径的选择
在我国现行法上,人工智能不是主体,但可以通过法律解释将其解释为主体。《民法总则》第2至4章是关于民事主体的规定,第2章是关于自然人的规定,第3章是关于法人的规定,第4章是关于非法人组织的规定。依此3章的规定,人工智能并非民事主体。但除前3章外,对于民事主体的规定尚有《民法总则》第128条,该条规定:“法律对未成年人、老年人、残疾人、妇女、消费者等的民事权利保护有特别规定的,依照其规定。”第128条在性质上属于引致条款,其立法目的在于当《民法总则》对具体民事权利的列举不符实用时,通过该条引致其他法律对于民事主体权利的特别规定,以实现保护弱势群体的民事权益。我们可通过对本条“等”进行解释,将人工智能解释为此类弱势群体去施以保护。然而,此条仅是引致条款,并未具体规定人工智能的权利,因此在运用时仍应以单行之法律对人工智能的权利进行规定,始可进行法律方法论的操作。
在我国现行法上,人工智能是客体,但存在不同的归责路径。人工智能是一套复杂的代码设计,其本质在于算法和数据处理。其存在样态千差万别,有机械手、智能软件或者人形机器人等。不同的存在样态可能导致法律对其性质评价的不同。如果人工智能的存在样态是达芬奇医疗机器人,其可能构成《民法总则》第115条所规定的物。而权利人对它的权利则构成第114条所规定的物权。而像Siri这样的软件,则应被定义为智慧产品(准确地说是“软件”),成为著作权的客体。无论如何,人工智能作为客体致害责任存在不同的归责路径,当人工智能尚不具备主体资格而仅是客体时,人工智能的致害应坚持解释论的视角,区分不同的具体情形以便分别采取前述不同的具体方法来解决。如产品责任(《侵权责任法》第43条)或者类推适用动物饲养人和管理人的责任(《侵权责任法》第78条)。此点前文已阐释清楚,不再赘述。
2. “拟制”技术的运用
依据现行法,无论将人工智能解释成主体或者客体,均未回应当下的社会现实。在当下,即便人工智能被定性为权利客体,但在某些特殊情况下,因为其已经具备创造或者由于自身之决定导致损害发生时,应将人工智能视为民事主体。之所以如此,是因为所谓的人工智能的所有人本身对于作品的形成并未贡献或者对于损害的发生并无过错。此时将权益或者损害归诸主体有违法理这一说法并无依据。因此,我们需要运用“拟制”技术根据具体情况解决这一问题。“拟制”是将实为权利客体的人工智能认定为民事主体的法律技术。
首先,如何确定人工智能视为主体的具体情形。“拟制”在实定法上的典型例子是《民法总则》第16条第1句对胎儿利益的保护:“涉及继承、接受赠与等胎儿利益保护的,胎儿视为具有民事权利能力。”根据该条款,胎儿在继承、接受赠与等情况下可以被视为出生,即可被视为民事主体。人工智能在何种情况下可以被视为民事主体,需要根据具体类型和司法实践的认识来决定。在当前阶段,对于可以创设作品的人工智能和能够完全自动化的无人汽车应该被认定为主体。但将人工智能认定为主体,即不能运用产品责任或者动物致害的规定决定其具体行为所致后果的归属,应继续探索妥适的实定法路径。依据现行法,可供选择的路径有类推适用雇主责任(《侵权责任法》第34条第2款)原则进行处理。依据《侵权责任法》第34条第2款的规定,用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任。*但与一般雇主责任相比,人工智能取得“拟制”主体的地位应经过一番测试。目前,对于机器人的智能测试以图灵测试最为著名,但图灵测试对判定“强人工智能”毫无用处,即图灵测试并不能作为智能意识产生的推演依据。有鉴于此,有学者提出一个“人工智能逆反图灵判据”:任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由判定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。此论点参见翟振明、彭晓芸的《“强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻》,载《人民论坛·学术前沿》, 2016年第2期。类推适用雇主责任则是说,将人工智能当做其所有者的雇员,其行使职能之行为,所创设之权利和义务应归属于主体。
应该注意的是,在“拟制”方式下,对于具体问题的判断,比如对于责任分配和知识产权归属等实际问题的规范分析,宜交由现行法具体规则来处理。举例来说,人工智能知识创造符合了作品要求,即可将人工智能视为主体,而不考虑对其进行智能测试。与之类似,在人工智能致害的情况下,只要人工智能自主决定所致损害不能由产品责任调整,即可类推适用雇主责任,将该责任归属于主体。只不过,在人工智能致害的责任承担上,应结合其自身状况,课以其检测或修复其自身状况的责任。这一主张的实定法依据是《民法总则》第179条的“消除危险”,即只要是机器人便应予以检测。其哲学基础则是阿西莫夫三法则,机器人不能拒绝。*阿西莫夫三原则是指任何机器人都必须遵循三条定律:第一,机器人不能伤害人类;第二,机器人必须执行命令,而同时又不能伤及人类;最三,机器人必须保护自己不受伤害。当机器人不能承担责任时,可以类推适用第34条第1款的规定,用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任。
3. 开放体系的实践价值
将法律对于人工智能的调整设计为一个开放结构,可以回应人类在机器人法律主体地位的讨论中主要的关注点:首先,有利于解决人工智能致害的损害分担问题。2017年7月,“全球AI对话系列”(Global AI Dialogue Series)列出了全球AI 20条优先研究问题列表,法律框架首要问题即是与AI系统有关的责任权问题。而开放的结构有助于这些实际问题的解决,为未来人工智能的发展预留空间。其次,有助于增强对于机器人的关怀。目前,韩国已经提出制定《机器人基本法案》,该草案第2条即规定,政府应制定政策,赋予机器人具有相应权利义务的电子人格地位,确定机器人导致的损害的责任和赔偿方案。机器人的设计者、制造商和用户应该遵守机器人伦理。在特殊情形下,将人工智能视为主体,有助于提升对于人工智能的伦理关怀。
五、结语
相较于技术进步,法律的调整是滞后的。法律对于以基因技术和网络发展为代表的技术发展的非及时调整已经证明这一观点。因此,法律对于人工智能的调整,应秉持不介入技术黑箱的原则,建构开放体系。人工智能主体地位的赋予仅是法律政策的考虑,而非逻辑的必然选择。因此,法律可有条件地承认人工智能的主体资格,将特定情形下的人工智能视为民事主体。这种开放的立法结构体系,为司法机关因应技术之发展预留了空间。当人工智能具备智能(自主)之时,司法机关可以对拟制的情况进行统括解释,将人工智能认定为民事主体。