论人工智能侵权中责任主体的认定与责任规制路径
2023-01-02蔡雨恬
蔡雨恬
(华东政法大学法律学院,上海 201100)
1 问题的提出
随着新一轮产业革命的到来,人工智能逐渐深入人们生活中的方方面面。自动驾驶、城市大脑、智慧医疗、智慧教育等各领域的产业化落地案例逐渐增多,更凸显了人工智能在推动经济社会发展方面所发挥的重要驱动力。例如,近年来,自动驾驶汽车成为人工智能领域的热点话题:2020年12月16日,天津市首条采用GOA4级全自动运行的无人驾驶地铁线路开始施工[1]。2021年11月25日,北京正式开放国内首个自动驾驶出行服务商业化试点,百度Apollo和小马智行成为首批获许开展商业化试点服务的企业。这标志着国内自动驾驶领域从测试示范迈入商业化试点探索新阶段[2]。2022年4月28日,北京又正式发布了《北京市智能网联汽车政策先行区乘用车无人化道路测试与示范应用管理实施细则(试行)》,在国内首开乘用车无人化运营试点。2022年8月1日,《深圳经济特区智能网联汽车管理条例》开始施行,该条例明确规定“完全自动驾驶的智能网联汽车可以不具有人工驾驶模式和相应装置,可以不配备驾驶人。但是,无驾驶人的完全自动驾驶智能网联汽车只能在市公安机关交通管理部门划定的区域、路段行驶”……
目前,人工智能技术逐渐广泛运用于人类的日常生活中,我们不可避免地遇到各类涉及人工智能的侵权案件,例如,2016年的深圳高交会机器人伤人事件[3],虽然事后查明机器人失控的真相为人类操作不当,但关于“机器人具备一定的杀伤力”的猜测也引发了网民的热议。而在自动驾驶汽车领域,相关的侵权案件更是层出不穷,例如2018年3月18日在美国亚利桑那州发生Uber自动驾驶汽车撞人致死案[4]。不难看出,作为开发人工智能技术的人类,一方面享受着人工智能创造的便利条件,另一方面也承受着它可能带来的风险。而伴随这些侵权案件一同出现的,是关乎人类利益,关乎法律理论与逻辑的一个难题,即:面对类似案件时,应当如何对侵权主体及其应承担的责任进行规制。
本文将从人工智能的定义出发,概述人工智能产品的特殊性以及认定该特殊性的意义;基于此种特殊性,再对人工智能侵权的案件进行分类,分别分析不同类型的侵权案件中可能存在的主体认定的困境,尤其针对具有人工智能特殊性的侵权案件进行人工智能非主体地位的论证;最后针对这些难题,分别提出相应的规制路径。
2 人工智能概述
2.1 人工智能的概念
“人工智能”这个概念最早出现在1956年在美国达特茅斯大学召开的研讨会,约翰·麦卡锡、马文·闵斯基、克劳德·香农、艾伦·纽厄尔、赫伯特·西蒙等科学家聚在一起,讨论用机器来模仿人类学习以及其他方面的智能。该研讨会足足开了两个月的时间,虽然大家没有达成普遍的共识,但是却为会议讨论的内容起了一个名字:人工智能。最初,约翰·麦卡锡给“人工智能”下的定义是“制造智能机器的科学与工程”。而经过几十年的发展,有人认为,人工智能的范围不再局限于制造“智能机” (intelligence machine),它更像是让机器模拟人脑自主学习,更确切的说,是一个制造“机器人”①(robot)的过程[5]。
随着科学技术的发展,人工智能也日益成熟。笔者认为,人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的技术科学,旨在了解智能的实质,并生产出新的能与人类智能相似的方式作出反应的智能机器。人工智能的研究领域包括智能机器人、语言识别、图像识别、自然语言处理、问题解决和演绎推理、学习和归纳过程、知识表征和专家系统等。
2.2 人工智能的分类
从发展程度的角度,人工智能可以分为三种类型:弱人工智能、强人工智能、超级人工智能[6]。事实上,真正能体现人工智能产品特点的应当是所谓的强人工智能、超级人工智能,即能够像人类一样完成智力型任务,甚至在有些方面超过人类,并拥有自己的认知状态和“心灵”[7]。
2.3 人工智能产品的分类
在借鉴人工智能分类的基础上,可以把人工智能产品分为两类:
第一类是工具型人工智能产品,即所谓的弱人工智能产品,现实中所出现的人工智能产品,绝大部分都是弱人工智能产品,如智能手环、苹果公司开发的Siri、扫地机器人等。
第二类是认知型人工智能产品,此种产品不再是一个简单的工具,而是具有“自主认知性”②。
2.4 人工智能产品和普通产品的区别
在将人工智能产品分为工具型和认知型的基础上,人工智能产品和普通产品有以下区别。
第一,工具型人工智能产品本质上和普通产品并无区别,在功能上和性质上,两者都高度相似,都属于“他人设计、生产出来的产品”[8]。因此,在涉及侵权责任认定时,大多数做法是直接适用侵权责任法中产品责任的相关规定,即对产品的制造者以及销售者适用无过错责任,在举证责任上,由产品制造者和销售者对免责事由承担举证证明责任。
第二,认知型人工智能产品并非简单的工具和人体的延伸,它具备某种程度的“认知力”,此时就会涉及与“认知力”相关的问题,例如是否应当承认认知型人工智能产品的民事主体地位,以及其他侵权责任主体的认定问题。
3 人工智能侵权案件主体认定的困境
在界定人工智能侵权案件的主体之前,还必须先完成一项工作,即对人工智能侵权案件进行分类。不同类型的侵权案件对应着各自主体认定的难题。
3.1 人工智能侵权案件的分类
有学者认为,人工智能侵权案件可以分为两种:由质量问题引发的人工智能侵权;使用不当引发的人工智能侵权[9]。这两种类型的侵权案件的共同点在于,它们都是在对人工智能“非主体化”的前提下,依据引起侵权的原因进行划分,由此,可以分别通过适用产品责任、过错责任进行规制。
然而,这种分类模式不能很好地反映出人工智能的特殊性,即拥有一定自主学习和认知能力的特征。因此,可以考虑根据人工智能产品的分类,将人工智能类侵权案件分为“一般侵权案件”和“特殊侵权案件”。
“一般侵权案件”,既包括质量问题引发的侵权,也包括使用不当引发的侵权。“特殊侵权案件”,即人工智能在自主学习的过程中,自行引发的,属于设计者非可预见的风险范围内的侵权案件。
3.2 一般侵权案件中侵权主体认定的难题
对于质量问题引发的侵权,此类情形下的人工智能产品为“工具型人工智能”,属于现代信息技术支持下人类智慧的结晶,本质上属于一种高科技产品[10],因此能够直接被纳入侵权责任法中产品责任的范畴。也就是说,如果适用产品责任的一般规定,那么仅涉及“生产者”和“销售者”的责任。但是,人工智能产品毕竟属于高科技产品,其生产者往往包括相对独立的设计者和制造者,所以在确认人工智能产品的质量引发侵权行为之后,还需进一步明确究竟是单纯因为制造的质量不合格,还是因为设计上的不合理。然而,如何在设计者和制造者之间进行责任分配,在现行法律中尚无明确规定。
对于使用不当引发的侵权,实际上并不属于单纯的人工智能侵权,因为在导致侵权的过程中,明显有相关操作人员(自然人)的介入,而侵权者实际上就是人工智能产品的使用者,也能够直接适用侵权责任法中的相关规定。因此,这种情形的人工智能侵权,不在本文的讨论范围之内。
3.3 特殊侵权案件中涉及侵权责任承担的难题
3.3.1 特殊性侵权案件中的人工智能是否具备主体地位
如果说人工智能的一般侵权案件基本能通过适用侵权责任法中的相关规定进行规制,在判断真正责任人时,已经能够确定大致的主体范围,只不过有可能会在“制造者”和“设计者”之间徘徊不定,存在瑕疵;那么在人工智能的特殊侵权案件中,这种瑕疵被明显放大了,责任主体的范围难以确定。具体来说,就是是否承认认知型人工智能的民事主体地位的问题。
3.3.2 特殊侵权案件中人工智能的非主体地位
学术界关于特殊侵权案件中人工智能是否具有主体地位的讨论可以形成三派:否定说、肯定说、折中说。否定说认为,即便是有自主认知能力的人工智能,只能在少数层面协助人类的社会活动,而难以从根本上改变人类在社会活动中的主导地位,因为它不是人类,而是人造机器。肯定说提出一种“法律人格拟制”的方法,借此让智能机器人享有法律关系上的主体资格,使之参与人类的社会生活[11]。折中说提出所谓的“电子人格说”③,认为基于折中特殊性,应当在一定范围内承认认知型人工智能的法律人格。笔者认为,宜采取否定说,不承认认知型人工智能的民事主体地位。
根据判断事物性质的一般逻辑,如果我们要承认另一类物种成为民事法律关系的主体,首先就应当将其和常规的民事主体(通常为自然人)进行对比,根据比较的结果判断其是否应当具备民事主体地位。对此,杨立新教授从自然人人格的三个构成要素出发[12],分别对比三个方面:生物学要素中的人类基因、人体、人脑,心理学要素中为人所拥有的独立意志,以及社会学要素中的互动且独立的社会角色。最后比较得出,人工智能首先不具有人体和人脑的要素,其次认知型人工智能可以在一定程度上拥有独立意志的要素,最后承认随着科技的发展,人工智能也会具备互动且独立的社会角色。虽然最后杨立新教授认为应当把人工智能认定为“人工类人格”,但归根结底,“人工类人格”依然不是人格,不具备民事主体地位,因此不可能享有民事主体的权利与义务,更毋庸论及独立承担民事法律责任。
退一万步来讲,就算认可其主体地位,这对于研究侵权责任的具体承担也没有实质意义,因为在发生一个侵权行为时,我们没有理由仅对引起这个侵权结果发生的机器人施加诸如“销毁”之类的惩罚,而直接免去机器人身后的实际控制者或设计者等自然人的责任,那么既然无论是机器人,还是与之相关的自然人,都要承担侵权责任,那么为什么还要以违背法理和逻辑为代价去认可人工智能的主体地位呢?
当然,除了通过比较三大人格要素,持肯定说的学者还认为可以从“法律面前人人平等”的基本原则、社会关系稳定的现实需要、侵权纠纷的诉讼目标、技术可能性等方面进行逻辑分析[13]。但这些思路与前述三大要素的思路相比,更易被反对方找到漏洞,鉴于篇幅限制,在此不做过多说明。
3.3.3 认知型人工智能非主体地位造就的难题
如前文所述,认知型人工智能不具备民事主体地位,也不能作为一个独立的侵权主体去承担责任。因此,特殊性侵权案件的责任人应该是人工智能背后的自然人或组织。
需要特别注意的是,此时不能和一般性侵权案件中的质量问题一样简单适用产品责任、无过错责任。不同于一般性侵权案件,在此种特殊性侵权案件中,认知型人工智能在一定程度上具有能和人类相提并论的认知和学习能力,对于设计者和制造者而言,可能存在一个非人力所能预料和控制的风险,而这种风险的来源就是认知型人工智能强大的自我意志。因此,自然人是否需要像产品责任中的责任人一样承担无过错责任,是一个道德和法律双重视域下的难题,这就是特殊性侵权案件中存在的问题。
4 人工智能侵权责任主体的规制路径探析
通过上述对人工智能侵权主体认定及责任承担中的问题分析,以及人工智能不具备民事主体地位的论证,我们不难发现,首先,无论是工具型人工智能还是认知型人工智能,都不具备民事主体地位,更不能独立承担侵权责任。其次,两者最大的区别在于,在一般侵权案件中,基本能适用现有产品责任与侵权责任框架,要求生产者承担产品责任或由用户承担侵权责任[14];在特殊侵权案件中,虽然也属于产品责任,但在主体的可归责性上,考虑到人工智能的认知和学习能力,不应对人工智能无过错责任全盘接受。
4.1 一般侵权案件中主体认定的规制路径分析
在一般侵权案件中,涉及侵权的是工具型人工智能,此点在前文中已有提及。需要特别说明的是,一般性往往寓于特殊性之中,因此,一般侵权案件中的规制路径同样适用于特殊侵权案件。
一般侵权案件主要由人工智能产品的质量问题引起,并且基于产品属性,在此类案件的解决过程中,首先应当考虑的是我国法律体系中规定的产品责任。《中华人民共和国民法典》第一千二百零二条至第一千二百零七条规定了所谓的“产品责任”,其中,第一千二百零二条所称产品责任,指产品存在缺陷发生侵权,造成他人损害,生产者应当承担责任,其中的“缺陷”即指产品质量达到危害人民生命和财产安全的程度,此时生产者责任为无过错责任④;第一千二百零三条紧接着规定产品的生产者和销售者的不真正连带责任⑤;第一千二百零四条涉及的是由运输者、仓储者等第三人的过错导致侵权的不真正连带责任⑥。
而随着人工智能侵权案件的出现,设计者的地位得到了凸显,人工智能作出的行为选择所依据的程序及方案都是由设计者完成的,对制造者而言,仅仅依据设计者的要求制造出人工智能这一特殊产品。在比较法上,也有立法及实务观点认为设计者应当承担侵权责任。例如,在立法上,《美国侵权法第三次重述:产品责任》中对设计者所存在的设计缺陷的判断标准进行了修改,这说明设计者责任在产品责任中具备较为重要的地位[15];韩国的《机器人基本法案》也在其“机器人伦理规范”这一章节中对机器人设计者需要遵守的伦理原则作出了规定。在实务中,1984年,美国空军起诉“韦伯飞机公司”,2001年Air Evex航空公司与塞斯纳飞机公司相撞等案件中,法院均判定设计者须承担相应的责任。我国《建设工程质量管理条例》 第三条明确将设计单位纳入工程质量的责任主体范畴,并在第二十四条规定了“设计单位应当参与建设工程质量事故分析,并对因设计造成的质量事故,提出相应的技术处理方案。”《最高人民法院关于审理人身损害赔偿案件适用法律若干问题的解释》第十六条第二款明确规定“因设计、施工缺陷造成损害的,由所有人、管理人与设计、施工者承担连带责任”。这说明,设计者责任有一定的解释空间,但《中华人民共和国民法典》并没有将产品的设计者列为无过错责任的承担主体,这当然受最初立法时社会背景的影响,可是,如果工具型人工智能产品因为设计上有缺陷危害消费者的人身安全,按照现行法律法规,我们也只能认为产品的设计者属于第一千二百零四条中的“第三人”,让设计者按照其过错承担责任。因此,在涉及责任承担的主体上,产品的制造者和设计者应当有所区分,笔者认为,可以选择以下两条路径。
第一条路径,在将来订立司法解释时,对《中华人民共和国民法典》第一千二百零二条的“生产者”进行扩大解释,即包括人工智能产品的设计者,但是不能被扩大解释为包括所有类型产品的设计者,因为我们不能指望一个毫无过错的自行车的设计者为生产过程中的生产问题担责。第二条路径,可以考虑直接对《中华人民共和国民法典》第一千二百零二条的条文进行增补,构建具体人工智能侵权责任主体识别程序,具体而言,在区分设计者责任和制造者责任时,在设计者不能提供证据证明相关人工智能的侵权行为是由制造质量问题导致的情况下,应将人工智能的设计者归于侵权责任主体。
4.2 特殊侵权案件中的责任主体及规制路径分析
第一,须要予以说明的是,本文认为不应承认特殊侵权案件中的认知型人工智能的侵权主体地位。第二,特殊侵权案件是否也应当适用产品责任中的无过错责任来进行规制。第三,在特殊类型的侵权案件中,产品设计者的责任也应和一般性侵权一样予以补充。除此之外,科技的发展让人工智能完全独立自主成为可能,而这也使得社会上潜在的消费者和使用者可能处于更大的人身伤害和财产损失的风险之中。因此,除了产品设计者责任,是否还需要补充其他的责任主体,提供更多可能的救济途径。本小节主要对上述提及的第二、三点进行简要说明。
4.2.1 重新构建人工智能侵权的归责原则
普通的产品责任由侵权行为、危害结果、因果关系构成,产品的生产者和销售者承担无过错责任,按照“谁主张、谁举证”的原则,由被侵权人对产品缺陷、损害结果、因果关系承担证明责任,而根据《中华人民共和国产品质量法》第四十一条,生产者和销售者对免责事由承担举证证明责任⑦。
由于具备认知能力的人工智能产品的特殊性,传统产品责任中的无过错受到了挑战,这种挑战具体表现为两方面:其一,对人工智能系统层面缺陷的证明变得更为复杂;其二,事故的发生可能无法合理归因于人工智能的制造者或设计者[16],此时就需要对既有产品归责原则能否在制造者、设计者和消费者之间实现利益权衡进行审视。对此,有反对者认为人们根本无须为尚未出现的情形做无谓的担忧,认为人工智能打破设定的程序而进行自主“思考”,依然属于设计者理应承担的责任。但本文则认为应当考虑人工智能自主思考的可能性,法律是具备可预见性的,因此我们不能因为某种情形尚不具备可能性,而认为对人工智能侵权归责原则的反思没有客观事实依据。如果简单适用普通产品责任中的无过错原则,即便生产者、设计者等责任主体有免责事由的举证责任,但责任主体以尚且不能发现缺陷为由主张抗辩是非常不容易的[17],也就是说,在连设计者都无法预料到的损害后果的情形中,把责任全部推给设计者、生产者,并不利于贯彻风险分配的原则。反向思考,倘若完全不考虑设计者对于损害后果是否具有可预见性,而完全以结果为导向,只要出现损害后果,生产者与设计者均需承担侵权责任,那么生产、设计者的创造积极性是否还能维持下去?这些反向思考的情形都是需要被纳入考量的。
因此,在承认设计者责任的前提下,通过利益权衡,本文认为,需要对责任主体承担责任的归责原则及举证责任进行改善。具体而言,可以将过错推定适用于特殊型人工智能侵权案件,由责任主体对其不存在过错承担举证证明责任。一方面,受侵害者依然无须为设计者、生产者等人是否存在过错承担证明责任;另一方面,不同于无过错责任中在对不幸损害进行合理分配,过错推定作为过错责任中的一种特殊情形,具有一般民事责任的教育、惩罚性质,也加大了加害人的注意义务。当然,此时会存在一种质疑,即在设计者、生产者、销售者等人都不具有可预见性与可谴责性时,受侵害人事实上的确因为不可归责于其自身的原因受到了损害,此时要如何对受侵害人进行救济?本文将对此进行说明。
4.2.2 构建人工智能开发企业的社会责任
所谓企业社会责任,指企业在创造经济价值的时候,不仅需要承担对股东、员工和消费者的责任,还要承担对社会安全和生态环境的责任[18]。而对于人工智能开发企业来说,此种社会责任还应当具体到服务人类、保障基本人权、维护数据安全和用户隐私、保障算法的可操性及可控性等方面。因此,应当明确人工智能开发企业社会责任规制的具体方案,此种责任的性质非侵权责任,但一定程度上能填补侵权责任的缺口,同时也满足公平原则的要求。一方面,于受损害者而言,能够得到相应的救济;另一方面,于无过失的开发企业而言,又能不损害其企业形象。首先,应当将伦理道德的考量纳入人工智能开发企业的社会责任框架之中,促使人工智能开发企业积极采取措施,对受到侵害的消费者主动承担伦理道德责任[19]。其次,应当强化人工智能开发企业对于研究开发产品的约束责任,例如强化其自身开发的可持续性,并对其不符合可持续发展的行为进行处罚,引导其进行规范、合理的研发活动。最后,应当明确人工智能开发企业的信息披露义务,例如企业应当对其生产、开发新产品过程中可预见的风险以及现有的非专利性的研究成果进行公开披露,并且对于已经投入社会使用的产品,可以通过收集用户投诉等信息,对缺陷产品存在的问题进行反馈,并建立公示渠道予以公开,或是通过产品的召回,向社会释放相关产品存在缺陷的信号,从而履行其信息披露义务。
4.2.3 增加其他侵权责任主体的可行性
如前文所述,如果受侵害人和生产者、设计者、销售者都不存在可谴责性,还能如何对受侵害人提供救济呢?本文认为,可以在除上文提到的设计者之外,再考虑增加以下其他主体作为责任承担者。
首先,法律应当设置责任强制保险制度,出于鼓励消费的目的,应当把保险责任分配给生产者、设计者、销售者。其次,对人工智能产品的生产进行监管审批,一方面可以保障最终面向生产者的产品的质量,另一方面将监管者纳入责任主体范围,通过审批的人工智能产品一旦发生侵权,那么监管者也应当承担连带责任。
5 结论
处理人工智能侵权案件,首先要识别侵权责任主体,明确无论是何种类型的人工智能都不能作为独立的民事主体承担侵权责任。在人工智能发生侵权责任的领域,现有的法律规定难以确保各方利益平衡。因此,需要对现行法律体系中的产品责任进行改进,增加设计者作为责任主体,并且针对特殊类型的侵权案件,还需要考虑重新构建归责原则,重视企业的社会责任,并考虑设立强制保险制度以及增加监管责任。笔者所提出的方案重在引起人们对人工智能侵权案件处理的关注,最终目的是在为受侵害人提供救济的同时,确保各方利益的平衡。
注释:
①《从人机关系到跨人际主体间关系——人工智能的定义和策略》一文中提到,“智能机”相当于人脑的延长和人的智力的放大,实际上与普通机器是人手足的延长并无两异,而“机器人”,若按照作者的划分,应当作狭义的理解,仅包括具有主动思考性质的机器人。
②这里的“自主认知性”,应当区别于仅人类所具有的思考认知能力,在很大程度上是指机器能够以主动搜集信息的方式储存信息,在机器内部进行模拟演算,最后使这些信息固定在系统中。
③“电子人格”是折中说的一个观点,具体体现在《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》《欧盟机器人民事法律规则》,以及欧盟委员会法律事务委员会提出的立法建议中。
④《中华人民共和国民法典》第一千二百零二条:“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。”
⑤《中华人民共和国民法典》第一千二百零三条:“因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。”
⑥《中华人民共和国民法典》第一千二百零四条:“因运输者、仓储者等第三人的过错使产品存在缺陷,造成他人损害的,产品的生产者、销售者赔偿后,有权向第三人追偿。”
⑦《中华人民共和国产品质量法》第四十一条:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。生产者能够证明有下列情形之一的,不承担赔偿责任:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。”