人工智能侵权责任保险制度的构建
2022-11-08夏利民王庆松
夏利民,王庆松
随着人工智能在交通、医疗、生产制造、金融乃至生活服务等各领域的广泛应用,其引发的侵权责任认定和承担问题备受关注。在人类使用人工智能过程中,由于智能机器或设备开发以及系统缺陷、人类错误操作、人类与操作系统之间的交接等方面的原因,可能发生各种事故致使对他人的人身或财产带来严重的损害。责任保险关注损害填补和责任转移,增强了人工智能产品生产者的赔付能力,为民事责任的分配和承担提供了新的思路和解决方案。因此,如何通过责任保险制度安排解决侵权救济并兼顾智能技术创新发展,成为需要深入探讨的重要问题。
根据我国《保险法》第65条,责任保险是以被保险人对第三者依法应负的赔偿责任为保险标的的保险。没有民事责任制度,就不会有转嫁责任风险的要求,也就没有投保责任保险的必要。责任保险人支付的一切赔偿都以侵权法确定致害人的责任为前提。因此,要构建人工智能侵权责任的保险制度,首先要厘清侵权责任的分配与承担。而厘清责任需要在对各方参与人权利、义务及责任全面考察的基础上,构建以受害人救济为主要功能的责任体系。人工智能侵权行为的法律连接点主要有两个:一是所有人或使用人;二是生产者或系统开发者。当人类的决定被人工智能的自主决定所替代时,人工智能自身需要对侵权行为承担责任,这就涉及独立法律人格问题。
人工智能侵权责任制度为相应责任保险制度提供了理论基础。但如果建立了以生产者为主的责任体系,对生产者课以过重的责任,则会影响其开发和推广人工智能新技术的积极性。而责任保险安排则有利于显著降低生产者经营成本,同时又具备及时、充分救济受害人的功能。不过,现有责任保险制度建立于非智能时代的法律背景之下。当前,很多人工智能机器或设备已属于强人工智能,其运行不再主要依赖人类操作者,而是能够独立做出决定,这意味着人类可能并不需要对其行为承担全部的责任。传统上,自动化机器或机动车等的责任保险的投保主体主要是所有人、使用人等,保险责任范围并未覆盖系统缺陷造成的损害;而对于自主化的人工智能,是否应将生产者(包括设计者,如系统另有他人开发)等的责任纳入责任主体体系,并设定强制投保义务等成为考虑重点。
当前,人工智能技术尚未成熟,责任保险制度的实施会增加保险公司的赔付费用,加重保险人的保险责任,进而增加投保人的保费负担,因此有必要建立保险人代位求偿权制度,赋予保险人向过错侵权人的代位求偿权。同时,在保险人追偿时确定具体的侵权责任,并通过保险人代位求偿制度将“过错”(特别是智能系统缺陷)举证责任压实给生产者、设计者,避免受害人救济赔偿的延迟。
一、人工智能侵权责任的分配与承担
从责任保险的法律关系来看,各方当事人之间存在两个独立的法律关系:保险关系与侵权责任关系。两种法律关系因人工智能的介入变得更为复杂。而责任保险以侵权人对受害人应负的侵权责任为保险标的,因此构建人工智能责任保险制度必须先厘清人工智能侵权的基础法律关系,进而完善侵权责任分配与承担规则。随着人工智能越来越普及,对涉及人工智能的事故或事件的责任进行分配将会变得越来越普遍。侵权责任法最重要的立法目的就是保护民事主体不受侵害及受到侵害时得到及时救济,因此,应将受害人救济作为完善人工智能侵权责任制度的首要考量因素,以此确定侵权责任分配与承担的各项规则。
(一)侵权责任主体的扩展
1.各侵权主体及其责任分配
人工智能致损的侵权责任涉及的法律主体主要有:所有人或使用人、生产者或开发者以及人工智能机器或设备自身。智能化背景下,这些主体的责任分配与承担发生了新的变化。
(1)所有人或使用人不再是主要的责任主体
现行侵权责任制度是以人类行为和决定为中心构建起来的,即机器的所有人或使用人是侵权责任承担者。但当人类将操作权交给智能系统后,人工智能就可以在独立于人类干预的情况下自主做出决定,这时再由所有人或使用人对侵权损害承担主要责任不尽合理。以智能驾驶为例,当驾驶权从人类转移到智能机器,在人类驾驶人不存在主观过错甚至身份转变为乘客的情况下,从智能驾驶行为的控制和利益的角度考虑,智能机器造成的损失不应归咎于所有人或使用人。此时,所有人或使用人只是在少数特定情形下,因不当行为造成人工智能发生事故时才会承担侵权责任。英国2018年实施的《自动与电动汽车法案》(The Automated and Electric Vehicles Bill,AEV法案)规定,如果被保险人(车主)或被保险人知情的情况下(一般是司机)未经授权对机动车软件系统进行更改或未更新对机动车安全至关重要的软件而导致交通事故发生的,被保险人应当承担事故的责任。
(2)生产者、设计者或销售者因产品缺陷承担责任
人工智能在没有发生系统程序故障的情况下,也同样可能发生事故导致损害,这时并不能认定人工智能存在产品责任,因为产品在生产、销售和使用的各个环节中均可能遭受毁损。只有在损害事故归因于软件系统时,才可将人工智能机器或设备看成产品,从而适用产品责任,即当涉及人工智能的事故是由于产品缺陷造成的,相应责任才会被分配给生产者、设计者、销售者等。智能系统的缺陷可能是设计缺陷、制造缺陷或警示缺陷。
因此,在智能系统下自主运行时,其因系统缺陷造成损害的责任应当由所有人、使用人之外的其他主体替代承担,其中,产品的生产者是主要的责任承担者。当前,主张主要由人工智能生产者承担侵权责任已渐成主流观点。当人工智能产品存在设计缺陷,而开发设计另有他人时,设计者应承担相应的侵权责任。如果在产品流通的某个环节造成了毁损导致智能系统缺陷,则可能需要由销售者承担相应的责任。对于受害人来说,由于很难证明智能系统是否存在缺陷,为及时得到救济应对此侵权损害实行无过错责任。但如责任过重,也会阻碍生产者发展人工智能的积极性。为此,必须有保险制度帮助生产者承担产品风险。
(3)人工智能本身在具备主体资格的情形下承担责任
在人工智能正常运行的情况下,人类只是一个启动或终止运行的角色。当人工智能独立于人类自主做出决定时,如果损害的发生不能归责于人工智能之外的原因,同时人工智能产品也不存在缺陷,那么赋予人工智能法律人格,让其为自己的侵权行为承担责任就是最好的选择。此时人工智能成为侵权责任主体,但这引发了关于人工智能主体资格的质疑。
2.人工智能的法律主体资格
人工智能的法律主体资格即法律人格是近年来颇具争议的话题。随着强人工智能的逐步推广与普及,“主体论”的呼声也越来越高。
(1)人工智能法律人格的证成
关于人工智能法律人格,总体上有“主体论”和“客体论”两种观点,争论的焦点在于它是法律关系的主体还是客体。需注意的是,争论只发生在强人工智能背景下。在弱人工智能时代,人工智能只是法律关系中的“客体”。根据民法的基本原理,意思表示是法律行为的核心要素。强人工智能不依赖人类即可做出相对独立的思考和行动,具备了独立意思表示能力。因此,有些学者提出了“主体论”。
首先,法律人格的适格性以人工智能功能的复杂性为前提,其要具备独立学习、思考和决策的能力。因此,“主体论”和“客体论”将争议聚焦于“意思表示”,但是,意思表示是法律行为的成立要件,并非法律人格的前提。法律人格由国家通过法律规定或认可。如果从“法人”人格赋予的法理推论,是否具有独立意思表示能力并不影响“拟制”人格的确定,法人是拟制的,其意思表示借助一定自然人(如法定代表人)完成。同理,人工智能自身能否独立意思表示,并不影响法律对其赋予拟制人格。此外,意思表示方式只是形式问题,而非实质要件,应容许不同于自然人的“意思表示”方式。其次,法律人格的正当性以简化人工智能参与法律关系的复杂性为必要,这是法律人格的实践意义。当初,赋予“法人”或“其他组织”以拟制人格,确实简化了法律关系以及法律行为涉及的权利、义务和责任分配问题。主体论充分评估了人工智能自我意识的独立性,充分考虑了人工智能未来发展对法律人格体系的冲击,预留了法律对未来社会关系的复杂性、虚拟性以足够的调整空间。但将人工智能纳入法律主体体系面临的最大问题是,法人是由背后的代理人或代表人为意思表示,而人工智能却在试图“摆脱人类的控制”。同时,一旦赋予人工智能以法律人格,即意味其具备独立承担法律责任的能力,这就必然涉及财产归属,或通过其他途径(如保险)解决其赔偿责任的能力问题。
实践中,在当前及今后相当长的一段时间内,各种技术等级的人工智能仍会并存。因此,笔者以为,应以德国学者萨维尼的拟制人格说作为人工智能法律人格的法理基础,从社会现实性和规制必要性出发,对法律人格认定实行“双轨制”:对弱人工智能不赋予法律人格,而对经过依法严格认定的强人工智能赋予主体资格。
(2)人工智能法律人格的认定
赋予人工智能法律人格会带来一系列法律后果,因此,人工智能法律人格的适格性要经过权威部门的严格认定,包括技术适格性和专业适格性,即“双重许可”。
首先,人工智能的技术适格性意味着不仅要达到一定的智能化程度,而且还要具有物理意义上的“独立性”,一般来说应当是具有一定外在形体的智能设备,而不只是附着于互联网的某一或若干碎片化的功能。人工智能在技术上的智能化程度和独立、完整性应由技术部门(如科技部、工信部等)认定并进行登记注册,生成专属编号,对其功能、用途及性能做出精确说明。其次,人工智能的专业适格性是其行业准入标准,应由行业监管部门(如银保监会)或委托的机构认定并颁发许可证书,取得特定经营资格。人工智能不仅要具备能独立完成分析、判断和决策的能力,还应考虑特定领域的法律伦理及法技术性。如人工智能用于保险领域,就要内嵌相应的功能程序,使其能秉持保险法所特有的法律伦理,避免逆向选择和道德风险,坚持最大诚信、损失补偿、近因、保险利益等基本原则,以及由此衍生的特定主体告知义务、说明义务等所主导的具体规则,推进人工智能以最大善意订立保险合同。
(二)人工智能侵权的归责原则
无论是强人工智能还是弱人工智能,实际上都很难甚至无法探寻其在侵权关系中是否具有过错。同时,为了给受害人以及时、充分、有效的救济,特别是在遭受严重人身伤害时,应以无过错责任为宜。对于弱人工智能来说,智能机器人系统存在的瑕疵(缺陷)造成他人权益的损害,可根据产品责任予以追责。而产品责任属于无过错责任,只要产品存在缺陷,生产者或销售者就应当承担侵权责任,而无须证明其存在过错。对于强人工智能来说,即便其具有独立意识,通过自主的决定为一定的行为,但其依然需要依靠人来生产、制造方能得以存在,设计者、生产者所设定之目的对其后续自主性有决定性的影响。若设计者、生产者出于善意设计、制造的智能机器人侵犯了他人的权益,他人无须证明智能机器人过错与否,也应以“无过错责任”对智能机器人予以归责。
(三)人工智能侵权责任的承担
基于上述分析,受害人可基于产品责任和替代责任追究人工智能的侵权责任,所有人或使用人仅在少数特定情形下承担侵权责任。其实,强、弱人工智能均为智能化的“产品”,都可追究其产品责任,但是前提条件是存在缺陷。智能系统在设计或制造上是否存在缺陷,由生产者及设计者承担举证责任,可这通常又很难做到,但因实行的是“无过错责任原则”,因此不影响受害人及时得到赔偿。这也是责任保险制度发挥作用的优势所在。通过责任保险赔付受害人,避免了因责任认定导致诉讼拖延而影响救济的及时性。如“产品”并不存在缺陷,则可依据替代责任规则,追究人工智能的侵权责任。强、弱人工智能在主体性上的差异导致二者在承担责任上存在差异:强人工智能具有主体资格,可直接承担侵权责任,但最终由智能系统的生产者、设计者承担;弱人工智能不具有主体资格,其责任直接由智能系统的生产者、设计者承担。赋予强人工智能以拟制的法律人格,可以将运行过程中产生的相关智力成果和大量数据财产归属于人工智能,形成特有的财产权利体系,并以此承担侵权责任,增强其法律责任能力。这一点在智能化、数据化的背景下具有重要的法律意义。
首先,人工智能模拟人脑运作,可以自我创建超出预设程序以外的智力成果,产生具有一定财产价值的知识产权,主要包括专利权、商业秘密、商标权、著作权等。但将其归属于人工智能本身应有一定的前提条件,即应根据智力成果对人类输入的依赖性程度来判断。只有当人工智能成为“创造性主体”,且直接承担了创造性工作,代替人类成为独创性成分的主要乃至全部来源的情况下,其创作物才能归属于人工智能。否则,即便在主体论下,如其智力成果主要依赖人类输入生成,仍不应归属于人工智能。关于这些知识产权归属,笔者主张借鉴职务作品相关规则并加以扩展,将知识产权直接归属于人工智能并由所有人或使用人代位管理。
其次,人工智能运行的基础是海量数据收集与处理,这正是人工智能主要功能及技术的优势所在。同时,其在运行过程中,还会积累、储存甚至加工形成大量的数据。在可复制性、稀缺性、真实性和价值的不确定性基础上,数据资源的基本特性基本满足了作为财产权利客体的重要特性。我国《民法典》第127条确认了数据财产权:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”但“数据”权利边界、该权利与人工智能归属和控制权之间的关系等仍有待明确。
二、人工智能侵权责任保险安排及投保、赔偿规则
人工智能侵权责任制度通过将侵权责任分配与承担的重心转移给生产者,从而能给受害人以及时、充分和有效的救济。但这继而带来一个不可忽视的问题,即高昂的赔偿成本可能会阻碍生产者对人工智能的研发及制造。若对人工智能实行责任保险制度,通过一个较低额度的保费支出将责任风险转移给保险人承担,则可大大降低这种经济成本,解决现有民事责任承担不足的问题。因此,责任保险制度的设计除了救济功能外,还要考虑生产者的责任风险的降低与转移。鉴于人工智能的高风险特征,对于生产者责任宜采取强制保险,而对于其他主体则可以商业保险形式予以辅助。
(一)人工智能不同责任保险模式的优劣
人工智能作为一种高科技产物,给人类的生产、生活带来了不可预测的风险,将人工智能纳入强制责任保险范畴非常必要。近年来,我国多地对自动驾驶车辆道路测试建立了强制责任保险。但是,在具体采取哪种保险模式上存在不同观点。
1.“双轨制”模式
人工智能与传统机器不同,它拥有相对自主权和更高的智能水平,因此所有人或使用人的法律责任与生产者、设计者的法律责任,在性质及范围上都不相同。前者属于对第三者的侵权责任,后者则属于产品责任的范畴。因此,可分别投保不同形态的责任保险,即前者投保智能机器事故责任保险,后者投保智能机器产品责任保险,建立“双轨制”的保险模式。以自动驾驶为例:与自动驾驶汽车自身部件如传感器、摄像头、雷达、控制器等设备相关的事项,由生产者投保;因未尽到严格的检查、维修义务或未按法律规定使用汽车等原因造成的交通事故,由汽车所有者投保。
2.“单一制”模式
随着人工智能技术发展和应用升级,所有人或使用人角色逐渐发生变化,不同类型的保险出现统一化趋势。在保险制度的辅助下,自动驾驶领域的产品责任和机动车保有人(所有人)责任存在合并为制造商无过错责任的可能,而不再考虑产品缺陷的认定问题。英国AEV 法案采用了“单一保险模式”(A Single Insurer Model),使得汽车保险同时涵盖了人类驾驶员驾驶汽车的行为以及车辆自主行驶导致的损失。
3.区分实行“双轨制”或“单一制”模式
责任保险模式与智能技术研发与应用的程度密切相关。“单一制”适用于生产者与行为控制者同一或重叠的情形,“双轨制”适用于生产者与行为控制者区分的情形。也就是说,智能机器生产与智能服务分离的情形,“双轨制”具有优势;在智能机器生产与智能服务合一的情形下,“单一制”更具优势。笔者认为,在智能机器的控制权交由机器自身自主行使的情形下,人类操作者(即所有人或使用人)所应承担的责任与智能系统生产者所承担的责任并不在一个层面上。首先,既然智能机器由智能系统控制,此时责任承担者自然应指向生产者、设计者,所以生产者、设计者的责任是第一位的,因此总体上应取“单一制”强制保险模式。但是所有人或使用人并不能完全置身事外,在保险人已承担赔付责任的情况下,可再根据所有人或使用人对事故的发生是否有过错,来分析和认定其应否承担责任。即所有人或使用人在“单一制”保险模式下,可根据自身风险偏好决定是由自己承担赔偿责任,还是通过自愿投保商业责任保险将风险予以转移。
(二)人工智能投保义务的设定
根据“保险利益原则”,投保人应当是对保险标的具有保险利益的主体。就责任保险而言,保险利益主要是投保人依法对他人承担的赔偿责任。因此,人工智能投保人对其侵权责任进行投保。目前,各国对人工智能侵权损害均主张实行强制保险,因此投保人负有特定的投保义务,而对于商业责任保险,投保人则可根据自己分散和转移责任风险的需要决定是否投保。关于人工智能侵权损害的相关责任人对强制责任保险的投保义务的设定,以及对商业责任险的投保问题,主要存在以下情形:
1.所有人或使用人作为投保人
传统的机器或者弱人工智能设备的责任保险,都以所有人或使用人为投保人。如机动车保险,无论是交通事故责任强制保险(后简称“交强险”),还是商业第三者责任险,都由车主进行投保。但是对智能机器来说,主张由所有人或使用人投保的,主要有两种情形:
一是仍单独由所有人或使用人进行投保。有学者主张对于自动驾驶汽车,仍由所有人或管理人投保交强险。其认为,从交强险的设计原理看,投保义务人早已实现了与责任义务人的分离。交强险上存在“共同被保险人”的法律拟制,投保义务人只是“记名被保险人”,并不能简单地将交通事故责任主体认为是交强险的投保主体。
二是由所有人或使用人与生产者共同或分别进行投保。有学者主张让制造商为每一辆智能汽车的交强险支付一部分保费,从而将制造商纳入原本提供给车主/司机的汽车交通事故责任保险,成为额外的被保险人。也有学者主张分别针对所有人或使用人、生产制造商设计不同的责任保险,并由不同主体承担不同的投保义务。如此,一方面避免所有人或使用人承担过重的责任,另一方面也符合权责一致原则。其认为,在完全自动驾驶阶段,人类驾驶员不需要再接管汽车,风险主体发生转移,交通模式也发生颠覆性变革,因此可强制汽车生产者与所有人分别为自动驾驶汽车投保,前者投保汽车产品责任保险,后者投保交通事故责任保险。
2.生产者、设计者作为投保人
由生产者(包括设计者)作为强制责任保险的投保人,也存在两种情形:一是由生产者作为单独投保人。有学者认为,自动驾驶型道路交通事故侵权责任的分担以自动驾驶汽车的技术分级为前提,L4—L5 层级中智能系统完全取代了人类驾驶者,人类驾驶者无须承担任何注意义务。此时,可以将生产者作为交强险单独投保人。此种做法免除了车主投保交强险的义务,基于产品责任引发的事故由生产者单独承担责任。二是由生产者、设计者与所有人或使用人作为共同投保人。前已论及,不再赘述。但如果在生产者之外,人工智能另有设计者,则应由设计者对于可能存在的设计缺陷所造成的责任投保强制保险。
3.人工智能作为投保人
在人工智能取得主体资格的情况下,其作为投保人并没有法律上的障碍,如人工智能为所有人或管理人在网上购物,通过自己的判断勾选退货运费险等,此时人工智能是适格的投保人,应当认可其缔结保险合同的法律效力。但是,当对人工智能实行强制责任保险时,它可能并不一定能有效实施投保行为,此时其投保行为可由所有人或使用人,或者生产者代为行使。对此,笔者认为,可仍由生产者代为投保,但将“投保义务”归于人工智能自身。而且,在保险人履行赔偿义务后向人工智能追偿时,应首先以归属于人工智能的财产权(如知识产权、数据财产权等)作为第一位承担责任的基础财产。
综上,应建立统一由智能系统承担投保义务的强制责任险,这一义务由生产者承担,即便人工智能具有主体资格,因这一投保义务需要在人工智能投入实际应用之前完成。而所有人或使用人可就自己承担的侵权责任自愿投保商业第三者责任险,侵权责任涉及的过错行为包括未经授权更改软件或未及时更新软件,以及未尽必要的注意义务等。
(三)赔偿义务的分配
人工智能强制责任保险的赔偿建立在侵权人无过错责任的基础上,即只要在责任保险范围内的损害,保险人都有给付保险金的义务,而无须被保险人证明自己是否有过错。在强制保险之外,由侵权责任人或商业责任保险人承担赔偿责任。
1.保险责任限额的设定
责任保险的标的是法律责任风险,保险金额具有限额化特征,即投保人和保险人只能约定保险责任的最高限额即责任限额,而保险人给付均以合同约定的这一金额为限。强制责任保险与商业三者险有所不同的是,前者由法律法规设定统一的责任限额,保险人按统一标准收取确定金额的保费;而后者则由投保人与保险人协商确定责任限额,保险人按照最大赔偿责任限额计算保费标准。就人工智能侵权责任强制保险而言,保险人理赔不足的部分,即超出责任限额之上的部分,仍由相关责任人予以赔偿。
由于人工智能生产者是巨额利润的主要受益者,故由其承担第一位的投保义务,如系统另由第三方开发设计,则由该第三方承担系统相关的投保义务,生产商投保限额相应扣减。通过保险制度,生产者和设计者大大降低了自身的风险成本和责任负担,有利于促进智能产业的发展。强制保险期间要覆盖人工智能寿命,如10~15 年,一般应在投入使用前一次性投保。法律可设定一个累计的赔偿限额,高于强制保险责任限额的赔偿,仍由原有侵权责任人承担,或者在相关责任人投保的情况下,由商业责任保险人承担。
2.责任保险人给付的前提条件
关于责任保险人在何种情形下负有给付义务,有两种不同的观点:(1)当被保险人因致人损害行为而对第三人负有损害赔偿责任时,保险人即开始负给付保险金义务,即以被保险人是否对第三人负民事赔偿责任为标准,判断保险人是否负保险金给付义务。(2)被保险人事实上造成第三人损害,负有损害赔偿责任,而且第三人也向被保险人提出损害赔偿请求,保险人开始产生保险金给付义务。反之,即使被保险人事实上对受害人负有损害赔偿责任,只要受害人未提出损害赔偿请求,保险人也没有保险金给付义务。
笔者认为,责任保险人的给付义务产生于相关主体的民事责任,只要人工智能致损事故发生,相关当事人对事故的发生负有民事责任,保险人就产生保险金给付义务;而受害人提出赔偿请求,只是行使救济权利的具体行为,而不是实体权利产生的前提。因此,为了促进人工智能应用推广和救济受害人权利,强制责任保险制度应对人工智能所有人或使用人设定主动行使保险赔偿请求权的义务。
3.受害人的直接请求权问题
按照合同的相对性原则,受害人是责任保险合同之外的第三人,不能根据保险合同直接向保险人提出赔偿请求,只能向被保险人提出赔偿请求。但是,由于人工智能强制责任保险的被保险人通常是生产者,而此时智能机器或设备已经交由所有人或使用人,很难保证生产者能够积极配合保险理赔行为。因此,有必要明确赋予受害人向保险人的直接请求权。
我国现行《保险法》并未直接规定第三人的直接请求权,而是采取淡化合同相对性的方式,赋予受害人一种附条件的请求权。根据该法第65条,责任保险人根据被保险人的请求向受害人赔偿保险金,只有被保险人怠于请求的,受害人才能直接向保险人提出请求。甚至在强制责任保险中,也未直接规定受害人的直接请求权,如《机动车交通事故责任强制保险条例》第31条规定,保险公司可以向被保险人赔偿保险金,也可以直接向受害人赔偿保险金,这只是将直接赔偿对象的选择权交给了保险人而不是受害人。有学者主张,强制保险是对受害人最为有利的保护,受害人无须证明过错,可以直接向保险人请求赔偿,保险公司通常不会出现资力不足的问题。因此,出于人工智能强制保险的独特性和受害人救济的便利性考虑,应授予受害人以保险赔偿的直接请求权。
三、责任保险人代位求偿权行使规则的设置
保险人在向受害人履行给付义务后,如能对过错方行使代位求偿权,既可避免相关责任方对他人的不当行为承担责任,又有利于降低保险人的经营成本,继而由保险人通过降低保费支出将利益返还给投保人,同时提高生产者技术革新的积极性,推进人工智能技术的广泛应用,从而最终达成人工智能相关当事人利益的最大化。
(一)保险人代位求偿权的成立
1.代位求偿权的责任基础
人工智能责任保险的代位求偿制度以相应侵权责任制度为基础,即保险人代位求偿权要以各方主体侵权责任的分配和承担为基础。目前,已有多国针对人工智能建立了侵权责任的代位求偿制度,这为保险代位求偿制度提供了底层逻辑。以自动驾驶为例,车主承担赔偿责任后可再向有责任的第三方请求赔偿。根据德国2017年《道路交通法第八修正案》,自动驾驶系统发生故障造成事故的,车主向受害人赔偿后可向汽车生产者请求赔偿。类似的,根据英国AEV法案,车主对受害人做出赔付后,可以向事故责任人请求赔偿。如前所述,为了给受害人及时、充分的救济,免除受害人承担不适当的举证责任负担,人工智能侵权责任实行无过错责任,作为进一步转移责任风险的保险制度,自然也应当按照无过错原则进行赔付。即事故发生后,保险人按照“无过错责任原则”先赔付受害人,之后再向相关责任人追偿。
2.侵权人“过错”对代位求偿权的影响
保险人行使代位求偿权,是否以侵权责任人过错为前提条件是一个存在争议的问题。从保险法关于代位求偿权的传统观点来看,第三人的主观过错状态不影响保险代位权,只要被保险人对第三人的损害赔偿请求权成立,保险人的代位权就没有任何理由予以否定。但为避免责任过重影响人工智能的生产或消费,保险人追偿应坚持“过错责任原则”。分析机器人的过错行为是机器人创制者的技术漏洞导致智能系统瑕疵而致损,抑或是智能机器管理人的不当使用所致,以查找侵权主体构成并分担赔偿责任。过错责任原则既限制了保险人的追偿权,使保险人适当分担赔偿责任,也避免了过错侵权人逃脱法律责任,这也是代位求偿制度的重要社会功能之一。
但保险人在追究过错侵权责任时,无论是对于生产者、设计者在智能系统缺陷方面,还是对于所有人或使用人在擅自更改软件或未更新软件,或者在未尽必要注意义务方面,都难以证明其“过错”,因此保险人追偿应在“过错责任原则”之下追究相关责任人的过错推定责任。如在生产者无法证明自身不存在过错时,则推定其有过错,那么被侵权人无须证明生产者在设计、制造、指示和产品监督中未尽到注意义务。当生产者或设计者以及所有人或使用人能够证明自己不存在过错时,则免于承担相应的责任。因此,在投保了强制责任保险的情况下,相关责任人无须再承担无过错责任。
(二)保险人代位求偿对象的确定
根据我国《保险法》第60条,行使代位求偿权的对象是对保险标的造成损害、导致保险事故的第三人。因此,在人工智能侵权损害中,对损害发生有法律责任的当事人,保险人有权请求其赔偿。如前所述,在人工智能侵权损害方面,可能负有法律责任的主体主要包括:(1)所有人或使用人;(2)生产者及其智能系统的开发设计者;(3)人工智能自身。在人工智能侵权的情形下,可能成为求偿对象的主要是生产者和所有人,而这二者可能正是对自身责任风险进行投保的主体,这就引发了投保人能否成为代位求偿对象的争论。对此,有学者认为,我国法律并没有禁止保险人对投保人开展追偿。虽然投保人是保险合同的当事人,但如果确实造成了保险标的的损害,就可以构成代位求偿中的“第三人”。这一点对于人工智能侵权责任非常重要。在智能系统的操控下,人工智能所实施的行为,其法律责任的主要承担方就是生产者,而生产者恰恰就应当是相应责任保险的投保人。
除所有人或使用人、人工智能生产者可能成为代位求偿对象外,当智能系统被黑客攻击造成对第三人损害时,保险人进行赔付后,有权对实施侵权行为的黑客进行代位追偿。当然,在这种情形下,保险人找到承担责任的黑客,比认定生产者是否应对智能系统缺陷负有法律责任可能要更为艰难。
(三)保险人代位求偿权行使金额的限制
保险代位求偿制度是损失补偿原则的派生制度,其社会功能之一,就是防止被保险人不当得利。根据保险法上的损失补偿原则,被保险人不能因发生保险事故,获得保险人的赔付而获得额外的利益。而相应的,保险人也不应通过代位追偿获得额外的利益。因此,代位求偿的金额不得超过保险人给付的保险金。如果保险人从第三人处取得的赔偿金超出了其已支付的保险金,保险人应将超出部分返还。第三人也可基于不当得利要求其返还。
保险人代位求偿权的另一个金额限制是,相关责任人只在自身责任范围内向保险人给付追偿款,即尽管追偿对象对事故损害负有责任,保险人也可能难以追偿到其全部赔付支出。需要注意的是,人工智能在应用过程中产生的知识产权和数据财产,在人工智能取得法律人格的情形下应归属于人工智能自身,保险人先行赔付后,可在保险金范围内优先以这些财产利益实现自身追偿收益,作为财产管理人的所有人或使用人也有协助的义务。
此外,保险人在行使代位求偿权时,如果求偿对象为所有人或使用人,则其应配合保险人实现追偿权益;如果求偿对象为生产者,则所有人或使用人也应提供或配合保险人获取生产者有关情况或信息,以便于保险人行使代位求偿权。
四、结语
智能时代,应建立适应新的技术背景的强制责任保险制度,以弥补人工智能侵权责任分配和损害救济的缺陷与不足,使所有人或使用人、生产者及设计者、保险人等各方参与人之间的利益关系建立新的平衡。构建责任保险制度要以各方主体侵权责任的分配与承担为基础,因此,首先要建立以受害人救济为主要功能的责任体系。人工智能强制责任保险要以生产者为主要投保义务人,以适应人工智能主体性特征,将保险制度的重心由人类操作者向智能机器转移。其次,建立保险代位求偿制度。保险人在理赔后可以向责任人进行追偿,以减轻保险人赔付支出,提高保险人承保的积极性,进而降低生产者转移风险的经济成本,同时也通过压实责任促进人工智能技术的不断进步。在人工智能强制责任保险制度构建过程中,应始终将侵权责任分配贯穿侵权行为认定、责任保险安排和保险人代位求偿权规则设计等关键环节,最大限度地妥善安排和保障各方利益。