强人工智能的侵权责任承担分析
2019-03-18米新丽王亚兰
米新丽,王亚兰
(首都经济贸易大学 法学院,北京 丰台 100070)
一、人工智能技术产生新的法律问题
随着科技水平的不断发展,人工智能掀起了全球新一轮的技术革命,其已广泛应用到物流、交通、运输、医疗、制造、服务等各个行业。在未来,人工智能将会出现在更多领域,而这一趋势的出现不可避免地在各行各业发生一系列侵权现象,损害人类的生命健康、财产安全。例如,20世纪80年代日本因为工业机器人程序错误,将工人压死的惨痛事故[1];姆拉赛克诉布林茅尔医院案中,达芬奇医疗机器人因为程序一直不能反映正确的信息,且拒绝手术中的其他团队进行纠正,最终延误病人治疗的悲剧事件[2];而最新的一些更为典型的事故发生在无人驾驶领域。2018年3月23日,无人驾驶汽车特斯拉致车内驾驶人员当场死亡的事故等。这似乎是人工智能技术在时刻提醒着我们:强人工智能时代已经到来,它给我们带来便利的同时也面临着由何者来承担因错误行为和损害行为产生的责任问题。因为按照传统的产品制度,当事故发生需要认定法律责任时,既可以使用者、所有者在使用过程中存在过错为由追究其过错责任,也可以产品存在缺陷为由追究生产者的产品责任。在强人工智能中使用者、所有者根本无法了解、控制强人工智能的行为,何来责任一说?而传统的产品缺陷责任也难以适用:一方面强人工智能没有统一的安全标准,即使可以借鉴现有的其他产品标准,又如何认定制造缺陷、设计缺陷;另一方面如果不存在缺陷问题,仅有强人工智能自主行为,此时责任如何承担?强人工智能、生产者、设计者?而根据现有的法律制度根本无法填平强人工智能侵权后的损失、也无法平衡强人工智能致害责任等现实问题。
因此,本文仅对目前学界普遍有争议的强人工智能这一阶段的智能机器人(即具有人类所有认知能力,有知觉和意,可以由自身的系统自主的执行不同的认知任务的这一类机器人)侵权时的归责问题进行具体分析,因为弱人工智能是不能真正实现脱离人类控制自主解决问题的智能机器,它们并没有真正的智能,只能实现单一任务,比如语音、图像识别等,依照现有的《产品质量法》或《侵权责任法》的相关规定就可以进行归责分析。
二、强人工智能概念的界定
强人工智能(“强 AI”)概念最早由哲学家塞尔(John Searle)于20世纪80年代所提出[3],目前理论界针对强人工智能的范围界定争议不大,通说认为其是与目前现有的仅仅依靠程序设计、指令等操作的“弱人工智能”相对的概念(1)在理论界和业界,早有“强人工智能”相对“弱人工智能”的概念。例如:约翰塞尔区分了弱人工智能和强人工智能,前者指称仅能作为研究辅助工具的人工智能,后者指经适当编程的电脑与人类心灵等同(See John R. Searle. Minds, Brain and Programs. The Behavioral and Brain Sciences,1980,3(3):417-423.)。本文通过北大法宝输入“强人工智能”进行检索分析,共得出93条结果,在这些结果中明确的对象都是将强弱人工智能进行分开比对研究,或者直接引用强人工智能这一概念。(同时在搜索“人工智能”时,也有大量篇幅的论文将人工智能区分为强、弱两类)其中涉及强弱人工智能分类时,突出的将自我意识、自主学习、自主决策等一系列脱离人的控制,自主作出的一系列类似于人类的活动作为其主要特点。 而对“弱人工智能”的认识并无多大争议,一般是指在设计和编制的程序范围内执行人类的指令,通过其有限的智慧解决一些智力问题。参见[日]松尾丰:《人工智能狂潮:机器人会超越人类吗?》,赵函宏、高华彬译,机械工业出版社,2016:35-36。。具有以下特点:
(一)具有人的意志的效果性
强人工智能区别于之前的弱人工智能,不仅仅依据设计人的数据代码设定运行,还能在设定之后的运行中,自我深度学习,犹如海绵一样,不断进行自我吸收、程序转换成新的知识背景[4]。可以说这种后续的学习已经脱离设计者最初想要设定的轨道,完全由进一步的学习、认知而自我衍生出新的裁判准则,之前的人为设定,根据数据算法运行的做法作为独创性已经无法适用于新一代强人工智能[5]。
(二)行动完全的自主性
强人工智能下,它们已经不再受人类的指令引导与下达,他们自己可以根据周边环境结合现实情况自主的做出判断[6]。可以说,他们是和人类近似的强人工智能体,拥有自我的情感、认知与行动能力,不再是完全受支配的客体。更为先进的是,未来的他们正如科幻电影所描述的,可以根据自己的意志进行创造新的超出人类预控的物种,例如可以自己制造自己的下一代,而不再需要人类进行前期的编码设置。因此,强人工智能的突出特点就是完全的自我判断、自我决定。
(三)不透明性
智能机器人因为可以自主学习和深度学习,在设计者予以最先的系统软件设计后,智能机器人便可以根据自身的进程不断学习,最后连设计者本身都无法预测其行进的过程,因此其侵权过程中到底是基于何种原因产生,无法由外界乃至受害者得知。
强人工智能拥有和人一样的意思表达能力与完全的自主性,能够在设计运行中进行自我深入学习、调整以及学习进程中的高度不透明性,完全可以脱离人类控制,这在无形中导致其实施侵害后呈现出多样化、复杂化、不透明化的特征,使得现行的《中华人民共和国侵权责任法》面临是否可以完全适用、怎样适用这一新兴事物的困境。因此针对强人工智能这一对象,探索分析现行侵权责任归属是当前民法学界的重中之重。
三、国内强人工智能侵权责任的理论探讨
国内目前针对强人工智能侵权后的责任承担问题,正如火如荼的进行着。虽然没有一致的结论,但是统一的前提方向是:先判断强人工智能是否具有民事责任能力、是否属于民法上的民事主体[7],之后结合此定位进行责任承担。因为这一问题具有基础性和全局性,左右后续问题的解决。而目前,我国现有的侵权法律规范在强人工智能主体的认定问题上存在争议,无法通过民法解释学将强人工智能明确归于任何一类法定民法主体。为此,下文主要梳理国内目前理论研究中对强人工智能机器人的定位——主体说与客体说,并依据不同定位,分析侵权时责任归属方面的具体操作以及存在的问题:
(一)“客体”定位下的责任承担
该理论观点认为强人工智能机器人仅是权利的客体。例如郑戈教授从责任方面明确提出强人工智能体本身没有独立的财产且不具备独立担责的能力,对于设立法律人格显得多余和毫无必要[8];上海文史馆馆长郝铁川教授从唯物史观的观点给出强人工智能的本质是人的工具、人器官的延伸。我们创造劳动工具,反过来还让工具取代人类?抑或与人类处于同一主体地位?这种将强人工智能作为独立主体的理念完全是不愿坚守唯物史观的基本观点,是不成熟的行为,同时也是对法律稳定性的亵渎;吴汉东教授也明确提出“控制说”,他认为智能机器人不同于有生命的自然人,应属于其控制的工具,目前不具备取得独立主体地位的资格[1]。可以说,这些都是目前理论界主要接受的观点。基于这种物的定位,在责任归属上,也就存在了如下两种观点:产品论——由生产者承担责任,动物论——由动物管理者承担责任。
前者认为根据《中华人民共和国产品质量法》,产品质量应当检验合格,符合保障人体健康和人身、财产安全的标准或要求,生产者、销售者依法承担产品质量责任。因此强人工智能定位为产品,除了个别由于使用者或者第三人故意引起的侵权以外,大多数强人工智能侵权是由于产品存在缺陷造成的,所以应当由生产者承担产品责任,适用无过错归责原则。销售者承担不真正连带责任。
该种主体定位后的责任承担有一定局限:首先,缺陷如何确定[9]。我们知道在产品质量侵权责任中,首先,需要受害者证明强人工智能存在缺陷;其次,自己受到损害,之后缺陷与损害之间具有因果联系。但是强人工智能作为新兴科技,目前我国并没有统一的行业标准,国际上也没有统一适用的标准,因此在这一不完善的技术标准下,让一个不懂或者说完全没有接触过生产、设计领域的受害者来证明所谓的缺陷问题是件几乎无法完成的事;再次,根据上文分析,我们知道强人工智能具有完全的自主性特征,是可以自己深入学习并摆脱人类控制的产物,产品缺陷仅仅是强人工智能的侵权原因之一;最后,在《产品质量法》上还规定了一些免责条款,其中41条明确规定:“产品流通时的科学技术尚不能发现缺陷的存在,生产者和销售者可免责。”这无疑对于生产者销售者来说就是全面的责任豁免条款。因为强人工智能的高科技性赋予了其现有技术达不到监测未来的必然性,这无形中加大受害者责任,减少生产销售者责任,那么依据严格责任下的产品质量责任制度,其意义是什么,还能实现立法宗旨里保护消费者利益的初衷吗?
后者认为强人工智能可以定位为动物,利用《侵权责任法》中饲养动物致人损害的侵权责任规定。因为强人工智能不具备自主意识,其行为又与弱人工智能不同,不完全受人类控制,这与饲养的动物颇为相似,动物可能在有人类授意下实施侵权,也可能在无人类授意下发生侵权,尽管古代立法中有让动物承担法律责任的规定,但现代立法不再将动物视作法律主体,动物致害责任主体应该是饲养人或者管理人。因此通过借鉴动物致害的侵权法78条规定,强人工智能侵权也应由负有管理义务的人承担无过错责任,同时可以适用免责条款,即强人工智能侵权,应该由管理人承担责任;如果受害者或第三人故意,则管理人可主张减责或免责。
这种观点的缺点很明显。首先,忽略了强人工智能与动物的本质特点,强人工智能具有完全的自主性,不具有动物天生的一些攻击性。目前我们根本无法准确预知强人工智能系统针对一些行为是如何在自身系统中进行判定的,与动物的纯粹生理性攻击不同,强人工智能的侵权超出人类的预知,如果一味的将这种不可归责于人类的原因归诸于制造商或所有人,明显不符合责任自负原则;其次,免责条款的适用具有不合理性。因为强人工智能的损害性与动物的损害,其严重性无法比拟。例如,强人工智能被甲挑逗激怒,他是无法识别自己应该回击的程度大小,因此一旦回击其完全可能将人致死,其伤害程度较于动物来说更高,且具有不可预测性,此时如果仍用免责条款予以适用,受害者承担大部分或者全部责任,显然不公平。
(二)“主体”定位下的责任承担
该理论观点认为:强人工智能不但可以做出行为,而且能够自主分析判断,拥有比人类更加强大的数据收集、记忆和计算能力,完全不同于传统的产品、动物。因此强人工智能应该定位为独立主体,同时在此前提下,又细分为“代理”和“电子人格”两种定位。根据不同的定位,二者的责任承担也分属不同的路径:
1.“代理”
以Kalin Hristov[10]、吴习彧[11]为代表的代理说认为,强人工智能的管理者与其之间类似代理关系中本人与代理人的关系。强人工智能从事某种行为时和普通代理人一样是脱离被代理人的意志自主进行决策的,因此最后的责任归属于本人也就是管理者,在代理这一主体定位下,强人工智能具有民事权利能力和行为能力,但不具有责任能力。
这种将强人工智能机器人定位为代理人的论点,在具体责任归属方面会存在如下问题:首先,在民法上,有法定代理与委托代理,强人工智能依此观点应归入何种类别?因为其一方面欠缺法律的明确规定,另一方面也无法根据任何的意思表示;其次,强人工智能如果同普通代理人一样进行所谓的代理行为致人人身财产损害,那么这一行为是否在代理权限范围内也很难确定,因为同普通代理制度不同,强人工智能无法进行法定或者约定的权限范围;最后,正如上文分析强人工智能本身不承担责任,而传统的代理责任中虽然代理人范围内从事的行为结果归因于本人,但是如果超越权限范围,责任是由代理人自负的,而强人工智能即使能确定权限范围,最终如果超出代理权限,其自身也是无法负责的,因为他仅仅是一个拟人化的民事主体,没有实际上的责任能力,这对受害者追责是极其不利的。
2.“电子人格”
我国目前也有少部分学者主张将强人工智能定位为电子人格。以郭少飞[12],陈吉栋、杨清望、张磊[13]等为代表:其仅将自然人以外的强人工智能拟制为法律主体,像赋予法人或其他组织拟制主体地位一样,赋予其法律主体资格,和自然人享有平等的权利,并指出在实践中已有的先例,如沙特的索菲亚机器人已获公民资格;欧盟通过的《欧盟机器人民事责任法律规则》明确规定:将机器人设立为特殊的法律人格,从而保障这些智能机器人具有电子人一样的法律地位,也就是电子人格[14]。
通过电子人格的主体定位后,强人工智能侵权后的责任归属仍然不明确。因为如果是强人工智能自己承担责任,那么归责原则是过错责任原则或者无过错责任原则:如果是过错责任原则,如何评定强人工智能是否具有过错?难道按照人的行为评定?这是否与我们现存的唯物史观、以人为本的观念相违背;如果是无过错责任原则,那么其根本就没有独立财产,受害人损失怎么保障。另外排除最后责任归属方面的问题,其在一开始定位独立主体时就面临很多问题:这种强人工智能,具体由谁申请独立人格?申请的标准是什么?在这些现实的问题均没有统一的解释下,独立的主体地位对责任承担既无法提供有效解决措施,还有冗长累赘之嫌。
四、国外强人工智能侵权责任探讨
(一)欧盟——独立主体定位+配套保险制度
首先,在欧盟学者的推动下,2016年5月31 日欧洲议会法律事务委员会发布《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》,2017年1月12日草案由该委员会表决通过成为决议[15],2017年2月16日,欧洲议会通过该决议(2)决议第59段建议:从长期着眼为机器人创立特定的法律地位,以至于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。。该决议中明确提出并实施重构适用于人工智能主体的民事责任规范。因为只追究本身可能并没有过错的生产者、销售者或使用者的责任可能是合法的,但一定是不合理的。因此不说全部赋予独立人格,至少应该赋予一些最精密的自主机器人,也就是我们的研究对象“强智能机器人”独立人格,这样可以使其对自己的行为承担责任,当然在确定这些独立主体地位同时,也需要借鉴最初设立法人制度时登记的一些制度规则,对智能机器人也进行登记公示,从而保证其权利义务的行使[16]。
其次,欧盟为了保障强人工智能下受害者的利益,建议只要存在智能机器人侵权行为,就一定要追究,不考虑其他不可抗力等诸多情况,以充分弥补受害者的损失,但是智能机器人的责任承担也应该有底限,即必须根据其自主性程度衡量,自主性程度越高责任越小,自主性承担越低责任越大。
最后,欧盟还旗帜鲜明的提出了建立强制责任保险制度,设立赔偿责任专项基金,因为强人工智能的损害往往赔偿金额较多,争议的时限也会因技术程度的复杂度而延长。此时及时的保障受害者的利益成为当务之急,因此可以要求生产者或者设计者、所有者强制投保,从而高效解决诉争。
欧盟目前对强人工智能的研究跨步很大,明确提出智能机器人应当取得独立人格,但缺乏对责任承担的具体分配问题的研究,这与我国学界的一批主张“电子人格说”的研究殊途同归。因此借鉴国外较为前卫的理论要结合实际并且深入考察其他配套措施,将理论体系化、实践化。
(二)美国与德国——配套制度+具体行业试运行下的责任承担+道德保障
德国与美国相较欧盟步伐稍小,没有明确提出赋予强人工智能独立主体地位,而是主张在不改变现有的侵权责任制度框架下,大量对特定行业领域的强人工智能进行试运行,颁布一系列有针对性的试运行的规范制度,例如无人驾驶汽车、医疗机器人等。因此他们的主要做法有如下重要的几点:
首先,针对归责原则而言,仍保留现有的产品责任中归责原则的规定,对于生产者进行严格责任,对于销售者、使用者适用过错责任(3)美国现有的归责原则针对的对象包括了强人工智能。因为其在拟定通过的《统一计算机信息交易法》以及《统一电子交易法》中都对其作了这样的界定:它是一种能够独立自主的完成具体的工作并且不用经过人为的指令或干预的智能技术。;其次,在优先发展领域——无人驾驶行业,进行一系列法律规范约束,如创新性的制定了一些其运行的技术安全标准与规则,从而保障统一规范化的管理,使其在生产、运行中有据可依,侵权后也能依标准进行统一维权。另外规范制度上明确要求安装“黑匣子”。因为人工智能侵权的原因复杂、事实难查明,通过安装“黑匣子”记录系统内的每项数据,使得在发生侵权事实后能够具体准确的分析侵权的原因,极大的减缓受害人在举证责任中受到的不利影响,也使得责任主体各方能够依据侵权的事实进行归责;尤其是美国还将对普通产品缺陷召回制度运用于强人工智能机器人召回中,对于缺陷机器人或者发生侵权的机器人采取剥夺继续运行的资格,防止对他人进行二次伤害。最后,除了实践、制度的保障外,德国更是开始从道德层面进行探索,引导设计人员设计时的道德意识,同时保证系统软件本身具备智能机器人自身的道德水平,实现通过源头减少侵权损害的发生。
可以看出美国和德国,深入并着重的在未来强人工智能领域可能发生的侵权事故进行了一系列探索,尤其是责任主体、归责原则、事实查明、赔偿方式及配套措施方面等。并且结合实际开始立法先行,在无人驾驶汽车、智能机器人等方面制定了相当数量的具有一定借鉴意义的法律法规。但是在定位强人工智能地位这一前提下,其步伐相对保守。可能他们是尝试先在不同行业进行试运行一些规定,最后根据实际情况考虑是否整体突破传统客体定位的局面。而我国之前的一些试运行规范明显很少,现在既然抢占强人工智能战略发展先机,如果仍局限于传统客体定位无法与强人工智能大环境相接轨,会使得我国强人工智能的发展处于被动状态。故我国可以借鉴美国、德国一些单独针对智能机器人的各行各业的配套措施的规定,但在主体定位方面应结合国内研究现状,不局限传统客体观点去讨论责任承担。
五、构建我国强人工智能侵权责任承担体系
针对强人工智能广泛应用所引发的致人人身、财产受到损害的责任归属问题,本文系统的分析了目前国内的研究现状:先对强人工智能主、客体定位,再根据不同定位路径在现有侵权责任制度中找寻责任承担方式的具体操作;以及国外研究中已经率先提出并付诸实践的一系列试运行经验措施。综合上述梳理可以发现国内一直在依据现有的法律找寻具体侵权责任归属,而国外依据具体的实践去总结规范更具有实效性。但是国外的一些做法或多或少对我国强人工智能的适用存在着一些障碍。因此,结合二者共同的优点不足,本文主张应抓住新一轮革命机遇,颁布强人工智能单行法,以构建新的符合我国强人工智能侵权的责任制度,从而在法律层面给予一个明确的责任承担体系。
首先,参考国外已经生效的一些典型领域(如无人驾驶行业)的规章制度、配套设施,设立统一的试用各行业领域的强人工智能单行法,提供总体的标准和原则,以更好的迎接人工智能的到来,更好的在责任问题发生后定纷止争。其次,单行法颁布后,放置不同的行业进行实践运行。获得成熟后,在统一的规则承担体系下再具体的结合医疗、服务等各行业的智能机器人侵权的特殊情况,具体问题具体分析,补充一些特殊的具体的制度规范。例如免责事由等,从而完善强人工智能体侵权时责任承担的体系化、差异化、科学化。可以说和国外研究方法反向思考,先制定单行法,抓住人工智能战略主动权,给予一些强人工智能一定的总体参考意见,再留有适度的空地允许不同行业予以补充完善。为此,先行颁布的强人工智能单行法可以主要包括两方面内容:第一,责任构成和责任方式:明确强人工智能的主体地位;依据主体定位明确强人工智能侵权时具体的责任承担。第二,要真正实现对受害者的救济,强人工智能还需配套措施辅助:强人工智能产品进入标准;交强险的强人工智能责任险和强人工智能赔偿基金;强人工智能缺陷产品召回机制;数据存储“黑匣子。
(一)责任构成和责任方式
1.智能机器人的主体定位——“有限人格”
根据对国内、国外现有的研究现状分析,可明晰这些观点或多或少都有一定的缺陷不足。但是立法必须具有稳定性,必须在现有的观点中找出最适宜强人工智能现在以及未来发展的立足点,从而保障法律的稳定性、明确性、指引性。为此,通过比较分析,国外实践中虽然有欧盟明确规定赋予机器人主体地位,但是大多数国家,结合人工智能的发展现状仍保持观望的态度。而且国内研究现状也主要倾向于不赋予强人工智能独立主体地位,这也具有现实科学意义。因为完全赋予人工智能独立主体地位后,责任仍然无法由自身承担,赋予其独立民事主体地位没有必要也没有任何价值意义,具有冗长累赘之嫌。但认为按照客体定位的观点,仍用现有的侵权责任产品责任的一些归责原则,无法鼓励科技创新,无法与国际强人工智能主体研究接轨,体现时代性。为此,我们既需要明确智能机器人非独立主体地位,又需要将其不同于传统的客体身份。因此综合之下,并结合强人工智能产品具有完全自主判断、深入学习的特点,我们可以走折中道路,定位为有限人格[17]即在特定情况下享有权利能力。类似于设立中的法人规定、对胎儿的利益保护等,不具有独立的法律人格,只能获得有限的权利能力。从而很好的解决强人工智能发生侵权行为时,如何为自己的行为承担相应的法律责任。
2.责任承担
根据有限人格定位后,强人工智能侵权的责任承担可以遵循如下思路:
首先,国内研究现状中对主体定位虽然不一样,但是责任承担的另一前提——归责原则,大家普遍赞同无过错责任的归责原则。因为不管是客体说的产品论与动物论,其归责都是无过错责任原则。即使是主观说中的被代理人也是无过错的承担替代责任。欧盟的电子人格说确立了主体地位,但实践中责任承担主体还是生产设计者,适用的其实也依旧是无过错责任,同时欧盟提出了建立强制责任保险制度,目前欧盟现有的保险制度也已经十分完善,可以在一定程度上最大化的保护受害者利益。而我国目前并没有保险力度推广的实践、市场经济中研发者生产者社会责任意识也普遍较低。因此,更应该强人工智能进行无过错责任的归责原则,这将更有利于社会的和谐发展。但是根据《侵权责任法》的规定,可以看出其第6条第2款过错推定责任和第7条无过错责任都标明了“法律规定”,只有第6条第1款过错责任中无需使用“法律规定”字样,因此可以说如果法律没有规定,一般适用过错责任。为此,首先应该由单行法明确规定强人工智能的归责原则,因为没有法律规定,只是学术上的探究,司法实践中虽具有可操作性但却无法直接引用。所以对于有限人格下的强人工智能侵权首先应赋予明确的法条规定:承担无过错的归责原则。
其次,确定了无过错归责原则后,设立人工智能的构成要件便成为水到渠成的事。即按照无过错归责原则下构成要件的规定: 损害事实的客观存在;强人工智能的侵权行为与损害事实之间存在因果关系,在该因果关系要求下,必须证明受到的损害后果是强人工智能的行为所致,而不是他人利用其作为工具侵权,因为利用工具直接依据具体背后的侵权人定责即可。因而,在此种规定下,受害人只要举证符合二者就可以完成构成要件的成立。
最后,也是强人工智能有限人格定位的优势所在:在责任归属何种主体方面具有可操作性,科学性,平衡了不同利益主体间的利益,既促进技术的研发又能弥补受害者的损失。因为通过上述明确规定将人工智能产品的法律地位定位为有限人格。在符合侵权责任构成要件后,需要承担侵权责任时,可以由强人工智能自己独立承担责任,不用再强加责任于生产者、设计者。但是必须有选择性的按照特殊的责任承担,即并不是一味的所有情况下都需要强人工智能本身承担责任,而是在法律明确规定、实践需要的情况下才会承担责任。例如,采纳有限法律人格否认制度:在最终确定的责任主体中,将生产、设计者视为发起人,强人工智能视为最终成立的公司,如果生产者、设计者有过错,则应“揭开强人工智能机器人的面纱”承担侵权责任;如果没有过错,且能提供完整的系统数据,证明主要是强人工智能自己的行为引起,则此时利用强人工智能在特定情况下享有权利能力的特点,生产者设计者可以不承担责任,由强人工智能自己承担责任,当然前提是其自身有一定的资金储备,这就需要借助下文所述的配套措施中的基金制度+保险制度予以救助(即每一个强人工智能投放于市场时都需要相关研发设计人员、生产制造人员为其购买一定的基金和保险,使用人、所有人只需购买责任保险。这些基金保险属于每个强人工智能账户下的小金库,用于自我收益、弥补损失);如果不能证明行为完全由强人工智能自身行为所致侵权,则需要根据强人工智能的自主性程度,培养时间,来减少生产设计者的责任承担程度抑或不承担责任。因此,在具体进行责任承担归属问题上,不能仅仅规定何种主体承担责任,还要结合强人工智能本身的特殊情况区别对待[18]。当然这种特殊情况,目前仅仅限于设计者、生产者过错,强人工智能的自主程度,后续实践中发现的具体特殊情况可以添入其中,保证法律的完善性。通过这种理论与实践的结合真正做到权利与义务,收益与风险的平衡,真正较为科学全面的对强人工智能侵权后的责任进行系统的梳理归责。
(二)强人工智能的配套措施规定
1.建设强人工智能市场进入标准
根据国外的研究现状,不管是美国还是德国都纷纷对强人工智能进行典型领域的试运行。例如无人驾驶汽车领域里,大量的试行规范应运而生。北京目前对于无人驾驶领域颁布的《自动驾驶车辆道路测试管理实施细则(试行)》中的一些规定,也是借鉴了大量的成功经验。为此,强人工智能整体行业的一些运行标准,完全也可以在此基础上借鉴。例如,由现在主要负责人工智能发展的部门会同有关具体行业领域、公司、设计院等统一制定强人工智能市场进入标准,同时一些行政规章制度予以辅助。因为要求强人工智能承担责任的前提应该是明晰什么情况下自我归责,什么情况下生产设计者承担责任?而拥有明确具体的市场进入标准,在源头上减少产生侵权的可能,在具体运行中有明确的依据予以归责。从而使得强人工智能只有在满足保障人体健康和人身、财产安全的国家标准或行业标准下才能进入市场,不仅极大的减少侵权事故的发生,更能有效的在侵权发生后确定侵权发生的原因。所以建立强人工智能进入标准、强人工智能开发者安全注意义务准则,对于行业在自律规范上做好充分准备显得极其重要。
2.配套强人工智能的硬件、软件设施
通过上述内容的梳理分析,以及目前我国的现有水平、未来的发展趋势,强人工智能可以作为有限的人格主体,在特殊情况下承担责任。但如何确定特殊情况、减少特殊情况的发生,还需要依赖一些配套措施。目前我国几乎没有措施保障抑或有也无法有针对性的适用此类新兴行业。因此我们可以借鉴美国立法规定,利用法律强制要求对强人工智能进行登记公示制度,强人工智能缺陷产品召回机制,对发现缺陷后的机器人应及时召回或停止提供服务。以及建立黑匣子,在保护数据隐私权的前提下预先保存一些侵害的事实依据,方便排查变化原因,使得在发生侵权事件时可以依不同情况来考虑。例如是在设计者设计的范围之内作出的侵权行为,或是在研发设计范围之外作出的侵权行为,抑或是不可抗力、意外事件导致的侵权行为,从而具体准确的将责任归属于责任主体。
3.探索强人工智能保险、基金制度
我们可以参考欧盟的做法来作出应对,即建立交强险的人工智能责任险和建立侵权赔偿基金制度。在每一个强人工智能进入市场后,设立专属的账户。这些赔偿基金和保险额划归相应的强人工智能账户下。由统一部门负责经营管理,收益损失都归强人工智能独立使用,从而保障未来侵权行为发生后的责任承担问题。因为强人工智能要想独立担责的首要前提是必须有一定的资金支撑,而不是仅仅归责于使用者、生产设计者。通过这种保险、基金项目的支撑,既可以更好的对受害者进行有效的救济,也能使人工智能真正实现责任自负的有限主体地位,呼应学界的一些技术中立原则,发挥对高科技发展的救助扶持作用,更是为了真正的推动人工智能有序发展,不至于因为过多的责任承担抑制研发者、生产者推动AI技术研发的进程。
六、结语
现阶段,新一代人工智能事业已成为全球新一轮科技革命,这对我国来说既是新的机遇也是巨大的挑战,我们要想在这一领域赶超发达国家,提高该领域的法律规范标准制定权、话语权,提升综合国力,配套的相关法律制度的设定便发挥举足轻重的作用。因此,在综合国内外研究的经验、不足前提下,我们必须结合国内的一些发展实际,分析现有的侵权责任法律规范、调整不适用的部分、增加新的符合人工智能趋势的部分,加快制定强人工智能的单行法,从法律层面上保障人工智能的发展,把握好新一轮人工智能的先机。