APP下载

人工智能对侵权责任构成要件的挑战及应对

2019-03-19李坤海

重庆社会科学 2019年2期
关键词:人工智能责任法律

李坤海 徐 来

(西南政法大学民商法学院,重庆401120)

人工智能的广泛运用势不可挡。国际竞争模式早已从本国能源、资源带动型到转向创新驱动型。当前,时有关于机器人误伤事件以及自动驾驶汽车的事故侵权案件的报道,这就引发了人工智能对人身和财产威胁的重大思考。法律作为社会调整的重要手段(特别是侵权责任法)就应该发挥它重要的功能。由于人工智能是一种通用技术,“可以应用到从农业、制造业到法律、医疗、金融服务业的各种人类活动场景之中,而它本身正处在高速发展阶段,因此,制定一部总括性的‘人工智能侵权责任法’在目前这个阶段时机尚不成熟”[1]。我国当前也处于人工智能发展的初步阶段,也即弱人工智能时代。人工智能的运用大多是作为一种辅助工具用以方便生活,在侵权法律适用中也有相关条款进行救济,人工智能侵权纠纷被广泛使用产品侵权作为判决依据,例如当机器人致害时,现行法律实践仅将其认定为产品或者权利客体而非法律主体。我国作为成文法国家,法律的滞后性显得尤为突出。因此,针对人工智能对侵权法的冲击作一个较为详细的了解,有利于为完善人工智能侵权法律提供更好的建议。

一、人工智能侵权特点

探讨人工智能与我国当前侵权体系构成之间的关系问题,必须着眼于人工智能侵权本身具备的基本特征。人工智能从早期的简单机械操作领域进入以电动牙刷、苹果私人助手Siri 为典型代表的生活、医疗、电子等领域,早已不是单纯的人的行为的简单延伸。作为智能数字化的产品,人工智能的“意识性”特征日益明显;作为新兴的经济领域,人工智能适用范围的“扩大化”加剧了人工智能侵权的复杂性。从人工智能侵权自主性、不可预见性以及复杂性特点出发,在宏观视野下,理清其对侵权责任体系构成的影响。

(一)人工智能侵权自主性和不可预见性

人工智能技术源于计算机技术的发展,计算机技术逐渐成为人类认识自我以及探索世界的“替代品”。作为由程序支撑的计算机技术,其中各种代码本身就已经显示出智能组合的多样性。加上人为的操纵,人工智能产品侵权效力的频率和效果颇具自动性。自动驾驶汽车在国外得到普遍运用,最开始被认为是减少交通拥堵、节约劳动力的新型智能典型代表。但事实并非如此,随着智能化汽车对交通无规律的干扰以及事故的频繁发生,智能产品侵权逐渐成为其发展的阻碍。首先,程序的自由组合加剧了事故的发生。自动驾驶汽车由灯光方向等不同程序组合,虽有事前的路段预测,但是行驶路段以及信号灯的复杂性使人工智能程序自动反应的工作愈加繁复,道路的瞬时变化以及程序组合的自由性依然防止不了两者发生冲突。其次,人工智能并非完全由人控制。虽然人工智能在定义上打下了人工的烙印,但是人工智能有时具有“自己决定”的拟人成分。对于预先设定的规则,人工智能是可以打破的[2],特别随着人工智能中“智力成分”不断加强,拥有“自我控制”的能力则会更加突出,提前规划的路线中途转向、程序运转失灵、与障碍物相撞以及难以快速反应都是其弱点。智能产品程序自由组合性以及预先规则的打破无疑会使其自主性特点不断突出。回顾人工智能发展历史,早期作为一种辅助零件完全由人为控制发展到今天相对独立的操作系统,人工依赖性不断减弱,在面对突发事故颇具未来不确定性。“作为一种前科学,人工智能的框架尚未完全。”[3]人工智能中的“智能”尽管贴近人的大脑,但于个体而言,都无法完全控制突发事件的袭击,更何况现阶段是作为一个拟制的“替代品”去行动。当前正处于世界科技新一轮上升阶段,科学技术的发达程度直接关系人工智能应用的成熟程度,并且我国科技在近些年才不断赶上世界水平,与发达国家相比依然有较大差距,智能程序的设计漏洞和不完全合理性也客观存在。

(二)人工智能侵权复杂性

人工智能依托的是互联网技术的高度发展,而互联网技术的发展又离不开计算机的共识计算系统以及程序编码。单从计算机这一领域来看,人工智能技术需要专门人员掌握大量计算术语,对于设计者而言都难以分辨某个行动背后的逻辑,对于法律实践的律师和法官而言更是勉为其难。对普通侵权的定义大多涉及人身和财产的侵害,但是对侵害的方式以及事实却难以用抽象的概念进行表达,可见侵权本身即复杂多样。而人工智能侵权更是打开了新的领域。首先表现为侵权领域增多。《中华人民共和国侵权责任法》在分则具体章节中列举了主要常见的侵权情形,采取了列举式的立法模式。但人工智能最先应用的领域是计算机领域,关于计算机领域的侵权规定主要体现于《中华人民共和国侵权责任法》第三十六条①第三十六条 网络用户、网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。网络用户利用网络服务实施侵权行为的,被侵权人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。网络服务提供者接到通知后未及时采取必要措施的,对损害的扩大部分与该网络用户承担连带责任。网络服务提供者知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。,是对网络用户和网络提供者的侵权规定。但是对于人工智能背景下的软件程序设计者、软件著作权所有者的责任承担规定并不明确。再者,人工智能大量运用于海洋作业,弥补人类在海洋探索领域的不足。人工智能对海洋河流领域的侵权在将来人类活动中也会日益显露出来,这些新的领域也应有法所依。更有甚者,在人工智能大数据环境下,侵权竞合可能不再是单一的侵权类型。通过网络对人格侵犯的现象在不久的将来应该在司法实践中会大量遇到,侵权领域的扩大不仅造成现有侵权体系的解释困难,更是助长了侵权责任法漏洞的扩大。不仅是领域问题的复杂,还有事实问题的复杂。一方面,对于事实的查明,人工智能由于具有上述第一个自动性的特征,可能有的情况难以合理分配责任承担,特别是在强智能时代或者超智能时代,自动型侵权可能更加突出。另一方面,人工智能侵权事实在举证时可能面临事实缺失的情形,或者受到现有智能技术又难以解释的窘境。无论是领域还是事实层面,都体现了人工智能侵权的复杂性,与传统的侵权领域相比,人工智能侵权更具有研究必要性。

二、人工智能侵权对责任构成体系的冲击

有学者提出人工智能发展分为三阶段:推广普及阶段、爆炸式增长阶段、意识智能阶段[4]。这一分类标准的主要依据是人工智能适用范围,对于研究人工智能历史脉络具有较大价值。但是对于研究人工智能对侵权责任构成体系的冲击而言,以此为标准在前述两阶段并不明显。笔者认为以适用度为划分标准不足以窥探责任构成遭受影响程度。本文主要以侵权体系要素在弱人工智能时代和强人工智能时代突出表现不同,对责任构成进行阶段性介绍。弱人工智能时代,人工智能产品侵权依然是人的智力的延伸,只是对于新型智能产品侵权在法律选择适用上会遇到困难。同时我国侵权责任法传统的归责原则在智能环境下过错的认定会受到冲击。强人工智能时代,智能化产品具有高度智能性,由自然人和法人构成的法律主体体系会受到较大影响,特别是在司法实践中,关于举证责任的举证分配、如何公正高效地取得证据都会对证据学产生新的影响。故笔者进行阶段性区分,更好地厘清不同智能时代对我国侵权责任法体系构成的冲击。

(一)弱人工智能时代

在人工智能发展初期阶段,人工智能适用领域的不断扩大导致司法人员在法律适用上面临法条竞合选择或者无法直接适用法律,这无疑使对人工智能侵权归类产生影响。此外,我国传统的侵权责任过错归责原则在近些年发生了一些变化:过错推定、公平原则的引入对于人工智能侵权问题的归责原则也有所启发。在此,弱人工智能时代侵权归类和归责原则将是人工智能侵权的突出问题。

1.人工智能产品侵权责任归类陷入困境

人工智能更多地以物质载体显现出来。对于人工智能纠纷,我们不妨从分析常见的侵权类型出发,进一步厘清人工智能对侵权归类的挑战。最突出的是产品侵权,由于直接归类于产品侵权,既找到了归类解决之道,又规避了谈及智能产品的法律人格问题。首先,对于产品侵权,法律规定总结为:产品责任是一种侵权责任,无论受害人与产品的生产者或销售者之间是否存在买卖合同关系,都可以提起产品责任之诉。其次,产品责任属于一种特殊的侵权责任,其适用的是无过错责任原则。以上表明,法律的倾向性更侧重于保护消费者。关于该法条的深入涵义很多学者已经进行挖掘,笔者主要探讨一下人工智能产品侵权的适用问题。产品的界定是适用该条款的基础,常见的食品医疗产品属于该范围,但是对于自动化军用产品致人损害、高度智能化的大型船只致人损害,由于军用产品和准不动产一般不适用于产品责任中,因此对这些新型智能产品是否属于产品的范围存有疑问[5]。对于信息是否属于产品,德国通说认为存储在数据载体(如磁盘、光盘)中的软件属于产品;但是,就那些没有存储在数据载体中的软件,是否适用产品责任存在很大的争议。并且,产品责任规定了免责事由,在新型技术发展的初期,现有的科技水平或产品未被投入市场流通容易成为人工智能产品生产者规避责任理由,加剧生产者和消费者之间的不公平。除了产品侵权,还有高度危险物条款进行侵权归类处理。并且在实践中,人工智能广泛运用于人类能力有限的危险领域,与高度危险物损害条款设立初衷相符合。从立法初衷和人工智能应用价值层面来看,归入高度危险物条款也是合理的。但是高度危险物本身就是一个极其抽象的概念,该条款也主要是为了规制核设施致人损害的情形[6],将这种典型化特征适用于整个人工智能侵权不仅会造成对人工智能本身性质的误解而且容易以偏概全。特别在人工智能发展初期,将其归为与核设施同等性质的高度危险物范畴不尽合理,会造成对人工智能产品的社会误解,造成行业发展积极性受挫,只方便了法律适用却忽视了人工智能长远发展。

有观点提出阶段性类型探讨归责,但是人工智能发展阶段分类明显,况且在一个阶段内也有多个动态变化形态,会加重法律的负担①贾章范在《能医疗机器人侵权归责进路与制度构建》提出阶段性类型化探讨,适用于当前较短时间内智能医疗产品侵权责任规制,但是在整个智能时代早期无法得到完全有效适用。[7]。笔者认为,在弱人工智能时代既然无法找到一个完全具有概括性的条款进行侵权归类,但是有条件选择适用是一个不错的方法。对于一般人工智能产品,适用产品责任一般条款;特殊化智能领域适用医疗责任等特殊条款;具有高度危险特征的人工智能产品侵权则适用高度危险物致人损害条款。特别在人工智能发展初期,颠覆整个侵权责任构成体系似乎不尽合理,运用现有的责任适用条款能够适应当前一般侵权事故。

2.人工智能产品侵权归责原则合法不合理

归责原则是侵权责任法进行责任分配的理论基础,体现着民法的公平和正义价值。可以说,“归责原则是始终体现当代民法精神并代表当代民法发展的一条主线”[8]。人工智能时代下对侵权责任归责又有什么重要冲击呢?过错原则应该是侵权责任体系中运用最多的原则,人工智能侵权适用过错归责原则,由于人工智能发展初期依然是人类活动的延伸,在表面上以生产者的主观过错进行归责似乎合理合法。但是在具体分析中会发现过错的追究是一个艰难的过程。弱人工智能环境下,虽然智能产品是人类活动的延伸,但是依然拥有摆脱人为高度控制的可能性,毕竟智能化人工属性亦是不可改变的根本特点。机器人侵权是人工智能应用至今较为典型的例子,笔者先用过错归责原则进行合理性分析。发生于公共场所的机器人侵权,首先应当由机器的所有者承担责任,再由有注意义务的场所提供者承担与其过错相对应的补充责任。可所有人当时并不在现场控制,机器人侵权的同时也没有所有者人为的意思表示,与其无因果关系却要承担责任,在笔者看来也不合理。对于场所管理者来说,若尽到了注意和提醒义务,也很难将补充责任强加于此。有学者提出应该由机器生产者承担责任,这就涉及产品的无过错责任归责。可是一味追求产品生产者的无过错侵权责任,不仅是对生产者经济的削弱,也会严重打击人工智能市场的主体的积极性,不利于人工智能技术的发展和新型经济的蓬勃,让“无辜者”承担责任也许并不是法律的初衷。人工智能的侵害可能源于技术缺陷,也可能源于系统本身程序错误。由此可见,过错归责和无过错归责都会受到法理的挑战。由于我国传统上实行过错侵权,在特殊情况下为了照顾弱者利益,实行无过错原则,现有的规则体系无法给出合理的归责解释。近些年来,随着过错推定和公平责任原则的出现,使社会侵权问题得到法律上的缓解。但是过错推定和公平责任只适用于法律明文规定[9],人工智能侵权的法律适用即使符合以上个别条款,却难以在整体上进行理论协调,并且在初期阶段,单独对人工智能产品专章进行侵权规定,无论是在立法成本还是可行性上都阻碍重重。

(二)强人工智能时代

弱人工智能时代,人工智能一般被视为不具有独立的意识。但是在未来高度发展的人工智能时代,特别是机器人领域,人工智能的主体资格就值得审视。况且,由于其自主性和复杂性的侵权特点,对人工智能侵权事实认定、举证责任的分配也将会造成较大冲击。

1.主体资格审视

“法律人格是某一主体能否成为法律意义上‘人’的资格, 是其享有权利、履行义务的基础。人格是可以扩展于自然之外的实体, 但现行体系下, 人工智能是否具有法律人格并不明晰, 造成现实的适用困境。”[10]关于人工智能主体资格的审视,在发展阶段初期作为辅助性的智能运用,并不必然构成对侵权主体的冲击。值得注意的是,在强人工智能时代,人工智能高度自动性和独立性就会引发主体之争。否认说坚持认为人工智能摆脱不了人工的控制,永远是作为权利的客体存在,因此该种学说条件下的责任承担都由自然人主体进行分配。根据前面的产品侵权分析,完全将责任归责于生产者这一自然人貌似不符合公平原则,这在强人工智能时代会更加明显。代理说认为人工智能是作为人手足的延伸,是所有者的代理人。与传统的代理结构对比,代理人的形式却不同。一个是真实存在的自然人,一个是物化代理人;在代理权限上来说民法上的代理存在代理合同,有明确的权限或者法律明文规定的代理权限,但人工智能代理由于具有不可预测性和自主性,代理权限并不如民法意义上有代理合同等方式那样能够得到很好控制。并且从传统表见代理角度无法对人工智能对外法律作为性质进行界定,更不用说能够理清人工智能产品的代理来源[11]。故笔者看来,该种学说也只是为了借鉴民法意义上的代理制度将结果归属于被代理人以方便法律适用,但是无论从形式还是分类上,都无法将这种所有者的代理归入代理学说。电子人格学说借鉴于公司法人的拟制法律形态,其实关于法律主体的发展趋势,不可否认是一个扩张的过程,外部形态的自然人到与法人并存,内部形态也分化为无民事行为能力、限制行为能力、完全行为能力人,由内及外都是一种外倾趋势[12],加入电子人概念是否正符合这种趋势呢? 对于电子人,其是否有独立财产对外承担责任呢?这是法人作为拟制的人最重要的财产独立原则。电子人的申请人与电子人又是何种关系呢? 是合作关系,还是控制关系?电子人的监管又该仿照自然人还是法人呢? 电子人人格还会受到哲学伦理的冲击,人的本质和智慧的本质之间的区别在哲学领域上已经开始争议,电子人作为智慧的结晶是否就是人的本质所在,可能这也是一个让人难以接受的谬论。这些问题在当前都无法得到很好的回答。我们应该采取动态人格区分:在发展低级形态,只是一种人为控制下工具的延伸,但在未来,适时赋予其法律人格能更好解决法律关系问题,这就需要更多的类似公司法人制度进行规范支撑,超出了我们现有的经济和法律基础。

2.责任承担举证窘境

由于人工智能侵权事实特殊性,在理清事实真相以及因果关系等多方面本就不是易事。人工智能关键技术掌握在设计者手中,核心技术作为商业秘密的一种,在当前不公开也并不违反法律。即使依托于计算机系统的人工智能算法可以公开,但是依据算法完成学习、分析、决策、推理的过程是难以理解与解释的。根据传统民事诉讼法,无特殊规定外,根据“谁主张谁举证”的规则,应当由被侵权人就相关事实承担举证责任,对于损害医疗证明,法院可以要求医院提供相关书证,但是对于医院一方的过错举证,则会陷入举证困难。受害者一般都是普通公民,相对于人工智能生产商而言,举证对方技术存在瑕疵是勉为其难。况且人工智能的自主性和不可预测性,对对方过错的举证就变得难上加难。由大数据计算机系统支持的人工智能,不断进行数据重整、规则重整,对于后续的纪录显示和保存也造成了严重困难,无法有效地还原当时客观的侵权过程,更不用说需要被害者承担败诉的后果,这明显就与民事纠纷所倡导的公平正义原则相违背,传统的举证规则运用于人工智能会面临事实不清的困境。

面对人工智能,不仅是举证责任分配存在不公,具体事实的举证也会“束手无策”。首先是关于惩罚性赔偿的举证,我国对惩罚性赔偿的规定主要在欺骗消费者相关法条中,对于存在主观故意的,消费者可以通过举证证明以惩罚性的方式更好地维护自己的利益。对于人工智能产品,我们这里讨论的主要是作为强智能环境下的人工智能产品,比如手机自动点餐服务,由于任意组合的手机智能软件以及美图等修饰,很容易出现图片和现实的差距。此时,商家在主观上也无欺骗故意,大多是由于程序、数据出现错误导致的结果[13]。还有精神损害赔偿问题,如网络侵犯隐私权可能会存在这样一种情形:隐私事实保存于电脑,因程序问题而自动公布于众,造成受害者严重的精神损害,向谁追偿精神损害赔偿就会受到争议,是软件的提供者还是网络的提供者,各自都会有自己的抗辩事由。可见,举证问题对于人工智能来说是急需解决的事情,如何在高度自主化环境下寻求一个客观的事实对于侵权责任法的事实认定是一种挑战。

三、人工智能对侵权责任构成体系冲击之应对

法律的可预见性要求法律制度的完善是主动的而不是被动的。我们不应等待问题出现, 这将对人工智能领域的创新造成阻碍。侵权责任构成主要包括主体、侵权归责原则、侵权行为事实、侵权结果以及因果关系。上述提及的主要是人工智能对主体、原则、事实与结果查明以及侵权适用造成较大的冲击。人工智能主体地位对侵权责任体系的影响是具有根本性的,会造成侵权本质的变化。并且我国对人工智能法律人格的理论与实践也不够,故主要对归责原则以及行为事实与结果的查明提供建议:区别对待归责解决人工智能生产运用过程中的主体多样;黑箱子信息记录解决举证事实查明;商业保险与智能基金解决新科技初期损害事实频发的风险规避;事前登记与事后监管解决行政适当干预保障其稳定发展。

(一)引入区别对待归责

由于人工智能产品大多是在智能环境下进行工作,人为的直接操作越来越少也是经济去中心化的表现。但是当前理论认为,人工智能依然是人类行动物化载体,也并没有突破超越人的认知范围,可以进行人的归责。人工智能区别对待原则即对各流程主体进行责任区分,主张采用阶段式方法对人工智能侵权进行法律规制,即在设计、生产、运输、销售、使用等不同动态环节来规制责任[14]。该观点主要看到了人工智能产品整个流程的进展过程,但是单纯以哪一个环节出错而进行责任规制,只是法律问题的表象,并且实践中多环节过错极其常见,依然需要对各环节事实进行排查,加大了司法查明的难度。该观点的阶段性主体倾向笔者是同意的,但是生产者、销售者、使用者之间的责任是存在差别的。我国现行法律规定,生产者和销售者都承担无过错的严格责任,这对销售者特别是小型销售者其实是不公平的,无疑加剧了其经济负担。虽然立法目的是保障消费者权利,但是在人工智能发展初期,应该对智能产品有所特殊对待。故销售者承担的应为过错责任,因为其涉及的主要是法律的买卖合同订立,与生产者侵权关系相比密切度一般,过错责任对销售者举证责任也是有利的。对于生产者初步承担严格责任是法律应有之义,但是也不能将范围任意扩大,依然要符合产品缺陷这一前提,而如何证明产品缺陷也是接下来需要论述的内容。生产者与销售者的区别对待对于人工智能早期发展具有重要作用。

(二)借鉴“黑箱子”信息记录

黑箱技术①黑箱技术源于国际航空行踪技术,用于对智能情况下技术痕迹的记录,具有还原客观性的重要功能。走进人们视野应该是马航事件,将黑箱子记录信息应用于人工智能不失为一种巧妙的借鉴。人工智能由于自身自主性和不可预测性太强,对事实真伪的查明存在很多缺陷。黑箱子不仅可以记录人工智能的操作过程,而且其内部的信息记录可以帮助查明出错的环节,从而更好地进行责任分配。但黑箱子的装置应该与人工智能同时投入使用,并且装置的装配责任应该由生产者进行承担。我国在环境保护法领域对环保设施的投入使用也采取与施工同步战略,对事前装置,相关法律法规应该给予强制性规定。可是对于记录事实的提供与举证证明责任的分配可能会存在矛盾。受害者一般为过错责任的证明主体,但是对于人工智能关键信息可能由于自己技术知识的缺乏或者生产者出于利益考量而不予提供。基于此,可以借鉴民事诉讼的诉讼举证规则。由受害者提出侵权事实证明,而生产者应当提供黑箱子记录事实,如不提供或者有采取毁坏的事实,则在法律上推定其承担过错责任不利后果,这也促进了生产者加快黑箱子记录的使用进度。此外,黑箱子一般会涉及人工智能核心技术的透明度问题。对于存在商业秘密的黑箱子记录仪,举证事实经过司法机关的审批,应该秘密进行。黑箱子信息记录与信息隐私保护有关,国外在自动驾驶中运用的记录仪,对乘车人的身份信息以及路线计划都进行了隐私保护,因此在查明事实的基础上也应该注重个人信息保护。关于人工智能黑箱子证据的举证,由于我国采取的是公开审判,对于双方在侵权案件中的举证程序,可以在坚持公开基本原则之下采取变通的方式,如由合适的当事人在场共同进行质证、单独质证。

(三)事前与事后双重监管

对于新型智能产品,有关部门在初期就应该采取严格的管控措施[15]。事前监管主要指人工智能产品投入正式使用这一阶段。我国公司采取公司登记制度,行政许可也采取许可登记的前置程序,不仅是对行政管理的便利,也是出于对市场秩序的安排。事前监管可以采取登记制度,公司登记即对法人进行法律上的承认,虽然近些年来对公司登记事项相关内容有所放开,但不可否认的是,在公司发展初期,通过相关的登记制度为公司在市场中的主体地位打下了坚实的基础。人工智能在早期发展阶段特别是新型人工智能大量爆发的阶段,离不开法律的监管,人工智能未来发展势头虽然势不可挡,但是人工智能依然有其自身的缺陷。登记准入制度首先确保为市场输入合法的人工智能资源,行政前置的筛选虽然看似程序复杂,但是初期阶段的“谨慎”是人工智能市场秩序和谐的重要保证。由于人工智能主体资格存在较大争议,在现阶段采取由所有者登记制度,登记内容主要为人工智能技术特征以及适用范围,若要推动人工智能发展到高智能时代,赋予其独立人格不妨是一个较好的选择。与公司独立财产制度相区别,由于人工智能本身可能涉及知识产权价值,价值即本身,赋予其主体资格并不意味着责任承担就不可落实。而最后也可以借用劳动者与用人单位条款进行归责,不过又要分清职务行为和非职务行为。事后监管主要指的是类似于食品药品侵权事件的追回制度,人工智能不可避免会发生侵权纠纷,但事后追回依然可以弥补损失[16],这就要求相关主管机关对其管制或设置专门的人工智能机构。我国在刑事、民法领域的惩罚制度较多采用的是事后追惩制度,一方面是出于对市场自由的保护,另一方面也为了顾及违法者对市场规则的违法代价。事前与事后监管是行政对市场的适当干预,虽然市场经济主张由市场配置,我国当前行政领域也在大力提倡简政放权,但是在人工智能发展初期,适当监管具有较大的优势:一来保障了人工智能准入制度,增加了公众对人工智能的信任度;二来也是区分责任的重要标准,符合审批制度的侵权与不符合审批制度的侵权应该区别对待,鼓励设计者以及所有者加强自身责任管制。

(四)设立人工智能管理委员会

人工智能侵权问题会随着领域适用范围的不断扩大逐渐突出。我国在倡导市场自我治理的同时,也逐步形成了政府适当干预经济发展治理模式的共识。我国行政权力呈中央与地方多层级分布形式,为人工智能管理委员会提供了地域适应基础。在经济较发达的地区不妨设立人工智能管理委员会,对人工智能业务的开展进行监管。我国传统的体制结构倾向于将人工智能归入单独的政府部门或其他行政机构进行管理,但是人工智能侵权往往具有自主性和复杂性特点,对机构人员的业务水平要求较高。基于此,通过加强人工智能专门人才的建设,为专门委员会奠定人才储备基础也是应有之义。与事前登记和事后惩罚措施相比,专门委员会的设立侧重于对职能部门的结构调整,后者侧重于加强监管力度。对人工智能本身发展而言,在初期阶段就引入政府治理的监管方式显得更为合理。行业协会等非政府治理的方式在监管执行力以及财政支持力度等方面都不及政府治理的效果。当然,这并不意味着就否定行业协会等组织的参与。相反地,政府在设立人工智能专门委员会进行监管的同时,应该集中各种社会力量,共同促进人工智能的健康、可持续发展。

也有学者认为人工智能管理委员会的建立不具有可行性。他们认为在弱智能时代启用专门管理委员监管会是对政府资源的浪费。但是笔者认为加强行政监管不仅不会多余,更是对政府机构设置的优化调整。我国当前的侵权体系虽然遭受冲击,但是在当前阶段并没有较大影响。笔者认为,人工智能发展趋势不可逆转,法律上的未雨绸缪是为人工智能发展奠定基础的制度保障。不仅如此,侵权问题是民众对人工智能发展的担忧所在,设立行政专门管理职能部门进行指导与监管也是对民众的利益保护。

(五)加强赔偿保障建设:商业保险与智能基金

侵权责任法的目的除了法律上的归责外,更重要的是损害填平。因此,赔偿制度的建立对人工智能的发展有利。特别对于小微企业、新型企业而言,人工智能侵权损害赔偿之后可能面临日常经营难以维持。为了促进人工智能带动经济的发展,协调自身与侵权之间的矛盾,欧盟在《机器人民事法律规则》①《机器人民事法律规则》:2016年1月12日,欧洲议会法律事务委员会就来自欧洲社会党/社会民主党党团的M ady D elvaux 议员所提出的《关于建请欧盟委员会修改有关机器人的民法规则的报告草案》进行了表决,会后形成决议。引入的保险以及基金制度是规避风险的很好选择。商业保险的引入降低了小企业以及新型企业投资的风险,特别对于侵权后,由于司法判决需要经过审判程序,对受害者可能救急不及时,但保险承担者最终都保险责任[17],可以采取先行支付制度,对受害者进行先行救济。商业保险一般为自愿行为,笔者建议采取强制保险的方式对其进行规制。我国当前对人工智能产品的商业保险依然是依附于传统的财产保险进行投保与理赔,为了进一步促进人工智能产业规模的推广及提供安全保障,保险公司不妨设立专门的针对人工智能产品的商业保险,不仅有利于保险公司业务的增长,也是对创业者的财产保障。除此之外,由于商业保险需要人工智能所有者具备较高自主性及配合度,在社会覆盖率以及普及率上存有欠缺,而专门的人工智能基金专项计划也可以建立起来。智能基金不仅依靠行业协会的共同努力,也需要政府的不断推进。除了采取专门归类管理或者单类管理外,该基金会需要接受社会管制,实现信息的透明化监督。人工智能大多运用于高科技领域,侵权损害一般影响较大。智能商业保险与智能基金是风险规避的合适方法,同时也加强了对受害人的保护。

(六)引入人工智能侵权免责事由

出于对人工智能促进经济的考虑,应该在法律保障层面为其奠定上层建筑基础。同时出于对受害人的保护,法律应该使无辜者得到损害赔偿。这两者又经常出现于一个侵权事故中,当两者发生价值取向的冲突时,正确的做法应该是引入价值平衡理论。人工智能侵权问题依然适用责任免责事由。在当前阶段,人工智能尚不具备独立的意识,我们尚且引入已有的现行法规对其进行免责事由的规定。人工智能广泛应用的依然是产品条款,与其物质载体属性息息相关。人工智能作为一项新兴技术,引用产品的免责事由主要发生于未将产品投入流通领域。人工智能技术从研发到投入市场需要反复进行性能测试,但是侵犯商业秘密行为屡见不鲜,生产者或者经营者未将产品投入流通领域发生的侵权行为若进行归责,无疑是对人工智能积极性的极大挫伤。此外,投入流通时,若引起损害的缺陷尚不存在,或者投入流通时的科学技术尚未发现缺陷的存在也会构成免责事由[18]。我国人工智能发展战略刚刚兴起,依然处于弱人工智能时代,技术的现实困境不可避免。就智能汽车为例,虽然智能汽车的目标是实现完全自动化,但在我国依然处于试行阶段,具体而言即无自主阶段以及辅助阶段。随着有条件自动驾驶、高度自动驾驶阶段的深入,赋予人工智能免责事由是促进人工智能当前发展的应有之义。对于受害方,除了引进赔偿保障的智能基金和商业保险外,特别在侵权举证方面,法院在必要的时候可以行使职权进行调查取证,以避免司法实践中出现大量普通公民证据意识薄弱从而导致自己程序上的败诉结果。因此,人工智能侵权责任认定,既要考虑到人工智能生产者层面的免责事由又要顾及受害者在侵权事实举证方面的弱势地位。

四、结语

作为最近热点话题,人工智能已经涉及各个领域,对法律的渗透也是多方位的。民法典的制定、公司法治理结构都会不断调整,人工智能对侵权责任法的构建将会是全方位的,不仅仅是侵权责任体系的基础构建,包括侵权责任的具体认定手段,在很长一段时间内都离不开人工智能的作用。由于无法在短时间内制定全球范围统一的法律规则,目前主要是集中于发达国家对运用较广的自动驾驶以及机器人的研究,参考资料也是围绕一些指导性案例,关于人工智能在强人工智能时代(甚至发展为超人工智能时代),将会对侵权责任法产生更大的冲击,会有更多的法律问题显现出来,将来更需要进一步的研究。

猜你喜欢

人工智能责任法律
法律解释与自然法
使命在心 责任在肩
每个人都该承担起自己的责任
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
让人死亡的法律
“互助献血”质疑声背后的法律困惑
期望嘱托责任