APP下载

人工智能工作物致人损害民事责任探析

2019-02-21环建芬

关键词:民事责任主体机器人

环建芬

自人工智能诞生以来,其理论和技术日益成熟,应用领域也不断扩大,但与此同时也出现了一系列因运用人工智能引发的事故。如特斯拉无人驾驶汽车发生致人死亡的车祸。又如2000年美国研发的外科手术机器人在使用时,导致部分患者烧伤、切割伤或者感染等,其中还有89 位患者死亡。2016 年中国有台名叫小胖的机器人,在深圳召开的国际高新技术成果交易会上,忽然发生故障,当场砸坏了展台玻璃,致使展台旁的一人受伤。前述事件,引发了公众对于人工智能的恐慌和专家学者对相关法律法规完善的思考。可是与之有关的法律制度未能跟上该技术推进的步伐,不少法律规则缺位,为此,开展人工智能相关法律内容的研究非常必要。从民法视角观察,“在技术的发展过程中,人工智能的法律地位、法律责任、权利义务范围等法律规制该如何界定?”[注]袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。这一问题是目前法学界需要重视的,其中人工智能产品致人损害是否需要被问责的问题,也是一个较大的法律挑战。[注]伦一:《人工智能治理问题的初步思考》,https://www.sohu.com/a/211997022_100044418,最后访问时间2018年2月22日。据此,引发了笔者对人工智能工作物致人损害民事责任问题的关注。

关于人工智能工作物致人损害民事责任问题中有不少方面值得研究,本文集中以下三个方面讨论,即责任主体的辨析、民事责任的特点包括是否存在民事责任竞合问题和民事责任的归责原则与分担机制,这三个方面是围绕如何确认和适用人工智能工作物致人损害民事责任的一条逻辑线索展开的。

一、人工智能工作物致人损害民事责任主体辨析

人工智能工作物致人损害民事责任主体问题的争议点主要为,是人工智能致人损害还是人工智能载体致人损害?人工智能载体是主体还是客体?这两点是认定这类民事责任承担者问题的关键。

第一,人工智能致人损害还是人工智能载体致人损害?近期,笔者从中国知网上查询了70篇有关人工智能与法律的文章。以民法为例,如《人工智能时代对民法学的新挑战》[注]王利明:《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期。、《人工智能技术对民法的影响》[注]刘雪婷:《人工智能技术对民法的影响》,《法制博览》2016年第5期。、《人工智能有限法律人格审视》[注]袁曾:《人工智能有限法律人格审视》。、《智能机器人法律人格问题论析》[注]孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。、《“电子人”法律主体论》[注]郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期。等,人们关注的问题均是人工智能技术发展对民法带来的挑战、人工智能的法律地位等,对此笔者没有异议。但是从民事责任角度思考,究竟是人工智能致人损害还是人工智能的载体致人损害?也就是一项技术致人损害还是一项技术的载体致人损害?这是必须明确的问题。笔者认为,应该是后者。因为人工智能是技术,技术必须通过一定载体进行运用,才能展示和体现其具体内容,当然在运用过程中也会致人损害。人工智能技术运用的载体可以是无人驾驶汽车、手术机器人、车间工作的机器人、代替家务劳动的厨房机器人或保洁机器人等,这些机器人均是人工智能技术的载体。

故此,人工智能仅作为一项技术,不通过一定的载体运用,不会发生致人损害问题。鉴于目前人工智能的运用载体具有多样性,而学界和实务界又没有一个较统一的说法,笔者在写作此文之初曾反复琢磨该载体较合适的语言表述。作为人工智能技术运用的载体,应该是通过人工智能技术生产、制造出的产品,如机器人等,当这些技术载体处于工作状态时才会发生致人损害事件,非工作状态一般应该不会致人损害。受中国一些学者研究成果[注]如“土地工作物及树木等致人损害责任”,参见张新宝:《侵权责任法原理》,中国人民大学出版社2005年版,第447页。又如“工作物致人损害的责任”,参见汪渊智:《侵权责任法学》,法律出版社2008年版,第432页。的启发,本文启用了“人工智能工作物致人损害”一词,将人工智能工作物致人损害责任作为主题内容加以探讨。

第二,人工智能的性质。[注]根据笔者在第一部分的观点,这里应表述为“人工智能工作物的性质”。但基于尊重引用论文的原有表述,故这里依然表达为“人工智能的性质”。关于人工智能的性质,主要观点有工具说、电子奴隶说、代理说等。[注]参见袁曾:《人工智能有限法律人格审视》。工具说的观点是,人工智能作为一项技术,其实质是为人类提供服务的工具,它没有独立的意思表示能力,为此,不认为人工智能具有独立法律人格。电子奴隶说的观点是,人工智能不具备自然人特殊的情感和肉体特征,它有行为能力可是无权利能力。代理说的观点是,人工智能的所有行为均为人类所控制,其实施的行为与引起的后果最终必须由被代理人承担。有学者[注]袁曾:《人工智能有限法律人格审视》。认为,前述观点都有各自的不足。工具说没有关注到,随着技术发展,人工智能已经可以做出独立的意思表示。如特斯拉公司生产的电动汽车,已经能够进行独立自主的选择判断。故其工具属性早已不是传统意义上的、无意思表示能力的工具属性。电子奴隶说其实是延伸了工具说,它否认人工智能的独立主体地位。而代理说没有体现作为民事主体承担责任的公平性问题。针对以上情形,有学者指出,人工智能已经具备了高度智慧性和独立的行为决策能力,它不同于传统的工具或者代理人。在现实条件下,将人工智能定义为具有智慧工具性质又可做出独立意思表示的特殊主体较为妥当。[注]袁曾:《人工智能有限法律人格审视》。也有司法实务部门的专家提出,在当前弱人工智能环境下,人类相对机器处于绝对控制地位,但是不能忽视人工智能具有可深度学习、可自我进化的特点,不能排除其进化出主体意识的可能。[注]林竹静:《第三届上海青年法学创新论坛综述》,《上海法学研究》2017年第6期。

对于前述对人工智能的性质所持的观点,尤其是将其界定为“独立意思表示的特殊主体”值得探讨,因为它涉及人工智能工作物究竟是主体还是客体的问题。

从学理层面分析,一般而言,民事主体“是指参加民事法律关系,享有民事权利、负有民事义务和承担民事责任的人”。[注]魏振瀛主编:《民法》,北京大学出版社、高等教育出版社2017年版,第32页。根据《中华人民共和国民法总则》规定,民事主体包括自然人、法人和非法人组织。要成为民事主体应当具备以下条件:名义独立、意志独立、财产独立、责任独立。即自然人、法人和非法人组织都是以自己的名义从事民事法律行为,按照自己的真实意思,自愿参加民事活动,对其拥有的财产享有完全的、排他性的权利。因某一民事主体的行为致人损害,该民事主体必须自己承担法律责任,而承担责任必须具有一定的责任能力。而责任能力是指“对于自己行为之结果,有识别之精神能力”;[注]史尚宽:《债法总论》,中国政法大学出版社2000年版,第113页。其次,责任能力也有“过责能力”之称,即由于自己的过失而承担责任的能力。[注]史尚宽:《债法总论》,第113页。人工智能工作物虽然具有直接致人损害的客观事实,但因为缺乏人类思维的识别能力,为此不具备责任能力,而“无责任能力者之行为因而不得使负义务”。[注]史尚宽:《债法总论》,第113页。

作为人工智能工作物,如无人驾驶汽车、手术机器人等,它们能否成为权利主体?对照前述民事主体的条件,是否完全匹配?2017年7月,北京市五环路上行驶无人驾驶汽车引发人们热议,交警部门认为,此举不符合《中华人民共和国道路交通安全法》的规定,因为这涉及驾驶者的资格问题。当然,也有一些学者提出,人工智能的迅猛发展正在迅速改变人类社会的经济形态、社会交往模式和政治-法律结构。起源于农业社会的“现代”法律体系,能否成功应对人工智能所带来的新风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡?[注]郑戈:《工智能与法律的未来》,《探索与争鸣》2017年第10期。言下之意,一些现有的民法理论和观点会随着人工智能的发展面临极大的挑战。

就语义和逻辑层面而论,人类基于科技的发展,运用相应的手段以及工具模仿等方式生产、制造了人工智能,其意图是提升人类工作和生活能力。据此反映人工智能的特点是,它不是一般意义的自然人,但它具备人的一些要素;智能是它的重要特质,可是始终需要人工的设计以及编制程序。[注]刘云生:《人工智能的民法定位》。为此,针对前述人工智能工作物能否成为致人损害民事责任主体的争议,笔者持否定观点,理由如下:

其一,人工智能工作物不具备独立意志。有文章提出,“具有人类独立思考与深度学习的能力是人工智能与其他科技最大的差异”。[注]袁曾:《人工智能有限法律人格审视》。事实上,就现有的技术发展看,人工智能所有的“独立思考能力”和“深度学习能力”均是通过人工的设计、制造、生产及其安装成人工智能工作物,而后开启人工智能工作物程序才具有的,人们若不开启人工智能工作物的程序,它就不会有这些能力。作为人工智能的“机器尽管可以下棋、回答问题,但对跨领域情境的随机应变能力很弱,对彼此矛盾或含糊不清的信息不能有效反应(缺少必要的竞争冒险选择机制),主次不分,综合辨析识别能力不足,不会使用归纳推理演绎等方法形成概念或提出新概念,更奢谈产生形而上学的理论形式”。[注]刘伟:《关于人工智能若干重要问题的思考》,http://www.xzbu.com/1/view-7310462.htm,最后访问时间2018年2月22日。所以,“人与机器在语言及信息的处理差异方面,主要体现在能否把表面上无关之事物相关在一起的能力。尽管大数据时代情况可能会有所变化,但对机器而言,抽象表征的提炼亦即基于规则条件及概率统计的决策方式与基于情感感动及顿悟冥想的判断(人类特有的)机理之间的鸿沟依然存在”。[注]刘伟:《关于人工智能若干重要问题的思考》。有专家指出,“人工智能技术中的计算应该是外界环境、机器和人的认知感知器共同作用的结果,三者缺一不可”。[注]刘伟:《关于人工智能若干重要问题的思考》。由此说明,单独的人工智能工作物不存在真正的意思能力,“只有具有诉求-回应-言说三大能力者,始能成其为‘人’。人工智能本身是人类理性的产物,但绝不可能具有人类的理性诉求和表达,更不可能有积极的自我认知能力和情感、意念产生、输出机制”。[注]刘云生:《人工智能的民法定位》。“‘他们’是忠实的程序执行者”[注]刘云生:《人工智能的民法定位》。“‘他们’仅仅是一种媒介、工具,是遵循程序、指令而为的被动行为,不具备自我认知能力,更不具有独立为意思表示的能力”。[注]刘云生:《人工智能的民法定位》。也许有人会提出,法人和非法人组织的成立不也是有人操作的,但是所有法人、非法人组织都是由人组成的相关机构在运作,如法人是法人机关、合伙是全体合伙人等在经营管理,这一点与人工智能工作物没有可比性。

其二,人工智能工作物不能独立拥有财产。这里不讨论人工智能工作物作为权利主体是否规定在民法中,仅仅从客观状况考察,人工智能工作物不具备权利主体的基本要求。所谓权利主体,即“权利的所有者和义务的承担者”。[注]卡尔·拉伦茨:《德国民法通论(上册)》,王晓晔等译,法律出版社2003年版,第255页。人工智能工作物不能像一般民事主体那样可以通过劳动、继承或赠与等方式获得财产,其名下始终不会有财产归属。即便有财产赠与人工智能工作物的名下,它也没有能力自主支配和使用,它需要人帮助管理和运行。

其三,人工智能工作物不能独立承担法律责任。法律责任包括刑事、民事、行政责任,包括行为受限的责任和财产责任,即便其直接致人损害的后果很严重,因为人工智能工作物就其本身而言没有责任能力,则无法承担法律责任。尤其是民事责任,其名下没有独立财产,故无法承担责任;即便有财产,其因为缺乏自身主观意志也没有能力去支配财产。

其四,基于法律关系缔结的角度产生异议。从民法理论角度观察,要成为责任主体,就必须属于民事法律关系的主体。实践中,一些现象的出现使现有的民法理论面临挑战甚至颠覆。如沙特阿拉伯成为世界上第一个授予机器人“索菲亚”公民身份的国家。[注]http://tech.sina.com.cn/d/i/2017-10-27/doc-ifynfvar4425645.shtml,最后访问时间2018年3月10日。又如2016 年2月,美国加州地区当地的高速公路安全管理局因为一辆谷歌无人驾驶汽车与一辆巴士碰擦,据此认为,依照美国联邦法律,当人工智能系统用于自动驾驶时,该系统可以被看作司机。这些现象似乎告诉人们,民事主体既可以是人类个体,也可以是人工智能系统或工作物。果真如此吗?即便这些机器人或系统能成为民事主体,它能与人类等同吗?它与人类个体能直接缔结民事法律关系吗?如果能,法律关系的权利义务如何设定?如何体现法律关系主体之间的法律地位平等性?如果不能,此类所谓的民事主体存在的意义何在?

另外,从前述罗列的案例中发现,人工智能工作物致人损害事件的发生绝大部分是在人类非掌控的状况下,即使法律赋予它民事责任主体资格,它也不会就此考虑人类安全而不出现风险,风险该存在还是存在。人类不能为了图便捷而将所有工作、生活的事务绝大部分甚至全部交给这些人工智能工作物,从而使自己处于不安全的环境中,这将造成人类研究人工智能的悲哀。至于说“人工智能具有可深度学习、可自我进化的特点,不能排除其进化出主体意识”,笔者认为,这涉及人类在发展人工智能技术过程中,是任由人工智能无限发展还是让人工智能为人类服务而控制其发展的问题,是人工智能进化出一定程度的主体意识是否有利于人类生存的问题。若有利于人类生存,即便人工智能具有一定程度的所谓主体意识,也不能真正等同于人类,故也不可能成为民事主体。

故此,基于人工智能工作物的自身特性,它不能成为致人损害的民事责任主体,只能定性为权利客体,即“支配权和利用权的标的”[注]卡尔·拉伦茨:《德国民法通论(上册)》,第377页。以及“权利主体可以通过法律行为予以处分的标的”,[注]卡尔·拉伦茨:《德国民法通论(上册)》,第377页。它们可以被相关民事责任主体支配、利用和处分,即“人工智能的本质依然为工具”,[注]袁曾:《人工智能有限法律人格审视》。它归属于权利主体,而权利主体是人工智能工作物的生产者、制造者等等。

二、人工智能工作物致人损害民事责任特点梳理

人工智能工作物致人损害民事责任特点,是这类民事责任区别于一般民事责任的自身特质。认识此类民事责任的特点,是准确认定人工智能工作物致人损害民事责任的基础。根据现有人工智能的技术发展状况以及已经发生的其工作物致人损害事件的状况,该类民事责任具有以下几个方面的特点:

第一,人工智能工作物致人损害民事责任与产品责任不存在民事责任竞合情形。有学者撰文提出了一些看法,即在认定人工智能侵权责任[注]为尊重原文,故这里同样不用“人工智能工作物”而是“人工智能”。具体类型时,有可能出现两种责任类型的竞合。如使用者在使用人工智能时出现侵权行为,会出现与产品责任的竞合。[注]齐恩平、曹一夔:《人工智能视角下的民法问题分析》。笔者认为,这个问题涉及人工智能工作物致人损害民事责任的性质问题。

何谓民事责任竞合?“责任竞合,实际上就是一个事实满足各种构成要件,当事人可以择一行使的情况。”[注]叶名怡:《民事责任及其竞合》,http://mp.weixin.qq.com/s?__biz=MzIxNTE1ODk4OQ%3D%3D&idx=2&mid=2650564118&sn=61b208fc8c0e999f4883a4337a88eaa4,最后访问时间2018年3月3日。“当同一生活事实受不同责任规范调整并满足其适用条件时,就发生责任规范的并存(竞合)现象。”[注]张家勇:《中国法民事责任的解释论》,《交大法学》2018年第1期。“同一违法行为虽然符合多种民事责任的构成要件,可以成立几种民事责任,但受害人只能选择其中之一而请求。”[注]魏振瀛主编:《民法》,第710页。即一个事实的发生可能同时导致两种以上责任,这些责任具有两项以上请求权分别独立存在,同时每项请求权的举证责任、成立条件、损害赔偿范围等各项内容均可以各自予以判断。基于已经存在的两项以上请求权,权利人如果要行使权利,可以选择其中之一前去主张。如果其中一个请求权因某些原因不能行使,如因超过时效而丧失胜诉权,那么另一项请求权,即时效较长的请求权,依然可以继续行驶。[注]王泽鉴:《侵权行为》,北京大学出版社2016年版,第76页。根据前述观点,民事责任竞合需要满足以下几个条件:一是同一行为符合多种民事责任的构成要件,即两种以上民事责任并存的情形,而每一种民事责任独立存在,彼此不存在重叠、包含或交叉关系,如违约责任与侵权责任;二是受害人只能选择其中之一主张请求权;三是若其中一个请求权因时效超过等原因而不能行使,则另一时效尚存的请求权仍然可以存续。人工智能工作物致人损害民事责任若考虑竞合,具有可比性的是产品责任。两者虽然不能等同,但是有明显的相似之处。如人工智能工作物致人损害民事责任中有一部分属于因工作物质量瑕疵所导致,即“必须存在某种不当行为,使该产品对接触者造成不合理的危险”,该“不合理的危险”,“是认定产品设计上的缺陷或警示不充分之缺陷的标准”。[注]G.爱德华·怀特:《美国侵权行为法:一部知识史》,王晓明、李宇译,北京大学出版社2014年版,第274页。这一点完全与产品责任吻合,其主要包括人工智能工作物生产者责任、制造者责任和销售者责任,这些均可以归属于产品责任;但是,人工智能工作物致人损害责任中有一部分不属于产品责任,主要包括工作物操作者责任、使用者责任。正因如此,两者不是两种法律责任并存,而是人工智能工作物致人损害民事责任中的一部分是产品责任。因为两者存在部分重叠关系,故无法发生竞合。那么,若这种责任不属于责任竞合,会是怎样的一种法律责任性质呢?笔者认为可以属于不真正连带责任。

不真正连带责任是指几个责任人因为不同的法律事实产生同一内容之给付,他们各自负有履行全部义务的责任,但是因某一债务人履行行为的完成,则全体债务人的债务都归于消灭。如甲租赁某一辆无人驾驶汽车去某目的地,在路途中发生交通事故,甲受伤。甲可以基于产品责任向汽车生产商等主张权利,也可以基于人工智能工作物致人损害民事责任的相关主体,如汽车租赁公司去主张权利,甲只要主张其中的一项权利,其他责任主体的债务便归于消灭。

第二,发生的原因部分与人工智能技术发展的局限性有关。人工智能工作物致人损害事件的发生大部分与人工智能技术的发展及人们对该技术的认识和掌握有一定关系。因为人工智能是新生事物,其技术尚需要不断成熟,而人们对人工智能本身的较高期望甚至依赖,使得一部分尚未完全成熟的人工智能技术被运用以至于发生事故。如1989年全苏联国际象棋比赛中,冠军击败了人工智能机器人,谁料机器人当即释放强电流造成冠军死亡。这一事件的结果与人工智能机器人在设计或制造过程中,人们对这类技术未完全了解和掌握有很大关系。而产品责任致人损害事件的发生不完全与人们对产品技术认识有关,可能是技术研究的不精细,也可能是生产或销售的瑕疵等导致产品质量问题。如车辆设计或制造缺陷发生车祸;超市出售不洁食品等。

第三,事故发生时控制程度较低、伤害的程度较大。人工智能工作物在工作时自我控制程度低,事故一旦发生,场面不易控制。如2015 年,一机器人正在德国大众汽车制造厂的车间被安装和调试,该机器人突然伸手击中安装工人的胸部,且迅速将其推向金属板上,该工人被碾压而死。又如人工智能研发的无人驾驶车辆,在驾驶中若之前设计未到位或程序输入有误,遇到马路上突发事件,该车辆发生事故的概率较高。而非人工智能工作物因为是人工操作,一旦发生事故,相比而言,人对该类工作物的控制程度相对较高。比如人工驾驶车辆,驾驶中马路上发生突发事件,一些情形下,作为自然人的驾驶员,凭着丰富的驾驶经验可能会因采取紧急刹车而避免事故发生。

另外,人工智能工作物完全是由机器人等操控,故一旦发生伤害事故,在短时间内人们始料未及,往往导致伤害程度较大,甚至发生机器人杀人事件。如1978年9月,日本广岛一工厂的切割机器人在切钢板时直接将值班工人切割致其身亡,这是世界上第1宗机器人杀人事件。而一般的产品致人损害事件有相当一部分属于人工操作,发生事故时,人工有时可以控制,故伤害程度相对较小。

第四,责任主体涉及的范围较广。一般产品责任承担的前提是产品质量存在缺陷,如设计上的安全隐患、生产或制造中的安全隐患、销售中的安全隐患等;而根据前文所列,人工智能工作物致人损害民事责任的承担,其产品质量存在缺陷仅是其中一个类型,即使产品发明和设计、生产和制造、销售均不存在问题,因操作或使用不当也会致人损害。为此,人工智能工作物致人损害民事责任适用范围比一般产品责任的适用范围更广泛。

目前,对于非人工智能产品致人损害的民事责任,根据中国现有的法律规范体系,从一般意义上看基本包括两类:属于产品质量瑕疵问题的,适用《产品质量法》;使用工作物致人损害的,适用其他相关法律。如驾驶员在车辆行驶中致人损害,按照交通肇事相关法律法规处理,如《侵权责任法》《道路交通安全法》等;医疗方手术中致人损害,按照处理医疗事故相关法律法规处理,如《侵权责任法》《医疗事故处理条例》等;在生产、作业场所中违反有关管理规定致人损害,按照有关具体操作责任事故相关法律法规处理,它们主要包括各个行业的规范,如建筑施工行业规范等;家用产品致人损害,按照一般侵权法等相关法律法规处理,如《侵权责任法》等。前述所列的各种致人损害事件发生的产品如果是人工智能工作物,其致人损害事件发生的原因包括工作物质量有瑕疵、指示有瑕疵、销售有瑕疵、操作有瑕疵等。从已经公布的案例中发现,无论是什么原因,都可能致人损害。故笔者提出,前述事件的责任可以按照人工智能序列一并规范,即都属于人工智能工作物致人损害民事责任。之所以如此划分,笔者考虑,人工智能属于新事物、新技术,凡其工作物致人损害民事责任将其从法律上一并归类,可以对其加强监管,尽量避免或减少在技术发展和使用中对人类伤害性事件的发生;而一般非人工智能产品致人损害事件的发生则依然可以更加具体化。

前述四个特点中的第二、第三个特点,其责任主体是制造者、销售者的,其责任类型上与产品责任相同,但具有了人工智能工作物致人损害民事责任的特点。这些特点,一般的产品责任是不具备的。

三、人工智能工作物致人损害民事责任归责原则和分担机制思考

人工智能工作物致人损害民事责任归责原则和分担机制的确认,涉及责任规则的适用问题。

1.人工智能工作物致人损害民事责任归责原则

目前,人工智能工作物致人损害民事责任归责原则主要考虑过错责任原则和无过错责任原则。这两项原则的法律意义不同,过错原则对个人主观方面有所要求,体现民法的公平原则;无过错原则是从整个社会利益之均衡、不同社会群体力量之强弱对比,以及寻求补充以息事宁人的角度来体现民法的公平原则。[注]张新宝:《侵权责任法原理》,中国人民大学出版社2005年版,第36页。另外,认识人工智能工作物致人损害归责原则可以考虑两个方面的情形:

第一,能直接分清责任的情形。这里包括两种情形,即适用产品责任归责原则和工作物操作者或使用者责任的归责原则。

前文提及,人工智能工作物致人损害民事责任中有一部分与产品责任类似,对此,类似部分可以适用产品责任归责原则。关于中国产品责任的归责原则,《民法通则》第122条规定:“因产品质量不合格造成他人财产、人身损害的,产品制造者、销售者应当依法承担民事责任。运输者、仓储者对此负有责任的,产品制造者、销售者有权要求赔偿损失。”对此,学界一致认为,产品制造者和销售者承担的是无过错责任。《产品质量法》第41条规定:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。”《侵权责任法》第41条规定:“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。”两部法律均规定了产品生产者为无过错责任。但是《产品质量法》第42条规定:“由于销售者的过错使产品存在缺陷,造成人身、他人财产损害的,销售者应当承担赔偿责任。销售者不能指明缺陷产品的生产者也不能指明缺陷产品的供货者的,销售者应当承担赔偿责任。”《侵权责任法》第42条规定:“因销售者的过错使产品存在缺陷,造成他人损害的,销售者应当承担侵权责任。销售者不能指明缺陷产品的生产者也不能指明缺陷产品的供货者的,销售者应当承担侵权责任。”显然,这两部法律均规定了产品销售者承担的是过错责任。因为《侵权责任法》《产品质量法》与《民法通则》属于特别法与普通法的关系,因而对同一事项有不同规定时,应当优先适用特别法《侵权责任法》和《产品质量法》的规定,[注]汪渊智:《侵权责任法学》,法律出版社2008年版,第393页。即生产者和制造者承担无过错责任,销售者承担过错责任。

关于人工智能工作物操作者致人损害责任的归责原则适用过错责任原则。操作者或使用者致人损害一般是操作不当或使用不当,即操作者或使用者因过失违反操作要求才致人损害的。如厨房机器人工作程序开启时,近旁站着人或放着手致人受伤等。工作物操作者或使用者致人损害事件的发生只有是操作者或使用者失误造成的,才承担责任,这类责任基于民法对个人主观方面有所要求,故应当适用过错责任原则。

第二,不能直接分清责任的情形。这是目前人工智能工作物致人损害民事责任归责原则所面临的难题。因为“随着技术发展和算法演进,智能化产品的决策可能是难以预测、难以解释的,导致过错侵权责任的认定将变得更加困难”。[注]伦一:《人工智能治理问题的初步思考》。人工智能技术的运用为人类生活和工作带来了极大的便利,它的诞生是为人类服务。因此,在考虑民事责任的归责原则时,应该最大限度地降低此类产品带给人类的风险;同时需要顾及的是,受害人在此过程中往往处于比较弱势的地位。所以从侵权法的角度关注责任主体的行为模式,即“合理谨慎之人的标准”,“确保其可信性和由可信性带来的创造性”,高度增强相关主体的注意义务,[注]克里斯蒂安·冯·巴尔:《欧洲比较侵权法》(下卷),焦美华译,张新宝审核,法律出版社2004年版,第339页。据此,无过错责任归责原则应该得到一定程度的适用,以尽可能保护受害者的利益。

2.人工智能工作物致人损害民事责任分担机制

2015年,联合国教科文组织与世界科学知识与技术伦理委员会的报告提出“迈向新的责任分担机制”主张,即制造一个机器人,有众多专家和各部门相互合作,当机器人操作失灵造成致人损害事件,究竟谁是责任主体?报告提出的解决方案是,采用责任分担的解决路径,即让一切参与到机器人生产、制造工作中的人,包括发明人、授权人等共同分担责任。一般情形下,机器人作为科技产品,它引起的伤害,很大程度上是因为机器人制造者、销售者的主观过错引发的,包括产品上缺少警示标志以及没有尽到应有的注意义务等。如此的归责机制,会随着机器人不断的自动化、智能化被淘汰。随之,一个平衡各方相关主体,包括机器人制造者、销售者以及最终使用者的责任分担制度将会逐渐产生。[注]《解读〈联合国人工智能政策〉:人工智能导致新的伦理和法律问题》,https://www.587766.com/news4/67521.html,最后访问时间2018年2月23日。该报告提出了一个新的民事责任规则即民事责任分担机制,让参与人工智能系统有关的主体都可能被要求承担责任,但究竟如何承担?对此,笔者认为,实施该分担机制可以从以下两方面思考:

第一,从明确责任方和未明确责任方两种承担方式分类确立规则。对于这些与人工智能工作物相关的主体,若责任主体能查清的,则由责任者承担;若未明确责任方的,则相关主体共同分担责任。“人工智能的研发具有高度的秘密性与分散性、不连续性及不透明性,任何一个拥有电脑或智能手机的个体都可能参与到人工智能的开发或研制中去”。[注]袁曾:《人工智能有限法律人格审视》。具体包括人工智能系统的发明者、设计者、生产者、制造者、销售者、操作者或使用者等。如无人驾驶汽车在行驶中致人损害,若经过技术鉴定查明是制造者责任,则直接由制造者承担责任;若技术鉴定难以查明究竟是哪一方,则设计者、生产者(包括零部件和产品)、制造者、销售者、操作者等共同承担责任。

在一般产品责任机制中,未能分清责任时,生产者和制造者承担无过错责任,而销售者是过错责任;不能直接找到责任者或是因科学技术发展的局限性所导致的,只能作为意外事件处理。而在人工智能工作物致人损害情形下则与此不同,对于不能分清责任以及技术局限所导致的,相关主体共同分担责任,且按照无过错责任归责原则处理。这一规则确立的主要意图之一是让所有参与人工智能系统的主体增强预防性的责任意识,在每一个工作阶段都尽可能地采取安全措施,并尽可能“在预防自己实施不可接受的风险行为之成本与支付此类成本之间做出现实的权衡”。[注]G.爱德华·怀特:《美国侵权行为法:一部知识史》,第269页。当然,在分担机制的适用方面,基于人工智能技术认定的要求高,为此应重视责任确认的证据,关注其数据的保留,尽可能留存所有参与人工智能系统开发和生产以及制作的相关数据。

第二,适用强制保险机制。作为人工智能工作物,其技术要求高,与一般人工工作物操作相比,其发生事故时的可控状况可能较差,故风险较大;同时,即便前述分担机制能将责任风险分散,但毕竟各方主体承担风险能力有时还是有限的。为此笔者同意一些学者的观点:人工智能工作物投入使用前应强调保险机制的实施,即“强制投保责任保险”。[注]袁曾:《人工智能有限法律人格审视》。这项机制,作为人工智能工作物致人损害民事责任分担机制的一项补充性措施,具有重要意义。2016年,英国议会在提出无人驾驶汽车法律责任议案中指出,在驾驶者将汽车控制权完全交给自动驾驶系统时有必要为其提供保障。人工智能工作物致人损害民事责任强制保险机制是非常具体化的,需要深入研究,鉴于本文的主题内容和篇幅,该内容在此不做展开。

猜你喜欢

民事责任主体机器人
论自然人破产法的适用主体
民法总则规定民事责任的必要性及内容调整
技术创新体系的5个主体
民事责任能力问题的探讨
民法总则规定民事责任的必要性及内容调整
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体
机器人来帮你
认识机器人
机器人来啦