APP下载

关于人工智能侵权的责任主体研究

2019-06-15余永悦陈燕徐颖

青年时代 2019年12期
关键词:归责原则人工智能

余永悦 陈燕 徐颖

摘 要:自人工智能出现,人工智能的“侵权”事件随之而来,但侵权责任的承担主体在法律上的规定并不明确。人工智能的不同学说——工具说、代理说、有限人格权说等学说的不同,使得人工智能法律地位仍处于不确定的状态。现行立法也没有对人工智能侵权主体作出规定,通常由所有人承担侵权责任,但这对所有权人并不公平。为进一步明确人工智能侵权责任主体,本文拟从人工智能的法律人格和归责原则等方面探究人工智能侵权的主体问题。

关键词:人工智能;法律人格;侵权主体;归责原则

人工智能出现以来,虽然给人类带来便捷,但也产生了一系列的侵权事故。从1978年,日本广岛的摩托车厂机器人突然转身将其背后的工人抓住并切割;到2018年美国亚利桑那州无人驾驶汽车Uber试行导致骑车妇女死亡事件。人工智能在世界各地以人类看得见和看不见的方式持续着人工智能的“侵权”事件。人工智能造成的侵权损失等需要赔偿,故侵权责任主体的确定可以使人工智能造成的不稳定的侵权状态得以停止以及法律空白得到明确。但人工智能侵权主体的研究,意味人工智能的法律地位解释问题。

一、关于人工智能的法律人格问题

关于人工智能的是否具有法律人格问题,现行的学说有工具说、代理人说、电子奴隶说以及有限人格说。但是大部分学说还是不承认人工智能的法律人格问题,而本文的观点也是如此,本文将从两方面论述人工智能无法律人格的观点。

首先,是学界最常讨论的问题。法律主体、客体的分类。这个划分是以对象是否具有精神,或者思想为前提。而有人认为,人工智能拥有独立行动、签订合同、做出决策等智慧性的行为,主张其具有一定的思想或者独立的意思表示。但是,人工智能的工作原理并不能完美解释该观点。我们知道,人工智能的工作原理是其内部的编程和复杂算法。其行为服从于没有任何思想或意思的一些数字,而非精神或者思想。其看似自主决定的“智慧型”行为则是遵从运算的一种表现,而非有无数自我选择的抉择。

其次,从法理上来说。民法上的法律人格要求要求具有一定的权利,履行一定的义务为前提。是权利能力和义务能力相统一的要求。但并非认为权利能力和行为能力必须同时具有,而是认为是两种不同的解释角度。如民法上将法律主体规定为自然人和法律拟制的人(如法人)。对于自然人,法律规定其出生就具有法律人格,甚至对未出生的胎儿也有一定法律人格的保护。对于自然人其就单纯从权利能力的角度解释即可,而其行为能力不作要求,只对后期法律责任承担方面有影响。而对于法律拟制的人,如法人的法律人格问题是由有关部门审核过后就有法律人格,本文认为这种法律人格的赋予是基于其可能的行为能力以及背后出资人等人的权利能力为后盾的。法人的是具有意思表示的,是代表全体股东或者成员的共同意志,并有一定的资金作保障。而人工智能并没有所谓的权利和义务,也没有独立承担民事后果的能力。从这个方面看,人工智能也无法作为法律主体从而拥有一定的法律人格。

本文认为人工智能就是智慧型的工具,其通过算法、编程,可以从编程或算法中,结合事先输入的情形,进行不同的智能行为。其行为是为实现特定目的,也是工具的用途。而并非独立的意思表示。

二、人工智能侵权的归责原则

人工智能作为工具的一种,其属于产品。但本文认为,其不能简单适用于《中华人民共和国产品质量法》(以下简称《产品质量法》)。原因在于人工智能即使作为工具而言也是一种智能的、复杂的、出现故障难以控制并且具有一定危险性的。所以其不能简单适用《产品质量法》的归责原则,仅仅对设计者、生产者、销售者进行追责,且对不是由于人为原因产生的人工智能故障致使侵权事件的责任问题也需要进行规定。

(一)对于人为原因造成人工智能侵权事件的归责原则

对于生产者、销售者,其应当按照《产品质量法》的规定承担人工智能产品缺陷侵权事件的赔偿责任。但是,对于人工智能产品来说,其技术具有极大的复杂性,即使认为人工智能的质量有问题,很多人也是无从证明。而且对于人工智能缺陷问题的举证也是尤为困难。人工智能產品并没有制定相关的国家、行业标准。根据《产品质量法》第46条的相关规定,则需要受害人对于人工智能产品本身存在不合理的危险进行举证。但这对于无法获得或者理解人工智能数据的受害者来说,举证责任过于严苛。

对于这个问题,本文建议可通过立法进行数据、记录留存工作(如黑匣子)。将人工智能的初始设计数据由特殊政府机构留存,在发生主张人工智能缺陷后,经审核需要原始数据的演示、调查后,提供该证据,确定生产者、设计者的数据是否存在原始缺陷。但是该环节的商业秘密信息的安全性、秘密性也是一个需要关注的重要问题。此外,对于举证责任问题。如果让受害人承担举证责任则很难实现诉讼目的。本文认为应当修改举证责任问题,让受害人承担初步举证责任,即侵权事件是因人工智能产品造成,且和自己的行为无关。后续责任由使用者、销售者、生产者依次进行举证。生产者和设计者需承担严格责任,即无过错责任。该做法可能会一定程度上打击研发者的积极性,不利于技术的创新。是否让生产者设计者赔偿全部损失?该问题会在下文继续研究。

对于销售者和使用者来说,由于其对于人工智能的实际控制可能性比较低,并不能像生产者和设计者那样,充分了解人工智能的原理。其对于人工智能产品侵权事件承担过错责任。即销售者在销售过程中没有遵守设计说明等要求造成人工智能产品质量缺陷;使用者在使用过程中不按照使用说明操作,或者私自改装、调试等行为造成缺陷的,均承担过错责任。

(二)对于无过错方的人工智能侵权的归责原则

对于生产者、设计者设计生产均无问题,销售者、使用者也无任何过错行为。但由于人工智能本身出现技术问题。这时,如果采取“技术中立原则”即技术本身不产生责任,对于受害人而言是不公平的,受害者的利益也无从保障。

对于该问题,本文建议采取欧盟立法中的强制责任保险或者赔偿责任基金的的做法。欧盟立法该做法是为了转移生产者的赔偿负担,从国家财政拨款、生产者、或社会捐助等来源建立基金。但是,这种目的本身就有一定的问题,在生产者无任何过错的情况下,其不应当承担侵权赔偿责任,而强制保险或赔偿基金就是为了在这种意外事件或者是不可抗力的案件中保护受害者的权益。但是,本文认为基金来源除了上述来源外,销售者和使用者也应当负担基金的一部分。本文认为基于危险性开启理论而言,销售者或者是使用者都要承担一部分的风险。故可从他们交纳的税费中划分出这部分基金金额。但是在这种也应当有国家技术支持的政策在,上文提出的生产者的责任时的赔偿是否由生产者全部承担的问题,本文认为为了支持技术发展,应由一部分的赔偿基金帮助生产者承担。但是该部分赔偿基金的来源应当只由政府财政拨款或者是社会捐赠等公共性的来源。

三、结语

对于人工智能法律人格的研究,不是单纯的民法问题,其涉及到诸多法律,如刑法、知识产权法、劳动法等等。我们不能仅仅从保护自身权益角度出发而关注人工智能的法律人格问题,如此一来,人工智能的权利保护问题如何解决,如劳动薪酬问题。尽管对于人工智能的知识产权问题欧盟和日本等方面的法律有所建议,但本文认为其保护的法益关乎知识产权社会的稳定以及排他性的体现,并非是法律人格的问题。因此,人工智能在现代社会也只是作为工具的智慧型作品,而并不具有法律人格。

参考文献:

[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(05):128-136.

[2]杜严勇.论机器人的权利[J].哲学动态,2015,(8):83 -89.

[3]张保生.人工智能法律系统的法理学思考[J].法学评论,2001(05):11-21.

[4]袁曾.人工智能有限法律人格审视[J].东方法学,2017(05):50-57.

[5]刘小璇,张虎.论人工智能的侵权责任[J].南京社会科学,2018(09):105-110+149.

猜你喜欢

归责原则人工智能
我校新增“人工智能”本科专业
人工智能与就业
高校在大学生伤害事故中的民事法律责任研究
关于经济法责任的归责原则分析