人工智能产品侵权责任研究
2021-01-14□文/高文
□文/高 文
( 河南财经政法大学 河南·郑州)
[ 提要] 人工智能技术的广泛应用给现有法律框架带来新的挑战,当人工智能产品造成侵权,其所面临的民事责任认定及后果承担面临若干法律疑难,包括人工智能产品能否成为独立责任主体、因果关系查明困难、过错责任原则难以适用等,这是我国传统法律制度面临的新问题。 为了更合理有效地应对这些问题,建立人工智能国家标准或行业标准、建立人工智能强制保险制度、建立数据留存机制等都是可适用的法律方案。
一、引言
近十年来,人工智能技术发展迅速,在多个领域取得了重大进展,从最开始的智能语音输入,到后来的智能家电,到现在的自动驾驶汽车,人工智能的广泛应用,给人们带来便利的同时也带来了担忧。与传统法律不同,人工智能没有自己的思想意识,不能作为传统法律上的“人”来接受法律的管制,于是,如何对人工智能进行法律上的监管成为了各国共同的难题。美国、欧盟等国家和地区均颁布了各自的“人工智能战略”,同时开始探讨人工智能发展后可能面临的人格、隐私、侵权、产品责任等问题。我国也于2017 年将人工智能的发展规划上升至国家战略的层面,明确了人工智能发展的总体思路、主要任务及目标。随着人工智能产品的逐渐普及,人工智能产品侵权责任分配也成为了一个不容回避的法律问题。当人工智能产品造成侵权,谁应成为侵权责任承担主体?认定责任主体后,其责任又应如何分配?这都是我国目前的法律规定未妥善解决的问题。
二、人工智能侵权的司法理论分析
探讨人工智能产品的侵权责任问题主要是探讨人工智能产品侵犯他人人身、财产或精神而产生的法律责任。根据人工智能发展的阶段论,可以将人工智能分为弱人工智能、强人工智能和超人工智能三个阶段。弱人工智能实质上是人类活动的辅助工具,无独立意思表示,只能遵从人类简单的指令,比如智能空调、智能冰箱,弱人工智能阶段侵权责任研究与凭借工具侵权并无二致。强人工智能阶段,人工智能产品与人类类似,有一定的自主意识和自主行为,能够根据不同的环境做出不同的判断,在各方面能与人类比肩。超人工智能阶段,人工智能产品的各方面都比人类强数万倍,我们离超人工智能阶段还有非常遥远的距离。人类目前正处于弱人工智能阶段,已大致掌握弱人工智能,但是弱人工智能中的感知智能阶段是人类尚未攻克的难题,即如何让机器能理解会思考。虽然目前的人工智能产品没有完全的独立意识,但其行为仍具有自主性,能根据客观的情形做出相应的判断,从而实施一定的行为,一旦其行为侵犯他人人身或财产利益,应如何予以追责尚无定论。下文将结合我国《民法典》的相关法律规定,对人工智能产品侵权的责任主体、因果关系、归责原则等问题进行论述。
( 一)人工智能产品侵权之责任主体。 当人工智能产品侵权事故出现后,人们首先考虑的问题就是:谁应为这场事故承担民事责任?首先,我国《民法总则》明确规定民事法律关系的主体为自然人、法人和非法人组织这三类。虽然《民法典侵权责任编》对一些责任主体作出了特殊规定,但也未言明人工智能产品可以作为侵权责任主体。另外,鉴于我国目前正处于弱人工智能阶段,人工智能产品无独立意识,只是人类的辅助工具,这也决定了目前阶段的人工智能产品不能成为侵权责任的主体。其次,人工智能产品的使用者可能成为侵权责任主体,上文已述,目前人工智能产品只是人类的工具,使用权在人类手中,使用者完全可以借助人工智能产品对他人的人身和财产进行侵害,此种情况下,使用者当然应承担相应的侵权责任。最后,人工智能产品的生产者、销售者可能成为侵权责任主体,如果生产者和销售者明知人工智能产品存在缺陷仍然生产销售,其应当按照《民法典侵权责任编》的规定承担产品缺陷侵权损害责任。
( 二)人工智能产品侵权之因果关系。 作为侵权行为构成四要件之一,因果关系是其中最难认定的一个要件,人工智能产品侵权案件最难的也在于因果关系的认定。因为人工智能产品实施侵害的原因多种多样,可能是因为产品自身系统出错、使用者的过错、生产者的过错,等等。这些事实分别对应不同的因果关系,直接决定了生产者、销售者、使用者之间的责任承担。举例说明:2016 年,河北邯郸的高巨斌先生一纸诉状将Tesla 公司告上了法庭,高巨斌先生认为Tesla 夸大了其自动驾驶汽车的智能性和安全性,致使其子高雅宁在一起追尾事故中身亡。事故现场中,高雅宁驾驶的特斯拉白色轿车没有任何刹车痕迹,双方在庭审中就高雅宁在行驶时是否开启了“自动驾驶”功能进行激烈的辩论,后高巨斌向法庭申请,请求法院向特斯拉美国公司调取事故车辆的驾驶状态数据,并对事故发生时这辆特斯拉轿车是否开启了“自动驾驶”功能进行司法鉴定,经过半年的数据调取以及大量数据比对后,法官才认定事故发生时高雅宁的车辆确实处于“自动驾驶”状态,Tesla 面对如此铁证,不得不承认该车具有技术缺陷,此案因果关系自此明晰。但这一案件从起诉到判决花费了两年的时间,耗费了大量的时间、精力。从此案可以看出,在人工智能产品侵权案件中,证明因果关系的成立是非常不易的事情。而在因果关系明晰后,随之而来的就是责任承担问题。
(三)人工智能产品侵权之归责原则。 提到责任承担,首先要考虑的是归责原则。我国《民法典》第一千一百六十五条和第一千一百六十六条规定了我国侵权归责原则是过错责任原则和无过错责任原则相结合且以过错责任原则为主的归责体系。结合前文所述,人工智能产品不属于民法总则规定的民事法律关系的主体,不能成为侵权责任主体,既然人工智能产品不是侵权责任主体,自然也不用承担侵权责任,归责原则无可适用。此外,在进行过错判定时,一般以侵权人主观上“应知”或“明知”的注意义务为准则,虽然有些人工智能产品具有高度的“拟人化”,但目前所有的人工智能产品都不具主观意识,直接将主观上的注意义务套用在人工智能产品上,似有不妥。
既然不宜追究人工智能产品的侵权责任,那么使用者在承担责任时应如何确定归责原则?首先,在使用者无过错的情况下,即使用者没有任何操作过失或主观恶意,单纯由于人工智能产品本身出现技术问题造成他人人身或财产损害,此时使用者不承担任何责任,由受害者向生产者追偿。在使用者有过错的情况下,可依照过错责任原则,由使用者承担相应的侵权责任。
除了使用者外,人工智能产品的生产者和销售者也可称为侵权责任主体。我国《民法典侵权责任编》采取的是生产者的无过错责任,以及销售者的过错责任原则,生产者无论有没有过错,只要产品造成他人损害,都应承担赔偿责任,如果是因为销售者的过错致使产品存在缺陷,销售者承担相应的损害赔偿责任。目前看来,由生产者承担无过错责任是最合理的选择,但人工智能产品不同于一般的产品,具有极强的技术性和高度的复杂性,这就要求生产者承担极高的产品质量保障责任,而随着人工智能的不断发展,无过错责任原则可能会拖慢人工智能发展的脚步。
三、人工智能侵权责任的制度构建
人工智能产品的发展给现有的法律体系带来了冲击,人工智能产品侵权问题如何纳入现有法律框架之内做出合理解读,法院在审理人工智能产品侵权时应如何平衡生产者、受害者等法律主体之间的利益,这都是未来我国法律体系必须直面的问题。据此,笔者提出以下几点建议,以期能为人工智能产品侵权责任制度构建提供更为明晰有效的规则:
(一)建立人工智能强制保险制度。“如果我看的更远的话,那是因为我站在巨人的肩膀上”。站在如今的人工智能技术上瞭望,可以预见未来将会有更多智能化、人性化的高端人工智能产品产生,倘若对生产者适用严格的无过错责任原则,在未来的人工智能时代可能会阻碍生产者创造研发的热情,生产者担心研发投入与后续的侵权损害赔偿,可能会放缓研发更加高科技的人工智能产品的脚步。同时,在没有完善保障机制的情况下,销售者在使用人工智能产品时也担心技术风险,降低购买欲,反而不利于人工智能市场的发展。在汽车风靡全国,交通事故频发的时期,为了让被害人能得到及时有效的救济,减轻交通事故责任人的经济负担,我国建立了机动车交通事故强制责任保险制度并一直延续至今,取得了重大成效。我国也可以比照机动车交通事故强制责任保险制度,构建人工智能强制责任保险制度。自动驾驶汽车作为汽车的一种,理应同其他汽车一样,购买交通事故强制责任保险,此领域暂且不论。人工智能技术涉及的其他领域,若每一样人工智能产品都要求其购买人工智能责任保险制度,尚不现实,所以建议划出几个特殊的领域,要求其在购买时必须购买人工智能责任保险制度,比如机器人。在发生人工智能产品侵权时,由保险人先对受害者进行赔偿,然后再由保险公司对责任方进行追偿。
(二)建立数据留存机制。 人工智能产品的初始数据对人工智能产品侵权行为的认定具有重要意义,没有初始数据,就难以理清其中的因果关系,因此笔者建议将人工智能产品的初始设计数据由政府的特殊机构进行封存,在发生人工智能产品侵权事件时将原始数据提取出来,与事故发生时人工智能产品的数据进行比对,具体确定该侵权案件的因果关系,是由于人工智能产品存在产品缺陷,抑或是受害者过错等原因。之所以如此规定,是因为我国目前的举证原则是“谁主张,谁举证”,但对受害者来说,其很难获取到人工智能产品的初始设计数据,只能通过法院进行调取,费时又费力,而且也难以防止生产者私自篡改数据。所以,可以由受害者进行初步举证,证明自己所受损害系由人工智能产品造成,然后由使用者、销售者、生产者依次进行举证,根据举证结果来判定各自承担责任的比例。
(三)成立行业咨询委员会。 为了加强人工智能领域标准化设计,推动人工智能技术的发展,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化五部委联合印发了《国家新一代智能标准体系建设指南》。该文将人工智能标准体系结构划分为“A 基础共性”、“B 支撑技术与产品”、“C 基础软硬件平台”、“D 关键通用技术”、“E 关键领域技术”、“F 产品与服务”、“G 行业应用”、“H 安全伦理”八个领域,对我国未来的人工智能行业发展进行了一个大致的框架设计。目前,更为细致化的条文规定尚未公布。需要说明的是,在制定国家标准时,要充分具备前瞻性和灵活性,高科技产业日新月异,产品变化很快,要及时跟进技术发展,更新国家标准,防止因标准不匹配发展实际反而限制人工智能产业发展或因标准慢于人工智能产业发展而形同虚设。在规范人工智能产业发展的同时也可以成立行业咨询委员会,引导资源共享,这样人工智能行业的相关数据、资源才能够得到充分利用,各个细分领域与人工智能相关的创业者的开发工作才不会出现重复和浪费,同时也能引导行业的创新和发展,培养更多的人才。
四、结语
人工智能的飞速发展已成为不可逆的潮流,如何选择既不对人工智能的发展造成阻碍,又能预防和规范人工智能的侵权责任的法律制度方案,是我国法律在解决人工智能产品侵权时面临的一大难题。人工智能领域是未来科技发展的风向标,我国作为一个智能强国,要紧跟欧美国家的立法脚步,构建完善的人工智能法律体系,推动科技发展,完成国家发展战略。