APP下载

人工智能侵权责任探析

2023-05-13付丽娟

关键词:销售者生产者设计者

王 群,付丽娟

(东北林业大学 文法学院,黑龙江 哈尔滨 150040)

随着人工智能技术在医疗、交通等领域的深度应用,人工智能侵权责任问题日渐凸显。2023年微软旗下OpenAI公司研发的ChatGPT的横空出世,让人工智能技术再次成为舆论的焦点。以其为代表的生成式人工智能类似人类的理解、推理、会话、语言能力实现跨越式发展,由此带来的侵权责任问题尤为突出,人工智能侵权责任问题已经成为法律界必须要面对和解决的难点。

一、人工智能侵权概述

约翰麦卡锡教授1956年首次提出“人工智能”这一概念,当时其对人工智能的定义是“制造智能机器的科学与工程”。随着社会及科学技术的发展,人工智能的范围不再局限于制造智能机器,目前,学界对人工智能的定义尚没有统一的定论,不同学科的专家从各自角度出发,对人工智能的定义有不同的见解,牛津计算机科学解释词汇中将人工智能解释为“是信息技术的一部分,它涉及到创建能够解决需要人类智慧的问题的程序”。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。[1]按照智能程度,人工智能分为弱人工智能、强人工智能、超人工智能。弱人工智能是指不具备独立意志,只能在设计的程序范围内决策并采取行动的人工智能。弱人工智能是自身并不具备独立意志,它是由使用者操纵,是为了实现使用者的意志;强人工智能是指具有独立意志,能在设计的程序范围外自主决策并采取行动的人工智能,强人工智能的特点是其采取行动实现的是自身的独立意志,而不是设计者或使用者的意志;超人工智能,是指在智慧等方面比人类大脑聪明很多的智能,现只存在于科幻电影中的想象场景。

(一)人工智能的法律地位

在学术界,对于人工智能法律主体地位的界定主要有三种观点。持“否定说”的学者认为,不应赋予人工智能民事主体资格。如杨立新教授认为:“人工智能不具有法律上的人格。其民法地位属于人工类人格,仍然属于物的范畴,是权利客体,而不是民事主体”。[2]84-96持“肯定说”观点的学者认为,应赋予人工智能法律主体地位,他们认为强人工智能能够完全摆脱生产者和创造者的控制并自行创造新的人工智能,法律应该赋予其独立的主体地位,将其视为拟制人或者一种特殊的法律主体;持“折中说”的学者提出所谓的“电子人格说”,认为应该在主体和客体之间新增一种法律主体,在一定范围内承认人工智能的法律人格。

目前阶段不应赋予人工智能法律主体地位,人工智能尚还不能成为侵权责任的主体:首先是因为人工智能不具备人体的要素,其次,人工智能现阶段是由弱人工智能向强人工智能过渡的阶段,其还不具备独立的意志。最后,人工智能技术短时期内还没有颠覆现有的侵权法律主体理论,认可人工智能主体地位并没有实质的意义,因此,不需要赋予人工智能法律主体地位。

(二)人工智能侵权的界定

人工智能侵权行为大致上可以分为两种类型:一是人工智能充当了侵权行为的辅助性角色;二是人工智能自主决定实施的行为给其他主体的权利带来了侵害。人工智能侵权有广义和狭义的区别:广义上的人工智能侵权既包括了使用人工智能技术产生的侵权,也包括了人工智能自主实施的侵权。从狭义的角度来讲,人工智能侵权是指由人工智能自主决策的侵犯他人人身、财产或精神的行为。[3]人工智能侵权的界定应当将人工智能自主性因素作为重要考量,使用人工智能作为工具产生的侵权行为,人工智能实际上是作为一种工具,与刀、棍棒等一般工具无异,可以按照传统侵权责任法的责任归结方式来进行处理。人工智能自主性的侵权行为,对现有侵权责任规则提出了挑战,对其进行研究具有现实意义,故本文中的人工智能侵权是指狭义上的人工智能侵权。

(三)人工智能侵权的主要特征

一是侵权责任主体的拟人性。人工智能侵权行为主体不同于传统的侵权行为主体,其侵权主体具有拟人化的特征。由于人工智能技术以模拟人脑的方式进行记忆、理解、推理,甚至是学习和实现与人互动,它便能够做到思考目标并决策,甚至拥有与人类智慧和自我意识能力不相上下的机器智能。[4]因此,这种侵权行为既和人类侵权行为变得极其接近;二是侵权行为实施的人机交互性。首先,供人工智能深度学习的数据源自人类的经验数据积累,数据的准确、真实程度依赖人类行为的客观程度;其次,人工智能并不会像人类一样实施价值判断,基于数据运算产生的结果与人类进行价值判断的结果不具有必然的一致性;最后,人工智能侵权行为实施过程中必然涉及设计者、使用者与侵权损害对象之间的互动,也正是由于这种互动不符合双方的行为的预期并产生了严重的后果才使得侵权行为产生;三是侵权责任认定的复杂性。人工智能设计者、生产者、销售者、使用者等主体广泛地参与到人工智能运用过程中。一旦发生人工智能侵权,责任的认定方式、归责原则和责任承担具有高度复杂性,很难用单一的法律规范对人工智能侵权责任认定进行规制,需要完整的规范体系对这一问题进行调整。

(四)人工智能侵权的情形

1.人工智能使用者操作不当侵权

此情形的侵权,是由于人工智能使用者操作不当产生的,生产者、销售者均没有过错,例如使用者在适用人工智能时违反了相应规范或滥用了人工智能系统,导致了错误或损害,这种情况下可认定人工智能的使用者为责任主体。

2.人工智能自身缺陷侵权

人工智能由于自身生产中固有的缺陷导致的侵权,对此种情形的侵权案件,应依据产品责任制度中的无过错责任原则,侵权责任由人工智能的生产者或销售者承担。

3.人工智能因无法查明原因自主产生故障侵权

这种情形的侵权行为,主要是由于人工智能的算法和程序自行推导所致,使用者不存在过错和过失,人工智能自身无缺陷,且各方都尽到注意义务且未受到外来干涉和操纵。此种情形发生的侵权因无法查明原因,导致责任主体无法确定。

综上,前两种情形的人工智能侵权可以采用一般侵权责任或产品质量责任来规制,对于第三种情形的人工智能侵权,现有的法律制度在适用中存在着一些问题。

二、人工智能侵权责任法律依据及适用中存在的问题

(一)人工智能侵权责任责任的法律依据

1.《民法典》侵权责任编的相关规定

《民法典》侵权责任编并没有将人工智能侵权责任纳入到侵权责任特殊类型之中,与之最为接近的则为产品责任,《民法典》第1202条规定了生产者应当承担因产品存在缺陷造成他人损害的侵权责任。第1203条规定了因产品存在缺陷侵权的,被侵权人可以向产品的生产者或销售者请求赔偿。生产者、销售者由于对方造成的侵权在赔偿后可以向对方追偿。由第1202条可以看出由产品缺陷引发的生产者责任为无过错责任,第1203条规定产品的生产者和销售者之间构成不真正连带责任。

2.《产品质量法》的相关规定

《产品质量法》第46条对产品缺陷进行了界定:缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准。第41条第二款生产者能够证明有下列情形之一的,不承担赔偿责任:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。规定了生产者的免责事由。[5]

(二)适用中存在的问题

1.人工智能侵权责任主体不明

现有的产品责任规则不完全囊括人工智能侵权的责任主体,根据《民法典》第1203条规定,产品责任原则的责任承担主体仅有生产者、销售者。对于因人工智能自主性失误或其他无法解释的原因产生的侵权责任,由于人工智能是人制造的,发生事故后,由人工智能的生产者承担责任,看似没有什么问题,但人工智能又不同于传统的产品,传统产品找到生产者让其承担责任不成问题,可是人工智能的制造过程非常复杂,过程中涉及的主体也非常的多,也许是由许多主体一起研发的,不能简单确定是个人还是组织。人工智能的设计者对人工智能起到极强的操控作用,却不需要承担责任,这显然是不合理的。所以,在发生人工智能侵权的事故时,责任主体不仅仅是人工智能的生产者,但如何确定人工智能的其他责任主体,成为一个将要面临和必须解决的难题。现有法律规定的责任主体并不能够解决人工智能侵权问题,人工智能侵权问题的出现将会扩大侵权责任主体的范围。

2.人工智能产品缺陷及因果关系认定困难

目前,国家尚未对人工智能规定行业安全标准,而证明人工智能的不合理危险更加复杂,使得对人工智能产品缺陷的认定标准陷入困境,人工智能又因其具有高度的专业性,普通受害者很难证明人工智能缺陷,因此,缺陷与损害之间的因果关系的证明难度进一步加大。在人工智能侵权案件中,侵权行为的实施主体与损害结果之间的因果关系变得非常复杂。这种复杂性主要体现在:首先,司法机关难以阐明人工智能内部决策机制,导致无法确定到底是因技术缺陷还是因操作不当发生侵权行为的情况时有发生,人工智能技术因技术叠加而日渐复杂会加剧因果关系认定的模糊,给司法机关审判活动带来很大难题;其次,人工智能技术复杂性会使现有的举证归责难以发生实际作用。按照一般侵权举证责任谁主张、谁举证的要求,人工智能被侵权人必须证明人工智能缺陷及缺陷与损害结果之间的因果关系成立,但是,人工智能技术的专业性和复杂性使受害人的举证举步维艰;最后,人工智能侵权行为发生的原因往往并非是单一的,并且各种原因对因果关系认定带来的影响程度也不尽相同,确定因果关系和取证的难度加大,会进一步影响后续的侵权责任分配和承担。

3.人工智能侵权归责原则适用不明确

归责原则由过错责任原则和无过错责任原则组成,但人工智能侵权无法普遍单一适用某种归责原则,理由如下:在不参照类似的产品责任进行归责的情况下,人工智能侵权因没有法律规定,应该适用过错责任,过错责任原则是主观归责原则,它是指除非法律另有规定,任何人因且仅因过错(故意或过失)侵害他人民事权益造成损害的,才应当承担侵权赔偿责任。在现有的侵权责任法律制度框架下探讨人工智能是否具有主观过错是没有实际意义的。适用过错归责原则会加大受害人证明人工智能侵权的困难程度,因为人工智能技术“黑箱”使得其运行机制及潜在的威胁无法被受害人知晓,受害人大程度无法对人工智能缺陷进行举证,因此无法普遍适用过错责任原则。

若参照产品责任普遍适用无过错责任原则,同样具有局限性,根据《民法典》规定,产品责任原则的责任承担主体仅有生产者、销售者,但由于人工智能制造过程复杂且程序繁琐,设计者作为人工智能的顶层设计者具有极强的操控影响力,但是却不需要承担任何责任;其次人工智能在实际应用中生产者以《产品质量法》规定的两种免责事由为抗辩事由会架空产品责任对人工智能的规范,再次适用产品责任会加大生产者、销售者的责任,减弱使用者的责任,势必限制人工智能的发展,这与法律是为促进和保障人工智能发展原则相违背,因此普遍适用无过错原则实为不妥。

三、完善人工智能侵权责任制度的建议

(一)明确人工智能侵权责任主体范围

前文已分析了不应赋予人工智能法律主体资格,因此不应动摇民事主体制度的根基。人工智能侵权发生后,依然由其背后的民事主体来承担侵权责任。应增加设计者为人工智能侵权责任主体,因为人工智能设计者对人工智能起到极强的操控作用,由于人工智能设计缺陷造成的侵权,应当由人工智能设计者承担侵权责任。《民法典》没有将设计者纳入侵权责任主体,建议可以通过对“生产者”扩大解释,或直接对《民法典》第1202条的条文进行增补,将设计者增加到人工智能侵权责任主体;对于未按照设计者设计而生产制造,或因产品缺陷引发的人工智能侵权,生产者应承担侵权责任,因为生产者在人工智能制造过程中同样起到举足轻重的作用;对于销售者隐瞒人工智能风险性夸大宣传等过错导致人工智能发生侵权的,销售者应承担侵权责任,因为销售者在人工智能使用前具有重要的作用;对于使用者操作不当、未尽到谨慎义务或未尽到合理使用或妥善保管义务导致的人工智能侵权,使用者应承担侵权责任,因为使用者在人工智能的控制中起到主导作用。因此人工智能侵权责任主体范围包括设计者、生产者、销售者、使用者。[6]

(二)明确人工智能缺陷认定标准及因果关系适用规则

1.人工智能缺陷的认定标准。

我国《民法典》和《产品质量法》通常将产品缺陷分为设计缺陷、制造缺陷、警示缺陷,对于人工智能,应将产品缺陷进行类型化分析解决其缺陷的认定标准问题:对于设计缺陷,可以借鉴德国、美国等采用“风险—效用”标准,就是通过产品有用性与危险性的比较,检查设计研发者是否采取了适当的安全保障措施,以判定产品是否存在设计缺陷;对于制造缺陷,采用“对预期设计的偏离”标准,即若存在不符合原有设计的情况,则属于制造缺陷;对于警示缺陷,可以采用“合理充分”标准,能够将预见到的人工智能潜在危险完整的写为警示语,即尽到了充分合理的警示义务。[7]

2.人工智能侵权因果关系适用举证责任倒置规则。

举证责任分配是影响因果关系成立的重要因素,寻找到契合人工智能侵权的举证责任分配方式对受害人而言能有效地降低诉讼成本,对审判人员而言能够起到简化责任认定的效果。客观来看,人工智能侵权的受害方是整个侵权事故流通环节的弱势一方,由于专业知识匮乏、经济实力无法与人工智能设计、生产、销售主体相提并论,使其往往无力证明人工智能缺陷与损害结果之间存在因果关系。鉴于这种情况,国外一些国家采用了因果关系推定的方式,以期减轻受害人的举证负担,保护受害人的利益。[8]在操作方式上,主要通过发生的事实来推定因果关系。如美国采用了泛行业责任和市场份额责任:泛行业责任要求只要被告的生产活动是整个产品生产中不可分割的部分,则原告可以将各个生产部门作为被告;[9]市场份额责任是根据一定时期内各个被告作为独立生产者投入市场的产品数量与同种产品的市场总量之比例,可以确定各被告应负的责任。[10]我国实务中虽然无这种泛行业责任和市场份额责任,但是也有受害人只要能够证明自己没有不当使用产品的情形,即可推定产品存在不合理风险,继而推定产品与损害之间存在因果关系的做法。毫无疑问的是这种推定是建立在受害人无过错的事实基础之上,立意是不苛刻要求受害人对侵权责任进行分担。在人工智能侵权案件中,仍然可以将这种做法确认并推广,认定侵权损害结果的出现与人工智能产品缺陷存在因果关系,因此适用举证责任倒置的方式来分配举证责任是比较合理的做法,原因如下:

第一,符合我国民事诉讼相关法律法规中关于举证责任倒置的规定。2019年最高法颁布了《关于修改〈关于民事诉讼证据的若干规定〉的决定》,结合该决定和相关法律法规中对举证责任倒置的情形的规定,可以将举证责任倒置简单概括为三种情况:一是实行过错推定的侵权诉讼;二是实行因果关系推定的侵权诉讼;三是难以收集证据或难以举证的诉讼。无论从哪种情形来考量,人工智能侵权都符合举证责任倒置的要求,因此人工智能侵权不适用“谁主张、谁举证”的一般性举证原则。

第二,由人工智能设计者、生产者、销售者来承担举证责任有敦促上述各方充分尽到注意义务,将人工智能产品的缺陷控制在极低的范围内。如上文所述,人工智能因其高度的专业性、技术性、复杂性使受害人难以掌握举证的关键问题,受害人对数据分析、技术参数、运行机制等核心问题的认知空白,导致其无法形成逻辑严密的证明过程,即使是委托专业律师也难以对上述问题有准确的技术判断。此时由设计者、生产者、销售者来证明其产品不存在缺陷,会反过来使上述各方更加注意对人工智能产品缺陷的控制,防止在诉讼中处于被动的局面。

第三,举证责任倒置客观上达到了实现人工智能技术进步的目的。通过举证责任由受害者向人工智能设计者、生产者、销售者的转移,客观上使这些主体不得不用更进步安全的技术使人工智能产品适应市场的需要,在降低人工智能产品缺陷和风险的同时,不得不强化现有技术的进步与升级,从长远的角度来看,举证责任的倒置使人工智能产业的关联方更加重视技术的安全性,有利于人工智能技术的进步。

(三)完善人工智能侵权的差别化归责原则

1.设计者、生产者承担责任适用无过错归责原则。

对设计者、生产者适用无过错归责原则的主要原因有以下两点:第一是由于设计者、生产者对人工智能起到顶层设计的作用,干预性较强,适用无过错责任原则能够使其履行谨慎审查义务,从根本上减少人工智能侵权事件发生,第二是由于在实践中较难区分设计缺陷和制造缺陷,因此对设计者和生产者适用无过错责任原则能有效维护被侵权人权益,减轻其举证压力。

2.销售者、使用者承担责任适用过错归责原则。

对于销售者、适用过错责任原则,销售者作为为设计者、生产者和购买人中间的桥梁,并不直接掌握人工智能核心技术,但销售者应当尽到警示义务,对人工智能在使用过程中可能存在的风险应向消费者逐一告知,对其存在虚假或夸大宣传的应当承担责任。对使用者适用过错责任原则的特殊形式——过错推定原则,因为使用者在人工智能侵权中占据操控主导地位,且负有合理使用与妥善管理的义务,对使用者适用过错推定原则能有效减轻被侵权人举证责任,不适宜适用一般过错原则是因为被侵权人的权益无法得到保障,不适宜适用无过错责任是因为人工智能具有复杂性,在自主运行的模式下,对使用者适用严格责任过于苛刻,会打击使用者的积极性。

综上,对使用者适用过错推定原则,设计者、生产者、销售者因人工智能缺陷对外承担不真正连带责任,内部各自区别适用不同归责原则,这样的归责建构考虑了人工智能的特性和合理的保护了被侵权人权益和弱势地位。在内部实际分担时,各方主体应当根据所负责的环节举证各自责任义务与免责事由。还可以通过保险和赔偿基金的方式将其所承担的侵权损害赔偿责任进行转嫁,具体而言可以要求设计、生产、销售人工智能侵权的主体以强制保险的形式来对人工智能进行投保,一旦其发生侵权行为,经司法机关确认,由保险公司承担相应的赔偿责任。

猜你喜欢

销售者生产者设计者
1月巴西生产者价格指数上涨3.92%
2020德国iF设计奖
销售者产品责任归责原则的再思考
——《民法典》删除《侵权责任法》第42条之解读
2019德国IF设计大奖
跟团在景点买到假货 能要求旅行社赔偿吗
家禽福利的未来:生产者能期待什么?
跟团游中买到假货找谁赔
一场大风带给生产者的思考
杨敬:深水区医改设计者
深水区医改设计者