人工智能的侵权责任与归责机制
2019-06-11陈全思张浩栾群
陈全思 张浩 栾群
人工智能时代已经来临,大数据和人工智能的发展深刻地影响着我们的社会生活,改变了我们的生产和生活方式,也深刻地影响社会的方方面面。但同时,它们也提出了诸多的法律问题,需要法学理论研究工作者予以回应。
随着人工智能的迅速普及,由人工智能引起的侵害和侵权事件也层出不穷,既有因交通、生产事故引发的人身财产伤害,也有因智能系统故障引发的财产利益贬损。人工智能侵权案件与传统侵权案件有所不同,引发损害和风险的形式也有所不同,这些侵权的归责问题需要引起高度重视。根据传统侵权法规定,制造商和销售商是主要责任主体,但是在人工智能情景下,还应当明确开发者的安全注意义务,建立新的人工智能侵权责任机制,能更好地保障行业持续健康发展。
四种人工智能侵权归责的观点
人工智能工具论——由使用者承担责任。这种观点认为,目前人工智能尚不具备自主意识,其行为是在人类授意下做出的,人工智能只是一种工具,因此人工智能侵权应由使用该工具的人来承担责任。使用者是人工智能程序和设备的控制者,也是受益者,人工智能引发的侵权风险是使用者的使用行为引起的,让受益者承擔由其控制的工具引发的侵权责任是公平合理的。
人工智能产品论——由生产者承担责任。根据《中华人民共和国产品质量法》,产品质量应当检验合格,符合保障人体健康和人身、财产安全的标准或要求,生产者、销售者依法承担产品质量责任。人工智能通常是一种产品,除了个别由于使用者或者第三人故意引起的侵权以外,大多数人工智能侵权是由于产品存在缺陷造成的。消费者对于人工智能产品的缺陷,既难以理解也难以发现,且难以举证,所以应当由生产者承担产品责任,销售者承担不真正连带责任。
人工智能动物论——由管理者承担责任。由于人工智能尚不具备自主意识,其行为又与一般工具不同,不完全受人类控制,这与饲养的动物颇为相似,动物可能在有人类授意下实施侵权,也可能在无人类授意下发生侵权。尽管古代立法中有让动物承担法律责任的规定,但现代立法不再将动物视作法律主体,因此动物的侵权行为应由饲养人或者管理人承担侵权责任。借鉴动物侵权法律规定,人工智能侵权也应由对其负有管理义务的人承担。
人工智能主体论——由人工智能承担责任。人工智能最大的特点在于其拥有智能,不但可以做出行为,而且能够自主做出分析判断,同时拥有比人类更加强大的数据收集、记忆和计算能力。法律可以将自然人以外的实体规定为法律主体,例如法人,对于人工智能也可以参照这种做法。而且,已经有一些国家赋予或正在考虑赋予人工智能法律主体资格,如沙特的索菲亚机器人已获公民资格。如果人工智能成为法律主体,则应当承担其侵权行为引起的法律责任。
人工智能侵权的特殊性
人工智能侵权构成要素复杂。现阶段人工智能的技术框架主要是以机器学习和深度学习为中心构建的。从软件层面,人工智能系统作出的判断、决策等行为,实际上是对人工智能模型输入一定数据而得到的函数输出结果,其基本模型可以用“输出=人工智能模型(基础算法+训练材料)+输入”表示。侵权的输出结果实际受到基础算法、训练材料和输入行为三个要素的影响,这三个要素可能独立导致侵权结果,也可能相互作用累积引起侵权,这使得具体侵权案件的归责难度加大。特别是,现有的司法人员普遍没有接受过人工智能技术相关培训,而技术人员少有精通法律的,对人工智能侵权的事实认定和法律认定都非常困难。
使用人或管理人通常没有主观过错。侵权案件中,通常是侵权人的违法行为造成了损害事实,违法行为与损害事实之间具有因果关系,且行为人对违法行为具有主观过错。但人工智能侵权,使用人或管理人通常不具有侵权的故意或者过失,侵权行为和损害事实是人工智能程序自主判断、决策的结果。以完全自动驾驶汽车为例,使用人下达给车辆行驶的命令,途中使用人并不参与车辆的转弯、减速、超车、避让等各类行驶决策。在车辆自动行驶的过程中,如果发生侵权事故,尽管使用人最初下达的行驶命令与侵权事实也有一定的关系,但二者之间的因果关系太弱,使用人使用车辆的意志并不包含任何侵权意图,此时归责于使用人,则会给使用人施加过重的事故防范义务,既不符合公平原则,也不利于人工智能推广应用。
人工智能具有一定的自主性。由于难以归责于使用人,人工智能侵权主要应当是由产品本身问题引起的,因此应当在产品责任视角下讨论。一般产品侵权是由于存在缺陷而造成他人损害,所谓缺陷是指产品存在危及人身、他人财产安全的不合理的危险,通常在生产阶段按照相应的产品标准或质量要求应当能够发现这种缺陷。但人工智能产品与一般产品不同,人工智能虽然尚不具有类似人类的意志,但具有一定的自主性,具有学习能力,引起侵权事故的原因既可能是设计生产阶段已经存在的缺陷,也可能是人工智能自主学习后产生的“危险”。而因人工智能学习引起的危险是否属于“缺陷”,在目前法律规定中尚不明确。
人工智能侵权责任主体与归责机制
生产和设计者是人工智能侵权责任主体。目前人工智能还处于高级函数的阶段,不具备侵权的主观意志,也不具有承担侵权责任的能力。应当说,人工智能侵权还是表象,本质上仍然是有安全注意义务的人由于故意或过失没有履行相应义务,而导致人工智能侵权危险的发生。对人工智能侵权负有安全注意义务的,应当是有能力知晓人工智能工作机理并控制人工智能行为的人。一般情况下,应该是人工智能的生产者和设计者。由于人工智能构成的复杂性,产品的瑕疵或缺陷是发生在算法设计、调试阶段,还是发生在机器学习训练、测试生产阶段,又会决定该侵权危险归责于设计者或生产者。在人工智能时代,设计者和生产者常常是分离的,所以这是两类不同的侵权主体。
严格适用产品责任免责事由。人工智能侵权主要是适用产品责任,《中华人民共和国侵权责任法》和《中华人民共和国产品质量法》规定了生产者的三类免责事由:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。由于大量人工智能产品属于技术前沿成果,人工智能算法或程序中确实存在一些生产者(设计者)无法预见的瑕疵或缺陷,因此这三类免责事由仍有适用空间。一方面应宽容创新,对于开发者能够证明已尽力避免,而当时认知和技术水平确实无法发现的缺陷风险,应当免除开发者的责任;另一方面应严格适用免责事由,严格规范开发者涉及人身、财产安全的人工智能程序开发行为,强化开发者安全注意义务,预防人工智能侵权风险发生和累积。
建立人工智能责任机制。一是逐步建设人工智能产品标准,使开发者明确其开发产品需要满足的保障人体健康和人身、财产安全的国家标准或行业标准,避免出现缺陷产品。引导行业建设人工智能开发者安全注意义务准则,加强行业自律规范。二是建立人工智能缺陷产品召回机制,建立算法变化节点时间表机制。对发现缺陷后的产品应及时召回或停止提供服务,并评估人工智能算法的变化节点,排查变化原因,明确引起变化并导致侵权的责任主体。三是探索类似交强险的人工智能责任险。由于人工智能可能存在无法归责于使用者,也不宜归责于生产设计者的侵权风险,可以设立人工智能责任险,及时为被侵权人提供救济,分担开发者风险,保障行业健康发展。