人工智能产品致害风险及其侵权责任规制
2021-01-12高完成宁卓名
高完成,宁卓名
(郑州大学 私法研究中心,河南 郑州 450001)
在科技变革的时代,人工智能正在深刻改变着人类的社会生活。以智能机器人和智能网联汽车等为代表的人工智能产品已经从科幻小说进入现实社会。为抢抓人工智能发展的重大战略机遇,国务院发布了《新一代人工智能发展规划》,其中明确提出“推动重点领域智能产品创新,积极培育人工智能新兴业态”。国务院印发的《中国制造2025》也提出“建立智能制造产业联盟,协同推动智能装备和产品研发、系统集成创新与产业化”。这预示着人工智能技术与产业领域深度融合的智能经济形态蕴含巨大潜力。人工智能产品的应用能够为人类提供更高质量的服务,有助于显著改善生产效率和安全水平[1]。但客观而言,人工智能产品也并非不存在任何风险,因人工智能系统自身原因导致的损害事故难以完全避免[2]。人工智能产品以智能系统为运行核心,算法程序的缺陷易引发系统性的风险,这将可能导致大规模侵权责任事故的发生。人工智能产品具有一定程度的复杂性、自主性和难以预测性,当其发生致人损害的事故,将会使得现行侵权责任制度面临严峻挑战。如智能网联汽车发生致损事故将导致现行机动车交通事故责任规则在具体适用时捉襟见肘;在产品责任的法律框架下,智能软件的产品属性存在争议、人工智能产品缺陷的认定异常复杂、产品责任主体范围不易确定等难题也会接踵而至。由此可见,如果不能妥善应对人工智能产品致害风险及其所引发的侵权责任问题,将可能给人工智能产业的良性发展埋下隐患[3]。
国外纷纷出台有关人工智能产品致害风险与侵权责任规制方面的法律政策文件,旨在为人工智能技术的快速发展及应用扫清法律上的障碍。2019 年国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,明确提出要在推动人工智能创新发展、有序发展的同时,及时发现和解决可能引发的风险,完善治理体系,推动治理原则贯穿人工智能产品和服务的全生命周期。我国现行法并未针对人工智能产品的致害风险与侵权责任问题作出直接明确规定,相关法律难题仍亟待解决。基于此,本文拟对人工智能产品致害风险及其引发的侵权责任疑难问题展开深入研究,探索适合我国人工智能产品的法律规制路径。
一、人工智能产品科技特征之辨识
人工智能产品作为新一轮工业革命的科技产物,具有引领未来社会、经济和生活变革的巨大发展潜力。当前学界对人工智能产品还未形成统一的定义,相较于普通产品而言,人工智能产品具有显著的技术特性,自主决策能力和深度学习能力使其具备了“拟人”表征。理解人工智能产品的科技品性,可以从典型意义上的人工智能产品类型——智能机器人和智能网联汽车的基本特征出发。下文将主要以智能网联汽车为例对人工智能产品的科技属性予以简要阐述。
第一,人工智能产品具有自主决策能力。自主决策能力意味着人工智能产品能够脱离人类的直接操纵而作出执行决策方案。在人类驾驶机动车的模式下,预测道路上其他人的行动往往依赖于驾驶员的心理认知系统,即驾驶员通过观察与交流作出瞬间潜意识的行动决策,确保驾驶安全。在智能网联汽车的应用场景下,车辆装载的传感器能够用于探测和监控其他车辆,并接收有关交通流动和数量、路况甚至天气状况的输入信息[4]。智能网联汽车通过运用计算机程序系统组织和执行与车辆驾驶有关的重要事项,结合从传感器和导航收集而来的数据,并使用一系列先进的算法规则以决定车辆将要移动的位置是否安全[5]。
智能网联汽车的自主决策能力集中体现在“感知-计划-执行”三个方面,这通常也是人工智能产品自主决策性能所普遍表现的特征[6]。在感知阶段,智能网联汽车运用多种传感器,如雷达、声呐和摄像机,以收集周围环境的各类数据;在计划阶段,将从多种传感器接收到的数据传输给计算机系统进行分析,并运用复杂的软件程序,作出合理的驾驶决策方案;在执行阶段,智能网联汽车则按照既定的方案开始运行[5]。“感知-计划-执行”的程序是伴随自动驾驶系统收集、分析数据而不间断循环进行的,这将能够保障车辆运行的最优方案及时得到更新。
第二,人工智能产品具有深度学习能力。人工智能产品的技术特征还表现为其具有深度学习能力。机器学习是计算机科学的一个分支领域,它关注的是能够从经验中学习,随着时间的推移从而提高在某些任务执行上的表现[7]。智能网联汽车实现自主驾驶是一项非常复杂和不可预测的任务,以至于很难使用固定的计算机程序来指令它的一切行动[8]。正是由于这个原因,智能网联汽车依赖于算法(algorithm)这种灵活的程序技术,通过如何分析数据并提供好的相关例证来训练自动驾驶系统的决策逻辑。因此,智能网联汽车的自主决策能力不是由人类程序员事先编好的程序规则来实现的,而是依赖深度学习算法来不断更新的[5]。
尽管人工智能产品具备自主学习能力和深度学习能力而较普通产品表现出“拟人”特征,但并不当然意味着其能够因此获得法律上的民事主体资格。由于人工智能产品不具有生物学意义上的人体和人脑,不具有法律上的人格属性,因而其不可能成为法律意义上的民事主体[9]。人工智能产品本质上仍然归属于“人工智能物”的范畴[10],与普通产品的法律定位并无根本性差别。
二、人工智能产品致害风险与侵权责任挑战
(一)人工智能产品的致害风险
人工智能产品尽管蕴含巨大的发展潜力,但同时也存有不可避免的致害风险。人工智能产品的致害风险具有科技风险的基本特征,即风险普遍较高且具有典型的滞后性[11]。人工智能产品致人损害的风险主要可以分为三种类型:一是第三人通过非法侵入的方式控制人工智能产品系统进而造成他人的损害;二是人工智能产品的使用人因不当使用而导致损害后果的发生;三是人工智能产品存在自身缺陷而造成损害的后果。由此可见,除人工智能产品自身缺陷原因之外,无论是人工智能产品使用者的问题,还是来自其他的外部非法原因,都可能加剧人工智能产品的致害风险[12]。由于人工智能产品充分借助算法的程序规则,致害风险往往具有系统性。人工智能技术在社会生活各个领域应用的日益增多以及自动化的倍增效应,也会在一定程度上加剧这些技术风险可能造成的损害后果。在一个万物互联的新兴数字社会中,人工智能产品的致害后果很容易像病毒一样迅速传播,容易引发大规模侵权责任致害事故。
人工智能技术的特点是其有限的可预测性,这种现象将随着机器学习的深入而愈加明显。由于人工智能产品设备存在互联性,一旦人工智能产品所依赖的网络系统遭到侵害威胁,就可能导致对人工智能产品性能的安全预测变得更加困难。另外,人工智能产品系统可能还存在不透明性,这往往会给受害者带来不合理的举证困难或增加证明责任成本。在一些情形下,人工智能产品制造商只是为其产品创建了一个通用的基本框架,而没有对其进行详细的设计,当人工智能产品的缺陷可能是由于产品所处环境的影响或产品自身的原因造成时,将使得受害者无法确定一般用户对人工智能产品有权期望的安全性。
2019年欧盟委员会设立的“责任和新技术专家组”在对人工智能产品致损事故的民事责任进行评估时认为,现行的赔偿责任制度能够在一定程度上对因使用人工智能技术而遭受的损害进行基本救济,但是这些技术及其应用程序的特殊性,包括在运行过程中通过更新或自主学习进行修改、有限的可预测性、复杂性以及网络安全的脆弱性,都可能会使受害者在现行侵权责任的救济范围内难以获得完全赔偿,并且现行侵权责任制度也可能存在责任分配不公或效率低下的不足之处[13]。在面对新兴科技带来的挑战时,侵权责任制度的充分性和完整性对社会而言至关重要。如果该责任体系不完善或存在缺陷,或在处理人工智能技术造成的损害方面存在缺漏,将可能导致受害者最终得不到有效赔偿。在应对人工智能产品引发的致害风险方面,现有侵权责任制度存在的不足也可能抑制预期的发展利益。
(二)人工智能产品致损事故的侵权责任挑战
1.对致损事故责任适用路径的影响
由于人工智能产品的自主性特征,当其发生致人损害的事故后,将对既有的侵权责任适用路径造成冲击,这在机动车交通事故责任领域尤为明显。现代社会“车祸猛于虎”,机动车一方因过错造成的人身伤亡或财产损失触目惊心。现行机动车交通事故侵权责任制度是专门调整机动车所有人、使用人等主体关于机动车交通事故纠纷的一类特殊民事责任规则,其主要规范的是以人类驾驶行为作为构造基础的机动车交通事故损害赔偿的责任问题。然而,在智能网联汽车的应用场景下,由于自主驾驶系统取代了人类驾驶员的操作,事实上智能网联汽车发生交通事故致人损害并不是基于人类驾驶员的操作行为而引起的,这就导致现行机动车交通事故责任规则不能有效调整智能网联汽车发生的交通事故责任纠纷案件。
有观点主张,针对智能网联汽车发生交通事故致人损害的案件,可以通过将自主驾驶系统生产者解释为保有人的地位从而使其承担驾驶人责任的处理方式,这并未对既有机动车交通事故责任规则造成实质性的影响[14]。笔者认为,将自主驾驶系统生产者解释为机动车保有人的设想过于牵强,因为自主驾驶系统生产者并不符合作为机动车保有人的基本条件,即不具备机动车的运行支配与运行利益两个基本标准[15]。一方面,自主驾驶系统生产者在事实上并不处于完全控制智能网联汽车运行的地位。正如前文所述,智能网联汽车在运行程序上具有自主决策能力,自主驾驶系统借助深度学习能够作出车辆行驶方面的决策方案,而不是由自主驾驶系统生产者实时进行操控。另一方面,自主驾驶系统生产者在将产品投入市场之后难说对智能网联汽车的运行持续享有直接利益,投入流通领域之后的智能网联汽车所有者或使用者更加符合享有运行利益的主体。因此,以智能网联汽车为代表的人工智能产品发生致损事故首先会对现行机动车交通事故侵权责任规制路径带来严重冲击,机动车交通事故侵权责任制度在智能网联汽车的应用场景下恐将面临一场严峻的危机。
可以预期的是,随着人工智能技术的逐步改良,全面实现自主驾驶而不需要人类干预的目标指日可待。由于在完全实现自主驾驶的应用场景下,智能网联汽车发生交通事故致人损害将不再归责于车内人员的驾驶行为,车辆本身的故障原因将成为致损事故的“罪魁祸首”,因而产品责任制度在智能网联汽车交通事故致害责任体系中显得尤为重要[16]。未来由智能网联汽车导致的交通事故在很大程度上将主要归因于智能网联汽车自身存在的缺陷问题,理论上可以将智能网联汽车交通事故侵权责任纳入产品责任的范畴予以调整,因而产品责任制度在事实上更能获得广泛的认可[17]。事实上,包括智能网联汽车在内的人工智能产品发生致损事故的情形,除由于第三人通过非法侵入的方式控制人工智能产品系统进而造成他人损害及人工智能产品的使用人因不当使用而导致损害后果能够适用一般过错侵权责任之外,大多数人工智能产品致损事故均能够在产品责任的法律框架内予以分析和解决。因此,在对人工智能产品致人损害民事责任的认定中,产品责任制度路径将能够发挥主要的调整功能。
2.对现行产品责任规则的挑战
就人工智能产品致损事故的侵权责任适用路径而言,尽管产品责任制度对此具有较大的适用空间,但是人工智能产品所具备的特殊性,也使得现行产品责任法律规则在具体适用时遭遇难题。
第一,智能软件是否属于产品存在争议。智能软件是否属于产品责任法上“产品”的范畴,我国现行立法并未作出明确规定。随着科学技术的进步,智能软件在社会发展进程中所起的作用日益凸显,是否将智能软件纳入“产品”的外延,直接关系到因智能软件存在缺陷导致人工智能产品致人损害时能否适用产品责任的相关规则。对此,我国理论上的观点也并不统一,存在“肯定说”[18]与“否定说”[19]。另外,当人工智能产品开发过程中存在缺陷时,由于智能软件的非有体物形式,区分智能软件技术中的制造缺陷或设计缺陷将是一项十分复杂的难题,并且对智能软件缺陷的认定亦存在较大困难[20]。
第二,人工智能产品致损事故是否仍适用严格责任原则存在疑问。我国的产品责任制度一直将严格责任作为基本归责原则,并认为严格责任代表着世界范围内的立法潮流。事实上,作为现代产品责任法主要发源地的美国,已经在《侵权法重述第三版:产品责任》中对于严格责任进行了重新调整并限缩其适用范围,这在一定程度上反映了当前美国产品责任法的最新发展趋势[21]。近年,理论界开始对我国产品责任制度提出了一些基础性的反思:严格责任是否应根据产品缺陷类型的不同而考虑区别适用?严格责任是否能够妥善平衡保护消费者合法权益和鼓励生产者研发创新之间的关系?面临智能时代的发展机遇,我国是否有必要以人工智能产品为契机采取借鉴美国产品责任归责原则的最新立场?上述诸多疑问值得进一步探究。
第三,人工智能产品致损事故的侵权责任主体难以确定。当致损事故是因人工智能产品自身缺陷导致的,按照我国现行产品责任规则,将由人工智能产品的生产者、销售者承担不真正连带责任[22]。然而,生产者、销售者作为责任主体的固有思路在人工智能产品责任的场景下将可能发生改变。人工智能产品因故障致人损害通常是由于编程错误或者系统故障造成的,这就可能涉及几个不同的潜在责任主体,包括制造商、自主系统的零部件制造商、为产品自主操作编写代码的软件开发商以及辅助产品智能应用系统的设计者[3]。由于人工智能产品的复杂性,其制造过程需要涉及多方参与主体,当出现产品缺陷致人损害的后果时,确定各方主体之间责任承担的问题将变得异常复杂。
第四,人工智能产品致损事故责任的抗辩事由亟待更新。在产品责任中,抗辩事由的规范价值体现着法律对产品领域中生产者与消费者之间风险的合理分配,是基于法政策现实考量的结果。我国《产品质量法》第四十一条第二款规定了生产者不承担责任的三项抗辩事由:未将产品投入流通的;产品投入流通时,引起损害的缺陷尚不存在的;产品投入流通时的科学技术水平尚不能发现缺陷的存在的(又称为发展风险抗辩)。由于人工智能未来发展具有一定的不确定性和潜在风险,甚至有专家预言人工智能将可能给人类社会带来灾难性后果[23]。当发生人工智能产品致人损害的侵权事故时,生产者是否还能继续援引发展风险作为抗辩事由将面临疑问。此外,面向人工智能产品的未来发展前景,为了实现保护消费者的权益以及为企业研发提供良好的环境,使得产品责任制度更具有经济上的合理性,还有必要考虑如何更新既有的抗辩事由规则。
三、欧盟人工智能产品致害民事责任的立法改革及其评述
欧盟率先对以智能机器人为代表的人工智能产品致害民事责任进行立法改革,这在世界范围内具有前瞻性和引领性的影响。对欧盟立法改革的主要内容进行深入考察与评述,有助于为我国人工智能产品致害侵权责任的法律应对提供参考和借鉴。
(一)欧盟关于人工智能产品致害民事责任的立法改革
为了迎接人工智能时代的到来,欧盟较早对人工智能产品领域面临的法律责任挑战采取有力的应对举措。2017年欧洲议会通过《机器人民事法律规则的决议》(以下简称《决议》),主要就以智能机器人造成损害的民事侵权责任与伦理规制问题进行了探索性规定。
《决议》首先区分了智能机器人致人损害时,按照既有的法律框架可供选择的责任类型,并依据损害发生的原因予以具体确定。由于产品自身缺陷造成损害的,适用产品责任规则;由于产品使用人的原因造成损害的,适用一般过错责任规则[24]。但是,智能机器人的自主性使得其行为不具有可预测性,这就导致现行《欧共体产品责任指令》(85/374号)的相关规则很难适用于人工智能产品缺陷及因果关系的认定。为了有效应对智能机器人造成损害引发侵权责任的法律挑战,《决议》主要提出了以下立法改革内容。
第一,根据智能机器人自主性程度的不同,实行差别化的责任形态。承担最终责任的主体一旦确定,那么他们所应承担的实际责任应当同智能机器人的自主性程度相称,自主性越强,给予智能机器人指令的责任主体一方所应承担的责任就会越大。第二,降低对产品责任因果关系的证明要求。受害人只需要证明损害已经发生,并且智能机器人的致害功能与受害人所遭受的损害之间有因果关系,即达到责任成立的证明标准。第三,注重发挥保险与基金的救济作用。《决议》提出要设立强制性保险计划和赔偿基金,在民事侵权责任之外补充对受害人的救济。同时,还规定了制造商、所有者以及使用者在已向赔偿基金捐款或者共同为机器人致损设立保险的情形下,仅应承担有限的赔偿责任。第四,设想未来将赋予智能机器人主体资格。《决议》提出要考虑为智能机器人创设特殊的法律地位,赋予最复杂的自主机器人以电子人格的地位,以便使其对可能造成的损害负责。第五,建立智能机器人登记制度。为了保障对智能机器人的管控,对其采取分类标准,在欧盟范围内设立一个关于高级智能机器人的登记制度,并指定专门机构进行管理。第六,重视伦理原则的指导作用。《决议》提出要建立包含智能机器人在研发、设计、生产及使用等阶段必须遵守的伦理原则,明确了伦理原则和法律规则的关系。现有的欧盟法律框架应该在伦理原则的指导下,根据智能机器人技术的复杂性对法律规则进行更新和补充[24]。
另外值得注意的是,欧盟委员会于2018 年6 月成立了人工智能高级专家组,专门就人工智能领域的法律、伦理问题提供决策和建议。2019年4月,欧盟委员会人工智能高级专家组发布了《可信赖的人工智能伦理准则》(Draft Ethics Guidelines for Trustworthy AI),旨在通过构建欧盟范围内标准统一的人工智能伦理基础,为人工智能产品应用提供指导,以实现人工智能技术的可持续发展。《可信赖的人工智能伦理准则》确立了在研发、部署和使用人工智能产品时必须遵守的基本伦理原则与价值理念,主要包含尊重人类自主性、避免造成伤害、公平性以及可解释性,尤其强调人工智能产品的制造商应将上述原则和理念嵌入他们的产品中去,并具体评估其实际贯彻执行情况,以确保将人工智能产品应用可能带来的损害风险降到最低[25]。
(二)对欧盟相关立法改革的评述
欧盟《决议》围绕智能机器人及其他人工智能产品可能引发的侵权责任问题提出了一些富有创造性的立法建议,值得参考。
首先,《决议》明确了发展智能机器人所应采取的基本策略,即在保证不阻碍创新的前提下实行渐进主义的务实态度,认为从民事责任问题入手是符合当前人工智能发展阶段的规制路径。《决议》确立民事责任制度作为调整智能机器人的主要法律机制,具有一定的合理性。人工智能技术发展的风险主要表现为人工智能产品在实际应用中可能造成的损害后果,而民事责任制度对此将能够有效发挥调整功能。当人工智能产品致人损害时,依据民事责任制度能够准确认定责任主体、责任构成要件以及责任后果。可以说,民事责任制度塑造了规制人工智能发展的一个“管道”,能够防控可能出现的风险[26]。
其次,《决议》坚持有损害必有救济的原则,充分保护受害人的合法权益。即使损害后果纯粹是由于智能机器人造成的,也不能限制损害的类型及可能向受害人提供赔偿的形式。为了保障损害能够获得有效救济,提出建立强制性保险和基金作为补充机制。《决议》关于损害赔偿的原则性规定,反映出欧盟在发展人工智能技术时不以牺牲公民合法权益作为代价的立场,有利于协调企业创新激励和消费者权益保护之间的关系。
再次,《决议》注重对损害风险的预防。要求在智能机器人的发展过程中,尽可能实现最大收益和最小损害,提前预测和评估潜在的安全影响,并采取与保护水平相称的预防措施。此外,《决议》为确保责任认定的一致性,呼吁制定国际统一的智能机器人技术规范标准。为了加强对智能机器人的管理,根据智能机器人的分类标准,实行欧盟范围内智能机器人的登记制度。可以说,《决议》关于为智能机器人制定规范标准的立法提议,体现了注重侵权法规范与规制性规范之间相互协作和接轨的理念[27]。
值得注意的是,欧盟《决议》立法改革的内容并非都是在既有民事法律规则的框架内进行调整的,也有个别立法建议完全突破了现行的私法原理。如《决议》提出赋予最复杂的自主智能机器人以电子人格(electronic persons),以便对其可能造成的损害负责。此种立法设想是否值得肯定,有待进一步商榷。
笔者认为,赋予智能机器人法律地位的立法设想既缺乏可操作性,也难说符合正当性的要求。一方面,将智能机器人拟制为法律主体并不能实现法律调整的规范目的。法律规范人类行为的机制在于,能够使人类主体通过理性调适自身行为以避免承担责任,从而符合法律规则的要求。然而,智能机器人本质上无法具备理性和自我意识,不可能真正成为法律上的利益负担者[28]。因此,赋予智能机器人以法律人格不具有可操作性。另一方面,通过赋予智能机器人法律人格以使其承担损害赔偿责任的立法设想,也不符合法律的正当性要求。至于智能机器人如何对其可能造成的损害后果负责,《决议》并未明确作出进一步说明。由于智能机器人不具有自己的财产,有观点主张一个可能的思路是由制造商或者所有者为智能机器人设立专门的储备金,并将该储备金用来赔偿损害[29]。然而,这种所谓由智能机器人自身承担赔偿责任的设想,实际上还是以人作为最终的责任承担者[30]。申言之,这种责任承担方式本质上是将人的责任财产予以限定,这就有可能导致本应承担责任的主体逃避法律责任[31]。很显然,此种责任承担的设想不利于对受害人的救济,也难说正当。
总而言之,欧盟《决议》关于智能机器人致损侵权责任的立法改革,既有具有引领性的创新内容,却又存在一定程度的局限之处。我国在回应人工智能产品引发的侵权责任挑战时,应当对欧盟《决议》相关内容进行批判性的借鉴。尤其需要注意的是,立法的制度设计不宜过于超出现阶段和可以预见的情形,更不能以科幻的想象力为基础追求现实立法的过于前瞻性[32]。
四、我国人工智能产品致害风险及其侵权责任的法律应对
为了有效回应人工智能产品致害风险及其侵权责任的挑战,我国应当从产品设计的预防理念、产品责任的具体规则以及产品致损的保险配套机制三个层面采取应对策略。
(一)注重贯彻损害预防的基本理念
我国在大力发展人工智能产品的同时,须加强前瞻预防与约束引导,最大限度降低风险,确保人工智能产品安全、可靠与可控发展。合理的侵权法规则通过形成减少事故成本的威慑机制,将能够有效预防损害事故的发生。我国《民法典·侵权责任编》在承继《侵权责任法》的基础上进一步对损害预防的责任规则作出了相应完善。《民法典》第一千二百零五条、第一千二百零六条分别规定了当产品存在缺陷危及他人人身、财产安全时,生产者、销售者应当承担停止侵害、排除妨碍、消除危险等预防性责任以及采取必要的停止销售、警示、召回等跟踪观察义务措施,以防止缺陷产品致人损害事故的发生及扩大。由于人工智能产品的特殊性,一旦其存在缺陷将可能诱发系统性的产品致害风险,因此,对于人工智能产品致损的侵权责任应对,更应当注重贯彻预防损害的基本理念。
人工智能产品损害预防的设计理念倡导积极主动防御损害事故的发生,而非事后对损害进行消极救济。损害预防的理念本质上体现了人类中心主义的伦理原则与保障人类安全的优先价值[33]。2017年1月在美国加利福尼亚州阿西洛马举行的人工智能大会上,来自世界各个国家的人工智能领域专家代表共同签署了《阿西洛马人工智能原则》(Asilomar AI Principles),其中第21 条就确立了人工智能产品风险预防与降低的规划[34]。2019 年4 月,欧盟委员会人工智能高级专家组发布的《可信赖的人工智能伦理准则》,也明确提出“避免造成伤害”(prevention of harm)的原则[25]。前述两项具有较大影响力的人工智能发展倡议文件,均体现了在发展人工智能技术的过程中注重损害预防的基本理念。由此可见,在人工智能领域,强调损害预防的基本理念已经成为一项共识性的准则。
人工智能产品损害预防的基本理念应通过事先设计算法程序规则的方式来贯彻。在人工智能产品研发阶段,制造商将损害预防的基本理念通过算法嵌入人工智能产品系统之中,使之成为系统运行的默认规则。但是,这种预先设计的损害预防算法规则,有时也会面临伦理上的困境。如智能网联汽车在面临紧急危险时,即使采取处置措施可能也将难以完全避免损害后果的发生。在该种情况下,自动驾驶系统应当如何选择损害对象?是优先保护车内乘客安全,还是根据可能造成损害的严重程度进行对象区分,这极具争议。笔者认为,在人工智能产品致人损害后果难以避免的情况下,应当寻求在法律和伦理上同时可行的损害分级方法[35],坚持将损害后果降低到最小的原则,并更加注重维护以人类尊严和生命安全为最高目标的价值秩序。
(二)完善产品责任的法律规则
1.明晰智能软件的产品属性
我国现行法对产品采取以“抽象概念+否定式列举”相结合的方式进行界定,并未对产品的范围进行肯定式列举。对于一些特殊形式的产品,有必要尽快明晰其产品的客体属性及强调产品安全的重要价值。在信息科技时代,智能软件和类似的电子产品被广泛应用于研发、生产以及管理等关键领域。尤其是伴随着人工智能技术的应用,人工智能产品逐渐被投入使用,这对智能软件生产者在产品设计方面提出了更高的要求。智能软件是否属于产品直接关系到受害人能否依据软件缺陷主张产品责任从而获得有效救济[36]。在美国司法实践中,计算机软件被认为属于产品的范畴,能够适用严格产品责任[37]。实际上,近现代民法只考虑了有体物产品,几乎没有涉及智力产品,未来的发展趋势要求构筑一个将有体物产品责任与智力产品责任综合在一起的法律模型。因此,将智能软件纳入我国产品的范围有利于为未来的科技发展与司法实践预留必要的空间。
对于智能软件缺陷的认定,可以采用“违反既定设计标准”的判定方法与“故障理论”规则。如果软件产品与既定的设计标准相背离,导致软件不符合其应当具备的基本性能或者不同于该条生产线上同批次软件产品的质量,则可以判定该智能软件存在制造缺陷。运用“违反既定设计标准”的判定方法,可以更加客观、直接和明确地对产品在制造方面的不合理危险进行判断。由于确定智能软件中的缺陷问题是非常复杂的,对此还可以援用“故障理论”规则作为补充判定方法。产品故障理论源于美国产品责任领域认定产品存在缺陷的一种方法,且经常适用于产品缺陷事实不易查清的产品责任案件。原告只要证明以正常使用的方式发生了产品故障并且除产品缺陷之外并无其他导致损害原因的可能性,则可以通过这种间接证据证明产品存在缺陷[38]。
2.坚守产品责任严格原则的基本立场
产品责任归责理论的历史演变,大致经历了从合同责任到侵权责任、从过失责任到严格责任的发展轨迹。严格责任原则的形成和确立绝非偶然,而是有着深刻的社会经济基础。对缺陷产品适用严格责任原则,有助于激励产品制造商增加在产品安全方面的投入,从而尽可能降低或消除可避免的产品风险[39]。相对于消费者而言,产品制造商往往更容易在产品的生产过程中发现、评估和应对存在的风险,尤其是针对那些技术复杂的人工智能产品更是如此。依据风险控制的基本原理,缺陷产品导致的损失将会被制造商尽可能降至最小[40]。
美国较早在产品责任领域确立严格责任原则,且该原则长期占据着美国产品责任法的核心地位。随着产品责任诉讼案件的大量出现,20世纪80年代以后,美国理论与司法实践开始对《侵权法重述第二版》第402A 节中的严格责任原则进行改革,最终通过了《侵权法重述第三版:产品责任》。经改革后的美国产品责任制度在归责原则方面发生了变化,严格责任原则仅适用于产品制造缺陷,不再适用于设计缺陷与警示缺陷。但是,严格来说,美国产品责任法上有关归责原则的改革举措并未从根本上动摇现代产品责任制度普遍奉行的严格归责原则的基本精神,只是为了避免严格责任在具体适用时演化为绝对责任而进行的必要矫正。事实上,美国产品责任法上归责原则的改革也并未像其最先确立严格产品责任制度那般对其他国家和地区的产品责任立法产生广泛的影响。就目前而言,美国以外其他法域的产品责任制度仍表现出坚持严格归责原则的基本立场,并未追随美国的最新改革趋势[41]。在人工智能产品领域,对于产品缺陷类型的划分是较为困难的,坚守严格责任原则能够遏制市场上危险产品的出现,尽可能降低缺陷产品的风险,提升产品的安全质量。
3.合理界定产品责任的承担主体
依据《民法典》第一千二百零三条的规定,我国产品责任的主体同时包含生产者和销售者,但是现行法律并未对产品生产者、销售者的概念和范围作出具体规定。为了正确识别和认定人工智能产品致损责任的承担主体,有必要明确产品生产者和销售者所包含的主要类型,并且需要结合人工智能产品的研发、生产等一系列过程,考虑适当扩充产品责任的主体范围。对于生产者而言,其不仅应包括实际生产者,还应当包括标识生产者和拟制生产者。其中,标识生产者是指将自己置于生产者地位的非典型产品责任承担主体;拟制生产者是指在特殊情形下将非产品生产者视为产品生产者,并使其承担因产品缺陷致人损害的责任。对于销售者而言,其应当包括经销商、分销商、进口商、批发商以及零售商在内的具体销售主体类型。
由于人工智能产品具备较高的科技含量,需要有专门的产品软件程序开发商。如果人工智能产品致人损害是由软件程序方面的缺陷造成的,那么产品软件程序开发商也将承担侵权责任。另外,对于经普通产品改造后的人工智能产品存在缺陷致人损害的,原始制造商不应当承担责任,而应由实际的改造者承担责任[17]。由此可见,人工智能产品因缺陷致人损害时,可能承担侵权责任的主体应包含生产者、销售者、研发者以及改造者,上述主体之间承担的是一种不真正连带责任。
4.调整产品责任的抗辩事由
当出现人工智能产品致人损害时,《产品质量法》第四十一条第二款规定的抗辩事由是否还能继续适用,有必要进一步探讨。毋庸置疑,“未将产品投入流通的”和“产品投入流通时,引起损害的缺陷尚不存在的”两项抗辩事由仍然可以继续适用,这将不存在争议,问题在于发展风险的抗辩能否继续适用于人工智能产品缺陷责任。发展风险抗辩涉及产品责任法的基础性问题[42]。发展风险抗辩将使立法者处于保护消费者使用安全与维护生产者效率的两难境地[43]。然而实际上,发展风险抗辩与产品责任并非不可调和。产品责任的现代发展表现出遏制责任过于严格化的倾向,而发展风险抗辩将能够发挥必要的辅助机制作用[44]。发展风险抗辩归根结底是对创新风险的分摊选择[45]。就产品创新而言,生产者固然能够通过新产品投入流通而获取利润,事实上产品创新也离不开消费者的市场需求,并且消费者也能分享产品创新带来的益处。在人工智能产品致人损害的语境下,保留发展风险抗辩是必要且合理的。将发展风险抗辩作为产品责任的抗辩事由之一,有助于鼓励生产者为新产品积极投入研发,从而为整个社会的创新进步营造宽松的环境。相反,如果没有发展风险抗辩,生产者出于趋利避害的心理将会采取较为保守的发展策略,许多与发展风险有关的新产品将不会被生产者投入市场,最终也不利于社会的创新发展。当然,发展风险抗辩也不是绝对的。为了弥补发展风险抗辩可能带来的不利后果,提高人工智能产品的安全性,制造商还应负有及时维护和升级产品软件的义务,并将与产品安全有关的重要信息及时通知产品的终端用户[46]。
除既有的产品责任抗辩事由之外,由于人工智能产品的特殊性,制造商还可以主张以下抗辩事由。其一,使用人的误用行为。制造商没有义务防止所有的误用行为,只要制造商尽到关于产品的使用说明义务,则制造商不需要对使用人的误用行为导致的损害后果负责。如使用人不按照产品的规格说明,擅自对智能网联汽车进行改装而引发的损害,制造商将不承担责任[47]。其二,使用人的自甘冒险行为。人工智能产品的制造商按照要求对产品在特定环境下使用的潜在风险予以充分警示后,用户在明知可能存在风险的前提下仍然继续使用该产品,则制造商对因此造成的损害将免予承担责任。如智能网联汽车被禁止在冰雪路面开启自动驾驶模式,但是使用人仍开启自动驾驶模式引发损害后果的,应由使用人自行承担责任[47]。其三,由第三人的原因导致损害。如人工智能产品系统遭遇黑客的非法侵入而被操纵造成他人损害的情形,对此已尽到必要保护义务的制造商将不承担责任,而由该第三人承担责任[48]。
(三)建立责任保险的配套机制
人工智能产品致人损害时往往容易引发大规模产品侵权责任事故,制造商可能面临巨大的赔偿数额而濒临破产,这不仅不利于人工智能产业的健康发展,而且受害人在遭遇现实损害时也难以及时获得有效救济。我国《新一代人工智能发展规划》明确提出,要完善适应人工智能的保险、社会救助等政策体系,有效应对人工智能带来的社会问题。为此,在人工智能产品领域,非常有必要引入保险机制作为侵权责任的补充配套方案,以分散损害风险,保障人工智能产品投入流通后不至于造成较大的消极社会影响。
为了有效预防人工智能产品致人损害的风险,应当建立多层级的保险结构。首先,应设置强制责任险,由人工智能产品的制造商作为投保义务人,当人工智能产品发生致人损害的侵权事故时,确保受害人能够获得最基本的救济。其次,应设置商业责任险,鼓励人工智能产品的制造商、所有者积极进行投保,以解决强制责任险赔偿不足情形下存在的问题。再次,还应当设置产品责任险,由制造商作为投保人,以应对人工智能产品存在缺陷致人损害的大规模赔偿责任。
人工智能技术的应用也可能会对保险行业带来一定的冲击。由于人工智能产品具有自主决策能力和深度学习能力,产品的性能将随着时间的推移不断改善。关于普通汽车以往碰撞的损失数据,将不能准确预测未来智能网联汽车碰撞的可能性风险,因为任何过去的碰撞都会在自动学习系统之下产生纠正措施,由此导致保险公司在计算保险费用时可能不知所措[49]。一个具有创新可能性的思路就是探索个性化的保险模式,即保险公司根据制造商、产品类型、所有者或者使用者的具体情况来确定保险费用。如在智能网联汽车领域,通过在车内安装小型黑匣子装备,以准确记录车辆行驶的速度、时间、距离、路况等数据,从而建立全面的车辆行驶资料,便于综合分析事故风险[50]。这种个性化的保险模式,能够实现有针对性、实时性的保险费用缴纳模式,合理配置保险成本与损害风险。
五、结语
随着人工智能技术的不断突破,人工智能产品得以推广应用的前景更为可观。如果不能妥善解决人工智能产品致害风险及其引发的侵权责任问题,无疑将会给人工智能产业市场化发展埋下法律隐患。为此,我国应当从产品设计的预防理念、产品责任的具体规则以及保险配套机制三个方面采取应对策略。首先,应当注重贯彻损害预防的产品设计理念。在产品研发阶段,要求制造商预先设计出符合法律和伦理的算法程序规则,将之嵌入人工智能产品系统并成为默认的运行规则,以尽可能避免损害事故的发生。其次,关于产品责任的具体规则应作如下应对:应当坚守严格责任原则的基本立场,明晰智能软件的产品属性并依据违反既定设计标准和故障理论规则对其缺陷进行判定,将产品责任的主体范围扩充为生产者、销售者、研发者以及改造者,在保留发展风险抗辩的同时增设生产者负有及时维护和升级产品软件的义务。再次,为了有效应对大规模人工智能产品侵权责任纠纷和及时救济受害人,还应充分发挥责任保险配套机制的作用。通过建立包括强制性保险、商业性保险以及产品责任保险在内的多层级保险结构,探索个性化的保险费用缴纳模式,以合理配置保险成本与损害风险。