人工智能侵权:产品责任制度规制的窠臼与纾解
2022-11-21钟晓雯
钟晓雯
(西南政法大学 民商法学院,重庆 渝北 401120)
人工智能技术在蕴含巨大的经济驱动潜力的同时,也存在因人工智能系统故障、系统自身瑕疵等原因产生的致人损害危机。机器人“杀人”“伤害”等侵权事件在日本、美国、德国等地屡见不鲜。1978年日本一家工厂的切割机器人突然“转身”将工人抓住并切割,这是世界上第一宗机器人“杀人”事件。近年来自动驾驶汽车在推广运用中也发生了侵权事例,2017年美国赌城拉斯维加斯的自动驾驶全电动穿梭巴士仅投入运营不到两小时就发生撞车事件。无独有偶,2018年美国亚利桑那州坦佩再次发生了自动驾驶汽车致人死亡事件。自此人工智能产品责任、侵权责任等一直备受全球关注。
一、人工智能侵权及其对现行侵权责任制度的挑战
人工智能的侵权责任风险主要以三种类型存在:一是第三人通过非法入侵的方式控制人工智能系统进而造成他人损害;二是人工智能系统的使用者因不当使用导致损害后果发生;三是人工智能系统自身存在缺陷而致人损害。在第一种与第二种人工智能侵权类型中,人工智能以人类工具的形态存在,侵权主体仍然为行为人,与传统侵权行为并无本质区别,尚未超出现代侵权责任制度体系的规制范畴,可在既有法律秩序下,适用一般过错侵权责任进行解决。因此,人工智能侵权责任风险的法律控制难点主要集中于第三种类型——人工智能系统自身存在缺陷致人损害的情形,下文所称“人工智能侵权”即特指此种类型。
我国传统的一般侵权责任规则遵循的是过错责任原则,即行为人具有过错是其承担侵权责任的必要条件。然而,近年来,人工智能技术的发展使得人工智能系统具有了一定的自主性。人工智能已经能够通过算法进行深度学习,从外部世界获取大量数据,并获得相应的知识和技能,进而能够在无需人类干预的情况下自主运行,自动驾驶汽车即为典型的示例。在此种情形下,由于人工智能是处于自主、自动运行状态,并未由人类直接进行干预,人类仅仅起到了设定程序的作用,一旦发生侵权事故,如何确定责任承担者则成为一个难题。盖因人工智能的法律主体地位问题虽然已经在学界引起了激辩,但并未达成共识,我国法律也未明确赋予人工智能以法律主体地位,由人工智能作为侵权事故的责任承担者不符合既有的法律秩序。同时,由于人工智能的管理者、使用者、所有者等并无实施致人损害的行为,亦无法避免或阻止人工智能侵权行为的发生,且法律尚未就人工智能的管理、使用等行为规定注意义务,故而同样无法认定他们存在过错。因此,一般侵权责任规则无法调整因人工智能系统自身存在缺陷致人损害的情形。
倘若因人工智能系统自身存在缺陷致人损害之情形无法适用一般侵权责任规则,那么现有其他侵权责任规则和理论能否解决这一问题?除一般侵权责任规则外,我国侵权责任法中亦规定了特殊侵权责任规则,具体包括监护人责任、用人者责任、产品责任、高度危险责任等。在这些特殊侵权责任中,人工智能侵权更类同于高度危险作业,因人工智能的运行方式与决策体系呈现出“黑匣子”效应,其潜在风险较大且难以控制。俄罗斯发布的《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(又称《格里申法案》)也曾针对人工智能致人损害的情形,提出应当使用高度危险来源占有人责任的规范[1]。现代社会是一个风险社会,科学技术在提高人类生活品质的同时不可避免地创造出了大量危险物质和危险活动,在立法中规定高度危险责任的主要目的是为了敦促从事高度危险作业的民事主体能够尽到足够高的注意义务,尽力防范、避免损害的发生。然而,在人工智能领域,囿于人工智能已经具有相当的复杂性①、非透明性②以及自主性③,人类往往在对人工智能程序进行设定后,即无法控制人工智能的运行与发展。因此,通过高度危险责任规制人工智能侵权,并无法实现防范、避免损害发生的立法初衷。相反,这会增加人工智能管理者、使用者、所有者等的经济与法律负担。
事实上,当前的人工智能虽然具有了一定的自主性,但尚处于弱人工智能时代④。迄今为止的人工智能系统仍然是由人类通过算法设计、程序设定的,用以实现特定功能的专用智能,尚未具有与人类一样的情感与思维能力,无法不断适应复杂的新环境,并涌现新的功能。从这一角度而言,尽管人工智能技术发展迅速,当下的人工智能在人类社会所充当的仍然是“工具”的角色,并未超越人类视野下“物”的范畴,仍然处于人类的控制下[2]。此处并无意否认人工智能未来超越人类,摆脱人类控制,进入强人工智能或超人工智能阶段,以致于无法用人类固有的法律规则进行调整的可能性,现代法学体系也确应作出前瞻性的立法考量。但对于当前以工具形态呈现的人工智能侵权问题,立法也不应熟视无睹,而是应当立足于人工智能的“工具”的角色属性,及时作出回应。
二、产品责任制度规制人工智能侵权的合理性
如前述,尽管人工智能系统的复杂性、非透明性以及自主性使得其对现行侵权责任制度产生挑战,但由于当前我国仍处于弱人工智能时代,人工智能是以人类“工具”的角色属性存在,隶属于“物”的范畴,故而或可考虑采用产品责任制度来规制人工智能侵权。人工智能系统是由硬件组件与智能软件构成,其自主性也来源于智能软件的发展,可以说,人工智能系统的本质是一个实现特定功能的智能软件。因此,法律上能否将智能软件纳入“产品”的外延,直接决定了因智能软件存在缺陷导致人工智能产品致人损害时,能否适用产品责任的相关规则。
对于智能软件能否纳入产品责任法的“产品”范畴,我国立法未作出明确规定,学界对此问题的观点也存在分歧。判断智能软件能否纳入“产品”范畴,需要厘清“产品”的概念及其外延。在比较法上,诸多国家在立法上已就“产品”这一概念作出界定,例如,《德国产品责任法》第2条规定:“产品是指一切动产,包括构成另一动产或不动产的一部分的物……”也有少数立法例将不动产纳入产品责任的保护范围,如我国台湾地区《消费者保护法施行细则》第4条[3]。《中华人民共和国民法典》(简称《民法典》)侵权责任编未明确规定“产品”的概念和范围,仅在《中华人民共和国产品质量法》(简称《产品质量法》)中作了初步规定。结合《产品质量法》第2条第2款⑤和第3款⑥分析,《产品质量法》对于“产品”概念的内涵与外延采用了“抽象概念+否定式列举”的立法方式。从比较法与《产品质量法》第2条第2款的文义解释上来说,《产品质量法》中的“产品”是指经过加工、制作,用于流通的有形物(不包括建筑工程)。但因该条款的规定过于简略,反映到智能软件上即出现困境:当因为智能软件本身的程序错误、信息错误等,导致侵权事故发生时,可否适用产品责任?对此,理论学说以及司法实践的观点不一。有学者采否定说,认为信息产品原则上不适用产品责任中的无过错责任,因信息产品的缺陷而遭受损害的侵权纠纷适用过错责任原则[4]492。有学者采肯定说,认为基于未来的科技发展与司法实践考量,应当将智能软件纳入我国的“产品”范围[5]。我国司法实践中曾出现承认软件作为“产品”的案例,即“北京北信源自动化技术有限公司、上海林皓网络技术有限公司诉金信证券有限责任公司东阳吴宁西路证券营业部产品责任纠纷抗诉案”⑦。也有学者采拟制说,认为在软件本身属于知识内容且非有体物,因而并非“产品”,但倘若软件被装入电脑等机器,同时由于该软件存在缺陷致人损害,这种缺陷就被视为“产品”本身的缺陷,成为该法的适用对象[3]。
笔者赞同拟制说的观点。《产品质量法》颁布于1993年,该时期正处于第三次工业革命时期,也是我国社会主义市场经济的开端之际。从立法初衷来看,该法主要是为了规范工业制造领域的产品质量问题,确保在受害方与生产者、销售者之间公平分配与工业制造相关的风险,因此在《产品质量法》之后,国家对于食品、药品等领域的产品质量问题又采取进一步单独立法的形式。根据我国《产品质量法》,是否为有形物是认定“产品”的核心要素,故而如果软件存储在有形介质(例如DVD或闪存驱动器)上,则它有资格作为“产品”。但当前处于数字化时代,软件往往已经不再分布在硬盘、CD或U盘等有形存储介质上,而是通过云服务器下载。一方面,从《产品质量法》的立法目的——控制工业制造领域因产品质量引起的风险来看,集成了缺陷智能软件的计算机等机器与存储了缺陷传统软件的DVD等有形介质所带来的工业制造领域的产品质量风险并无本质区别;另一方面,通过软件集成到计算机等机器上同样能够满足《产品质量法》中蕴含的有形物要求。此外,将集成到计算机等机器上的软件缺陷视为“产品”本身的缺陷,在现实生活中也符合一般人的理解范畴。
需要注意的是,随着云计算能力的提高,数字商品模糊了产品和服务之间的区别,过去消费者购买的属于产品的物品已经能够实现云交付,而且通常由服务提供商以提供服务的方式交付[6],例如,消费者以前购买CD,现在可以订阅网易云音乐。这意味着未来可能会出现更多的人工智能系统在服务模型上运行,即不仅产生人工智能实体商品,还将出现人工智能数字商品[7]。未来还需要在《产品质量法》中就人工智能产品与人工智能服务之间的界限作出区分。
三、产品责任制度规制人工智能侵权的窠臼
尽管人工智能能够纳入“产品”的范畴,但人工智能产品与以往人类生产的产品存在极大差别,其具有相当的复杂性、非透明性以及自主性,不仅能够协助人类工作,且已经在诸多领域能够直接替代人类的工作。审视人工智能技术的发展轨迹,不难发现,实现人工智能系统的自主性与自动性的常态化仅仅是一个时间问题。因此,传统的产品责任制度在调整人工智能侵权时不可避免会存在立法供给上的不足。具体而言,主要体现在以下几方面。
(一)能否适用严格责任原则存在疑问
随着机器学习和深度学习能力的进步,人工智能系统逐步具有自主性,在技术上可能能够独立作出决策,并削减人类对人工智能系统的人为控制[8]。同时,欲将人工智能系统的有害决策归因于生产者也变得更加困难。与传统的工程和设计不同,自主性人工智能的实际功能不一定像大多数工程系统一样具有可预测性。正如阿萨罗(Asaro)指出的:“虽然任何工程产品都可能由于故障或不可预见的使用情况而存在一定程度的不可预测性,但人们对产品的性能、性能极限测试和故障可能性以及可预见风险的管理有着共同的期望。就高级人工智能而言,从环境数据中学习的系统可能会以设计者无法预见的方式行事。”[9]从产品责任的角度分析,产品责任适用的是严格责任原则,其要求生产者或销售者对产品的设计、生产等工作负责,并预见可能导致的危害。倘若人工智能产品缺乏可预测性是由于在开发应用程序时不够谨慎,或是由于采用节省成本的措施等原因导致的,适用严格责任原则追究生产者的责任并无异议,但当人工智能系统处于半自主性甚至完全自主性的状态下,生产者或销售者无法预见人工智能产品在投放市场后将如何决策或行动,仍然适用严格责任原则未免存在有失公平之嫌疑。
(二)难以证明人工智能产品是否存在缺陷
首先,人工智能系统具有非透明性,这一特性又被称为“黑匣子效应”。人工智能的“黑匣子效应”主要源于人工智能算法的不可解释性⑧、人工智能训练数据集的可视性缺乏⑨以及人工智能系统运行过程的难以验证性⑩。这就导致受害方无法确定他们是否受到人工智能产品的侵害以及受到什么类型的侵害,更难以追踪并证明人工智能产品存在“缺陷”。正如斯马特(Smart)等所指出的:“对于许多具有潜在危害的非自动化产品,如带锯(保护罩)和厨房电器(短线),设计和危害之间通常存在相对可追踪和可预测的界限,但现有的用于物体识别和控制系统的软件包却并非如此。”[10]其次,人工智能产品缺陷与损害之间的因果关系存在举证困难。人工智能技术的自主性和复杂性导致人们难以预测其作出的决策。尽管人工智能产品的学习算法的过程可能是公开和透明的,但由于算法黑箱的存在,其产生的模型不一定是公开透明的,其学习模型的内部决策逻辑也并不一定能够被理解,甚至可能连程序设计者也无法完全理解[11]。最后,在人工智能产品缺陷的抗辩事由上,我国《产品质量法》第41条第2款规定的第三项抗辩事由“将产品投入流通时的科学技术水平尚不能发现缺陷的存在的”(又被称为“发展风险抗辩”)存在争议。对于该抗辩事由在人工智能缺陷产品致人损害中的适用问题,或有学者认为该抗辩事由有助于鼓励生产者为新产品积极投入研发,为社会的创新进步营造宽松环境,废除该抗辩事由会导致生产者产生趋利避害的心理,进而采取较为保守的发展策略,不利于社会的创新发展[5];或有学者认为发展风险抗辩本质上是过失责任的产物,过多适用可能危及产品的严格责任制度的发展,不利于对弱势消费者群体的倾斜保护等[12]。
(三)难以确定人工智能产品责任承担主体
人工智能产品通常并非由一个生产者独立完成,而是涉及众多参与生产人工智能系统的利益相关者,盖因人工智能系统的生产是诸多组件的系统组合,不仅需要智能软件的嵌入,也需要相关硬件的支持,且组件与组件间是相互依存、相互作用的,例如有形设备,如传感器或硬件,与软件组件、应用程序、数据本身、数据服务以及连接特性之间相互依赖。因此,当人工智能系统存在缺陷并致人损害时,司法实践中将难以合理确定人工智能产品责任的承担主体。这主要体现在两个方面:一是由于难以判断是构成人工智能系统的某个软件抑或硬件存在缺陷,进而无法合理确定人工智能产品责任承担主体;二是人工智能产品的组件是相互依存、相互连接的,如果来自不同生产者的组件之间存在兼容性问题,则损害责任难以区分。即便生产者能够确保组件兼容,组件之间的交互仍然可能影响损害责任的分配,因为不同组件之间的交互可能产生互补作用,也可能产生替代作用。
四、产品责任制度规制人工智能侵权的纾解
囿于传统产品责任制度在规制人工智能侵权时对于能否适用严格责任原则存在疑问,且难以证明人工智能产品是否存在缺陷,以及难以确定责任承担主体并合理分配责任,故而为了更好地在产品责任制度框架下解决人工智能侵权问题,需要完善现行产品责任制度。
(一)在人工智能侵权中坚持严格责任原则
产品责任归责理论的历史演变,大致经历了从合同责任到侵权责任、从过失责任到严格责任的发展轨迹。严格责任原则的形成和确立绝非偶然,而是有着深刻的社会经济基础[5]。无论是从比较法的角度观察,抑或是从我国经济发展与司法实践的角度审视,严格责任原则在人工智能系统缺陷致人损害中的运用均有其合理性。
首先,从比较法的角度来看,欧美国家在规制生产者因缺陷产品致人损害的法律问题中普遍采用严格责任原则。1985年的欧共体第85/374号关于产品责任的指令明确指出,“考虑到对于我们这个技术日益进步的时代,唯有生产者的无过错责任能够以一种适当的方式解决现代化技术生产固有风险的公平分担问题”,该指令第1条即规定:“生产者应当对其产品的缺陷所造成的损害承担责任。”[4]484美国作为世界上侵权责任法最为完善的国家,其产品责任中的严格责任原则发端于1842年的温特伯顿诉莱特案,并持续适用至20世纪80年代。此后由于产品责任诉讼案件的逐年剧增,以及理论与司法实践对产品设计缺陷采取严格责任的诸多批判,美国在1979年公布了《统一产品责任示范法》,其目的是为了明晰和限制严格责任原则[13]。该示范法作为美国各州侵权责任立法的潜在导向,最终引起了美国《侵权法重述第三版:产品责任》对严格责任原则的改革:仅适用于产品制造缺陷,不再适用于设计缺陷与警示缺陷[14]。但是严格来说,该原则在美国侵权责任法上的改革并未从根本上动摇现代产品责任制度普遍奉行的严格归责原则的基本精神,只是为了避免严格责任在具体适用时演化为绝对责任而进行的必要矫正[5]。因此,从比较法的角度审视,严格责任原则在欧美国家的产品责任法中仍然普遍存在。
其次,适用严格责任原则有利于司法机关解决人工智能产品侵权纠纷。对于人工智能产品致人损害引起的纠纷,倘若采取过错责任原则进行规制,会面临以下两方面的问题:一方面,受害者需要举证证明生产者在人工智能产品的生产过程中存在过错,以及生产者的过错与受害者所受损害间存在因果关系。但如前所述,由于人工智能产品具有复杂性、非透明性以及自主性,受害者本就难以证明其损害结果是源自人工智能系统的缺陷,更难以证明生产者或销售者存在过错,或生产者、销售者的过错与受害者遭受损害间存在因果关系。另一方面,立法者需要根据实际情况,在利益平衡的基础上合理确定各方当事人的注意义务。倘若立法者能够设置合理标准的注意义务,则能够促使各方当事人对人工智能产品采取有效的安全防范措施;但倘若课以当事人过高或过低的注意义务,则无法达到立法的预期效果。囿于人工智能产品的三大特性,立法者难以预见人工智能产品致人损害所带来的实际责任风险,更难以清晰判断各方当事人的注意义务的合理边界。但采用严格责任原则能够减轻甚至避免上述问题:一是严格责任原则降低了受害者的证明责任标准,尤其在产品责任中,通常情况下受害者只需要证明产品存在缺陷,司法实务中即推定损害结果与存在缺陷的产品之间存在因果关系,毋需受害者再就相关因果关系作进一步证明。二是在产品存在缺陷的情况下,严格责任原则要求生产者或销售者承担全部损害赔偿责任(其中生产者与销售者间为不真正连带责任),毋需进一步考量当事人的注意义务。
最后,适用严格责任原则有利于提高人工智能产品安全性与责任风险分散承担。由于严格责任原则要求生产者或销售者承担因人工智能系统缺陷导致的全部损害赔偿责任,这可以促使生产者开发安全系数更高的人工智能产品,销售者采取更为有效的人工智能产品安全预防措施等,从而也为社会带来显著好处,使具有自主功能的汽车更加安全,人工智能诊断工具在检测疾病方面更为准确等。此外,从个体的角度来看,因人工智能系统缺陷遭致损害是一个高度不可预测的随机事件,但对于生产者或销售者(通常为企业)而言,结果是可以预见的,因为通过大数据分析,生产者或销售者可以预见相关事故发生的平均数量、可能概率以及致损程度。尽管采用严格责任原则从理论上分析会加重生产者或销售者的单位成本,但在实际企业运营中,企业可以更好地将预期可能增加的伤害成本内化为社会活动成本,进而分散转移至产品使用者身上,还可通过保险机制分散侵权责任风险的承担。因此,在人工智能系统缺陷致人损害的法律控制中应当坚持严格责任原则。
(二)完善人工智能产品“缺陷”的认定规则
产品责任取决于产品是否有缺陷,“缺陷”的定义对于确定开发、制造人工智能系统的生产者责任至关重要。证明一个产品是否存在“缺陷”,不仅需要依据缺陷认定标准进行判断(判断过程中将涉及举证责任分配问题),同时倘若判断该产品存在缺陷,还需要进一步审查产品缺陷是否存在抗辩事由。因此,明确人工智能产品“缺陷”的认定规则包括三方面:一是明确人工智能产品“缺陷”的认定标准;二是减轻人工智能产品“缺陷”与损害结果因果关系的举证责任;三是调整人工智能产品“缺陷”的抗辩事由。
1.明确人工智能产品“缺陷”的认定标准
根据我国《民法典》与《产品质量法》的相关规定,产品缺陷的认定分为两个方面:一是产品本身具有不合理的危险;二是产品不符合国家标准和行业标准。结合《产品质量法》第46条分析,当致人损害的人工智能产品所在领域缺乏国家标准、行业标准,以及虽然符合国家标准、行业标准,但受害者仍然欲证明该产品存在“缺陷”时,判断人工智能产品是否存在缺陷仅能以“是否存在危及人身、他人财产安全的不合理的危险”为标准,但这一标准的规定过于简略,司法实践中难以操作。建议立法在“不合理危险”的认定上建立“消费者期待标准”,明确消费者对于人工智能产品的安全期望的合理范围。
“缺陷”的概念与消费者对产品的安全期望直接相关。我国《产品质量法》将产品投入流通的时间作为决定生产者责任的核心因素,即生产者不对产品投放市场后才出现的缺陷负责,因为产品在投放市场后已经脱离生产者的控制,该缺陷可能是在市场流通环节中形成,也可能是因受害者不正当使用而造成。然而,这一缺乏控制的论点无法适用于旨在进入市场后继续学习的人工智能产品,因为此种情况下,人工智能产品的安全与其内嵌的智能软件的更新情况密切相关。因此,在界定消费者安全期望的合理范围时需要全面考虑软件产品、物联网设备和人工智能系统的动态性质[15]。建议可课以产品生产者向使用者提供与产品安全相关的软件更新的义务,同时为了防止过度宽泛和无限制的扩大生产者的产品安全责任,需要进一步明确此种软件更新义务的范围标准:一方面必须明确此类义务的合理存在期限,避免因义务存在时限过长或过短导致产品生产者与使用者间的利益失衡;另一方面用户应当有义务配合安装与安全相关的更新,需要明确用户未配合安装软件更新所应承担的责任。
2.减轻人工智能产品“缺陷”与损害结果因果关系的举证责任
产品缺陷可分为制造缺陷、设计缺陷和警示缺陷。对比传统制造产业,人工智能产品因制造缺陷和警示缺陷产生的风险较低,以最为典型的自动驾驶汽车为例,生产者通常在生产自动驾驶汽车的过程中,以人类驾驶员应遵循的注意义务差异为根据,设置了不同等级的提醒接管、警示等功能。因此,人工智能产品中更多的是产品本身程序上的设计缺陷[16]。设计缺陷的判断标准是“通过采用合理的替代设计,产品造成的可预见的危害风险可以减少或避免,替代造成不合理危险的设计”[17]。这种设计缺陷有可能来源于数据采集的有限性、代码漏洞、算法黑箱等。
上述设计缺陷直接造成了生产者与消费者对于人工智能产品信息存在严重不对称性及因果关系证明的复杂性,若将该举证责任交由消费者承担,未免过于苛刻,容易造成消费者举证成本高、举证不能而无法得到有效救济。为促使人工智能产品缺陷与损害结果之间的因果关系举证责任更加合理化,建议采用推定缺陷规则,即受害人无需自行通过专家鉴定等方式证明人工智能产品在制造、组装等过程中存在缺陷,仅需证明其使用了人工智能产品,且在使用过程中发生了某种不可归责于本人的损害,则推定产品缺陷存在。此时生产者、销售者抑或设计者等主体若欲推翻该推定的因果关系,由其自主作进一步举证。
3.调整人工智能产品“缺陷”的抗辩事由
发展风险抗辩的适用固然有鼓励生产者进行技术创新的好处,但是在人工智能产品语境下适用该抗辩事由并不合理。一方面,这与在人工智能缺陷产品致人损害中坚持严格责任原则的初衷相违背。在人工智能缺陷产品致人损害中坚持严格责任原则是为了在产品研发之初,即通过严格责任原则对可能产生的技术风险进行法律控制,确保人工智能产品的安全性,而发展风险抗辩事由的适用恰恰又是以当前科学技术发展为基础,这相当于在技术风险领域将严格责任原则架空。另一方面,这将导致产品责任承担者与消费者间的利益失衡。如前所述,在人工智能语境下应当坚持产品责任制度,这能够促使产品的生产者、销售者、运营者合理预测其可能承担的侵权风险,并在此基础上进行成本内化,进而通过提高产品单价将风险分摊至消费者。由于消费者通常难以理解人工智能产品中蕴藏的技术原理,在技术产品的发展和运用中长期处于边缘化地位,倘若在风险已经分摊的基础上再坚持发展风险抗辩事由,这对于消费者而言并不公平也不正义。
事实上,排除产品责任制度中的发展风险抗辩已有域外立法例的基础:芬兰、卢森堡在其国内法中排除了发展风险抗辩事由的适用;德国《产品责任法》也仅限于在设计缺陷上援引发展风险抗辩事由,并排除了该抗辩事由在药品领域的适用。
(三)合理界定并扩大人工智能产品责任的承担主体
《民法典》第1203条规定了我国产品责任的主体包括生产者与销售者,但现行法律尚未就生产者、销售者的概念和范围作出详细规定。为了合理界定人工智能产品的责任承担主体,需要在人工智能产品的语境下明确生产者、销售者的基本概念与主要类型,同时增设运营者作为人工智能产品责任的承担主体。
1.明确生产者、销售者的基本概念与主要类型
对于生产者而言,人工智能产品的生产需要历经模型设计、软件开发、零部件生产、硬软件集成等一系列流程,且当人工智能产品缺陷致人损害时,从生产者的角度审视,可能是由于缺乏硬件保护、软件故障、风险提示或兼而有之,亦即产品责任事故可能是因为制造缺陷、设计缺陷抑或警示缺陷等。因此,有必要结合人工智能产品的研发、生产过程,扩充产品责任中的生产者概念,尤其当人工智能产品的设计者、软件开发者以及制造者并非同一主体时,有必要将三者均纳入产品责任的生产者范畴,这是因为人工智能的制造者无法控制产品设计、软件开发上的风险与缺陷。如此一来,在产品责任的严格责任原则规制下,也能够督促设计者、开发者以及制造者在最大化程度上保障人工智能产品设计、软件开发、硬件制造等方面的安全性。总的来说,人工智能产品责任承担者中的“生产者”概念不能局限于人工智能实体商品的实际制造者,还应当包括产品设计者和软件开发者。对于销售者而言,其应当包括经销商、分销商、进口商、批发商以及零售商在内的具体销售主体类型[5]。为了保障受害者的合法权益,受害者因人工智能产品缺陷致害而向人工智能产品的生产者追偿时,既可以选择人工智能产品设计者、软件开发者以及实际制造者任一主体进行;也可以选择向人工智能产品的销售者追偿,包括人工智能产品的经销商、分销商、进口商、批发商以及零售商等。上述主体之间承担的是不真正连带责任。
2.增设运营者作为人工智能产品责任的承担主体
除应当明确生产者、销售者的基本概念与主要类型外,立法还应当考虑增设运营者作为人工智能的产品责任承担主体。人工智能产品的安全性还高度依赖于人工智能系统的合理操作,尤其在公共场所,人工智能系统运营者的操作直接关系到社会安全。然而,因人工智能缺陷产品遭受损害的个体一般不会向运营者提出违约责任赔偿,且囿于人工智能产品的特殊性以及企业商业秘密的保护,受害者通常也无法得知该产品的运营情况,更难以证明运营者存在过错。此种情况下,倘若仍采取一般过错责任,受害者将难以获得相应的救济。因此,有必要通过产品责任规范人工智能系统的运营者。2020年欧洲议会提出了关于人工智能民事责任制度的建议(2020/2014(INL)),其中第3条提出了“运营商”的概念,并将“运营商”分为“前端运营商”与“后端运营商”。在欧洲议会提出的这一建议中,“前端运营商”可能与生产者存在交叉,因此其在第11条中作出以下规定:“如果一个人工智能系统的运营商超过一个,他们应承担连带责任。如果前端运营商也是人工智能系统的生产者,则本法规优先于产品责任指令。如果后端运营商也符合产品责任指令第3条定义的生产者资格,则该指令应适用于他/她。如果只有一个运营商并且该运营商也是人工智能系统的生产商,则本法规应优先于产品责任指令。”建议我国可借鉴欧洲议会的相关规定,增设运营者作为人工智能的产品责任承担主体,完善人工智能产品的责任承担主体范围,允许受害者在相关责任承担主体中选择任一主体追偿。在责任承担主体的具体责任分配上,人工智能系统的运营者与其他产品责任承担主体同样可设置为不真正连带责任,从而充分保障受害者的合法权益。
五、余论
人工智能侵权给现行侵权责任制度带来了挑战,但迄今为止,我国仍然处于弱人工智能时代,具有自主意识的人工智能尚未出现,现代法学体系在人工智能语境下也尚未受到颠覆性的冲击。弱人工智能时代下的人工智能充当的是人类“工具”的角色,隶属于“物”的范畴,人工智能侵权风险能够在完善产品责任制度的基础上得到较好控制,但这只是权宜性的。审视人工智能技术的发展轨迹,人工智能已经从人类“工具”的角色逐渐转向自主独立的角色,实现人工智能独立决策、自主运行的常态化仅仅是一个时间问题。当人工智能具备主体意识,能够独立决策、自主运行时,或应在“去人类中心主义”的理念下,考虑赋予人工智能自我管理的权利,用其自身创造的财产去解决人工智能侵权问题,从而更好地实现人与机器的和谐相处。未来在人工智能语境下,立法也应当为具有自主意识的人工智能独立承担法律责任留下空间,彼时,产品责任制度亦将毋需承担调整人工智能侵权事故的职责。
注释:
①人工智能系统的复杂性主要体现在三个方面:一是涉及多个利益相关者;二是人工智能系统组件之间相互依赖;三是人工智能系统因其不断发展的本质而具有复杂性。
②人工智能系统的非透明性主要体现在三个方面:一是算法的不可解释性;二是训练数据集缺乏可视性;三是系统运行过程难以验证。
③人工智能系统的自主性是指其具有一定的随环境、数据或任务变化而自适应调节参数或更新优化模型的能力;并且能够在此基础上通过与云、端、人、物的广泛且深入的数字化连接,使系统本身具有适应性、鲁棒性、灵活性、扩展性,来应对不断变化的现实环境,从而实现机器客体扩展乃至人类主体的演化迭代(此概念来源于中国电子技术标准化研究院编写的《人工智能标准化白皮书〈2018版〉》,详见http://www.cesi.cn/images/editor/20180124/201801241355 28742.pdf.)。
④弱人工智能是指不能真正实现推理和解决问题的智能机器,这些机器表面看像是智能的,但是并不真正拥有智能,也不会有自主意识(此概念来源于中国电子技术标准化研究院编写的《人工智能标准化白皮书〈2018版〉》,详见http://www.cesi.cn/images/editor/20180124/20180124135528 742.pdf.)。
⑤《产品质量法》第2条第2款规定:“本法所称产品是指经过加工、制作,用于销售的产品。”
⑥《产品质量法》第2条第3款规定:“建设工程不适用本法规定;但是,建设工程使用的建筑材料、建筑构配件和设备,属于前款规定的产品范围的,适用本法规定。”
⑦案例具体情况可参见最高人民检察院民事行政检察厅发布的《人民检察院民事行政抗诉案例选(第8集)》,法律出版社,2005年版。
⑧人工智能算法的不可解释性,一方面指的是包括程序员在内无法理解当前诸如深度学习等算法的运行机理;另一方面指的是基于算法的人工智能系统的决策行为是如何作出并执行的,无法通过一般人可习得的语言进行陈述。人工智能的模型性能很大程度上取决于其训练数据,但人工智能系统使用了哪些训练数据、这些数据从何而来、如何清洗、是否存在偏差等问题均不为人们所知。
⑨人工智能系统运行过程的难以验证性,指的是包括程序员在内的人类难以验证人工智能系统的输入变量影响输出结果的全过程。
⑩发展风险抗辩指的是产品责任承担者能够证明囿于产品在投入流通时的科学技术发展水平,无法检测或发现产品缺陷的存在,从而主张免除损害赔偿责任。