APP下载

论人工智能产品发 展风险抗辩的适用

2023-02-28高完成

科技与法律 2023年6期
关键词:生产者科学技术人工智能

高完成

(郑州大学 法学院,郑州 450001)

人工智能引领的新一轮科技革命和产业变革方兴未艾,当前我国人工智能产业发展呈现良好态势。《2022 人工智能发展白皮书》显示,2021 年我国人工智能核心产业规模达到3 416 亿元,人工智能相关企业数量达到7 796 家①2022年3月深圳市人工智能行业协会发布的《2022人工智能发展白皮书》。。2022 年7 月科技部等六部门印发的《关于加快场景创新 以人工智能高水平应用促进经济高质量发展的指导意见》指出,以促进人工智能与实体经济深度融合为主线,加速人工智能技术攻关、产品开发和产业培育,探索人工智能发展新模式新路径。该意见为我国人工智能重大应用和产业化问题指明新的发展方向。人工智能产品极大提升了人类生产生活质量,但与此同时,人工智能的科技特征也可能存在产品潜在风险的不确定性问题。一旦人工智能产品存在缺陷引发系统性风险,将可能产生大规模产品致害事故的市场风险隐患。

习近平总书记在关于人工智能发展的重要论述中强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控②《习近平在中共中央政治局第九次集体学习时强调:加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展》。。我国《新一代人工智能发展规划》提出要围绕人工智能产品的复杂性、风险性、不确定性等问题,构建人工智能安全监测预警机制。2023 年6 月,国务院办公厅印发《国务院2023 年度立法工作计划》,其中明确将《人工智能法》作为新兴领域立法的重要内容之一。当前,我国亟须跟进研究人工智能产业相关法律制度,既要激励人工智能产品的研发创新,又要对人工智能产品的致害风险加以防范,以良法善治保障人工智能新业态、新模式健康发展。面向人工智能产业的未来发展前景,如何从法律制度层面协调保障人工智能产品安全与鼓励技术研发创新,关键在于合理配置发展风险与产品责任之间的关系。基于此,本文拟对人工智能产品发展风险问题展开研究,通过将发展风险抗辩置于人工智能产品责任体系框架之中进行探讨,分析如何化解发展风险抗辩制度运行的体系化逻辑障碍并明确其适用规则,构建消费者保护与人工智能企业创新之间的法律平衡机制,从而促进人工智能产业的良性发展。

一、人工智能产品责任领域适用发展风险抗辩的正当性分析

现代产品责任适用严格归责原则并不意味着发生损害即产生责任的所谓“绝对责任”后果,各国产品责任法均规定了生产者免除或减轻责任的抗辩事由。“发展风险抗辩”(Development Risk Defense)作为其中一项抗辩事由,是指当生产者将产品投入流通时的科学技术水平尚不能发现缺陷存在的,即使其后由于科学技术的进一步发展而认识到产品存在缺陷,那么生产者也可以援引的对该产品致损后果的不承担赔偿责任的抗辩主张[1]。发展风险抗辩涉及产品责任法的基础性问题。在现代产品责任适用严格归责原则的价值理念中,发展风险抗辩的存在将使立法者处于保护消费者使用安全与鼓励生产者研发创新的两难境地。同时,发展风险抗辩也体现着法律对于产品责任领域生产者与消费者之间风险因素的分配。

在当前人工智能产品大力推广应用的趋势下,由于人工智能产品具有高度复杂性和自主性的技术特征[2],人工智能系统的不透明性可能导致对产品安全的预测充满不确定性,这就可能会导致人工智能产品引发的缺陷致损后果具有滞后性。对于人工智能产品的生产研发企业而言,如果人工智能产品存在缺陷造成损害后果,那么其就可能借由人工智能产品的技术特征而援引发展风险抗辩以免于承担责任,从而导致受害者很难通过主张产品责任的损害赔偿而获得救济。尽管人工智能产业具有广阔发展前景,但也不能以牺牲人类利益为代价换取技术创新和突破[3]。因此,在人工智能产品领域,关于发展风险抗辩能否适用存在不同程度的隐忧。其主要焦点在于,发展风险抗辩是否适应于人工智能技术应用场景下产品生产者与消费者之间的风险分配关系,发展风险抗辩能否为一般消费者提供有效的保护,发展风险抗辩与严格责任原则是否存在体系矛盾。此外,人工智能产品发展风险抗辩的适用标准也存在模糊不清的问题,主要表现为发展风险抗辩的界定标准、适用范围以及补救机制均缺乏明确的规范指引,这就可能导致发展风险抗辩在人工智能产品发展应用中遭遇不确定性的现实难题。

2022 年9 月28 日,欧盟委员会通过了《关于〈欧共体缺陷产品责任指令〉修改的提案》(Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products),该提案对产品责任规则在新兴数字时代的适用问题进行了全面评估,其中特别强调人工智能产品应用场景下发展风险抗辩可能存在的困境,并提出取消保留发展风险抗辩的方案选择,以确保在新兴数字时代为一般消费者提供高水平的有效保护[4]。但是,欧盟委员会设立的“责任和新技术专家组”所发布的一份《关于人工智能和其他新兴数字技术责任的报告》(Liability for Artificial Intelligence and Other Emerging Digital Technologies),却认为发展风险抗辩对于人工智能产品研发具有重要的价值意义,应当予以保留[5]。可见,当前欧盟层面对于发展风险抗辩的规范价值也存在不同的认识。

尽管对于是否应当在人工智能产品场景下适用发展风险抗辩存在分歧,但是将发展风险抗辩置于整个产品责任制度框架予以审视,保留该抗辩事由具有相对妥当的法律政策基础。发展风险抗辩能够为整个社会科学技术的进步创造良好的法律环境[6]。就产品的创新而言,生产研发企业固然能够通过新产品的投入流通而获取利润,事实上产品创新也离不开消费者的市场需求,并且消费者也能分享产品创新带来的益处。尤其是对于具有新科技特征的人工智能产品的研发而言,保留发展风险抗辩是必要的与合理的。

其一,在人工智能产品场景下确立发展风险抗辩是鼓励产品创新的重要动力。在人工智能产品的生产研发过程中,如果要求企业对于发展风险承担全部责任,则势必会对产品的研发创新产生不当的抑制作用。创新的本质在于,产品在使用过程中可能遇到的风险在其投入市场时根本无法被全部或部分合理地确定或量化。当然,一种可能的方法是要求生产商在销售产品之前对其进行全面测试,但这又是不现实的。如果要求对人工智能产品的风险持续进行测试,直到确定使用一种产品可能出现的所有风险为止,那么几乎没有企业具有进行革新的动力,产品的创新研发也将停滞不前,最终消费者也不能从人工智能技术的进步中获益[7]。如果能够妥当构建人工智能产品责任体系中的发展风险抗辩,那么将有助于增强人工智能产品的研发动力,而这正是当今激烈竞争的产品市场所迫切需要的,发展风险抗辩正是人工智能产品抗辩体系中的关键内容[8]。

其二,通过发展风险抗辩能够公平分摊人工智能产品研发中的风险。由于整个社会受益于科学技术的进步,因而伴随这一进步产生的不可避免的风险应该分配给享受这一进步成果的主体[9]。消费者与生产研发企业并非截然不同的利益冲突群体,而是人工智能产品市场整体系统的一部分,如果消费者希望分享产品创新带来的利益,那么也应适当分担产品创新所涉及的一些风险。尽管生产研发企业在几乎所有情况下都承担因其缺陷产品造成的损害赔偿风险,但在产品确实具备了客观的、预期的安全水平的情况下,消费者通常应承担被称为产品未知风险的责任[7]。从表面上看,将发展风险抗辩纳入人工智能产品领域是为实现“受害者与生产者之间公平分摊风险”的最佳点而做出的设想。实际上,发展风险抗辩是在严格责任与公平分担风险之间、生产研发企业与消费者之间搭建的桥梁。通常,社会大众从人工智能产品中获得的利益大于生产者的经济利益。因此,风险的分摊评估必须与社会的整体利益相平衡,而发展风险抗辩的存在则能够较好实现这一目标[10]。

其三,发展风险抗辩与人工智能产品严格责任之间具有可调和性。由于在产品责任领域实施严格责任的理由之一是生产者具有发现和避免产品缺陷的能力,而生产者在发展风险中不可能发现或避免未知的风险,因此使生产者对发展风险承担严格责任似乎与实施严格归责原则的基本原理相违背。事实上,发展风险抗辩与严格责任的规范精神相契合。如果没有发展风险抗辩,那么生产者承担的严格赔偿责任将可能成为绝对责任[10]。发展风险抗辩的确立并没有推翻严格责任原则,人工智能产品研发风险与严格责任具有可调和性,主张严格责任的适用并不应当使生产者成为产品的绝对保险人。如果对开发风险的严格责任导致了绝对责任,也将意味着迫使生产者成为其产品的绝对保险人。

二、发展风险抗辩融入人工智能产品严格责任体系的优化路径

产品责任的现代发展表现出遏制过于绝对严格化的倾向,而发展风险的抗辩将能够发挥必要的辅助机制[11]。在人工智能产品严格责任中,如果纯粹依据消费者合理期待标准,排除发展风险抗辩的主张似乎符合逻辑性,因为生产者对产品危险的知悉或者消除危险的能力与消费者实际期待的安全程度并不相关。但需要注意的是,消费者合理期待标准也并不意味着是对人工智能产品抱有漫无边际或不切实际的安全期望,对于消费者合理期待标准的认识同样离不开现实的科学技术水平的依托,否则会导致严格责任接近于绝对责任。如果人工智能产品符合投入流通当时的科学技术水平,原则上该产品会被认定为符合消费者合理期待的安全性,不得被认定为属于缺陷的产品。可以说,发展风险抗辩与消费者合理期待标准的判断已经直接交织在一起,产品投入流通市场之时的消费者合理安全性期待一般可以依据受支配的科学技术水平作为判断标准[12]。由此可见,为了避免严格责任原则与发展风险抗辩之间发生直接的逻辑冲突,可以采取将发展风险抗辩融入人工智能产品缺陷判断标准这一可行的解释路径,从而消除具有过错性质的发展风险抗辩与严格责任体系不能兼容的困境。

申言之,发展风险抗辩在人工智能产品责任中所发挥的作用不再是针对产品缺陷侵权责任成立基础之上实际责任承担的抗辩,而是直接针对产品缺陷认定方面的抗辩。在美国产品责任法上,发展风险抗辩适用于产品设计缺陷和警示缺陷的案件,其所发挥的抗辩功效在于使得对产品设计缺陷和警示缺陷进行判断时融入科学技术水平的相关证据[13]。以产品设计缺陷的判断标准为例,当前美国司法实践对此的主导标准是采用“风险—效用”标准,并通过合理替代性设计这种具体方式对产品既有设计安全改进所引发的成本和效益进行权衡。其中,产品的合理替代性设计需要建立在现有业内技术水平的基础之上,这对于判断产品是否存在设计缺陷非常关键。如果产品的合理替代性设计超出了现有的业内技术水平,即依据当时的科学技术水平并不能设计出更为安全的替代性产品,那么则不能认定目前产品的状态是具有缺陷的,生产者将免于承担产品致人损害的责任。在产品警示缺陷案件中,发展风险抗辩的意义在于认定生产者对未知悉的产品危害风险是否负有警示的义务。由于生产者仅就产品投入流通时可发现的产品危险致损承担责任,如果依据当时的科学技术水平并不能发现产品的危险,则生产者未尽到相应的警示义务也不构成产品在警示方面的缺陷。

易言之,采取将发展风险抗辩中科学技术水平证据作为产品缺陷判断标准相关性的适用方式,能够使得具有过失性质的发展风险抗辩事由被限定在产品缺陷的判断过程,并不影响产品责任严格归责原则的基本法律架构。在发展风险抗辩适用的上述情形中,由于受到科学技术水平客观证据的限定,法律对于生产者过失行为的关注也仅仅局限在对产品缺陷的判断方面,并不影响产品责任适用严格归责原则的本质。只要依据发展风险抗辩中科学技术水平的证据判定人工智能产品不具有缺陷,那么将不符合产品责任的成立要件;如果依据发展风险抗辩中科学技术水平的证据判定人工智能产品存在缺陷,并且产品缺陷与损害之间具有因果关系,那么也不需要再考察生产者主观上是否具有过失的情形,生产者将因此承担法定的严格责任。

依据《中华人民共和国产品质量法》(以下简称《产品质量法》)第四十一条第二款第三项的规定,如果生产者能够证明将产品投入流通时的科学技术水平尚不能发现缺陷存在的,将免于承担损害赔偿责任。从该表述规定来看,生产者援引发展风险抗辩的目的在于证明产品投入流通时的科学技术水平并不能“发现”产品缺陷的存在,这就为将发展风险抗辩限定于产品缺陷的判断方面提供了可能的解释空间。由于《中华人民共和国民法典》(以下简称《民法典》)对于产品责任秉持严格归责原则,产品责任的成立并不以生产者的主观过失为判断因素,而是依据产品是否存在缺陷的客观判定结果。因此,在我国现行的产品责任框架之中,将发展风险抗辩融入严格责任体系的可行路径是将科学技术水平作为人工智能产品缺陷判断时的相关证据,从而实现将发展风险的抗辩功效由产品责任的豁免转向产品责任不成立的逻辑结果,以避免发展风险抗辩与人工智能产品严格责任体系之间的逻辑冲突。

三、人工智能产品发展风险抗辩的标准厘定

由于我国现行法规缺乏发展风险抗辩的实施标准,这就可能造成实践中人工智能产品发展风险抗辩具体适用标准的模糊。对于人工智能产品生产研发企业而言,则意味着人工智能产品研发和生产的技术标准缺乏明确的指引,那么生产研发将囿于对潜在风险的担忧而停滞新产品的市场投放。由此可见,当前厘清人工智能产品责任中发展风险抗辩的适用标准极为关键。

(一)人工智能产品“科学技术水平”的界定依据

由于人工智能产品具有高科技特性,且发展速度日新月异,对于发展风险抗辩中“科学技术水平”显然缺乏明确的界定[14]。究竟是依据当时国内技术标准,抑或是国际技术标准,以及是否应当考虑生产者对于相关知识的可获取性等因素,都是需要进一步明确的。

当前,经济全球化已经成为了一项普遍共识,产品流通也不再局限于某一国内市场,而是呈现出跨国贸易的态势。与此相对应,产品的生产技术水平也应当随着产品市场范围的扩大而具备更高程度的安全标准。人工智能产品发展风险抗辩中的科学技术水平不应当限于国内的最高技术水平,而是应当以世界范围内的最新科学技术水平为依据。这样将更有利于激励生产者及时跟踪世界范围内人工智能产品研发的前沿技术,从而更好地提升产品的安全性能。易言之,“科学技术水平”通常并不是指与国内行业惯例有关的证据——当一种可能受到质疑的产品被引入产品流通时特定行业中的大多数制造商的技术标准。在一定程度上而言,发展风险抗辩中的科学技术知识状态含有某种共识或固定的基础。

以当前人工智能产品的研发与生产为例,人工智能产品作为高度复杂的尖端科技产品,其研发、设计与制造的技术往往被实力雄厚的科技公司所掌握。如果仅仅依赖国内相关企业的生产技术水平并将其作为判断能否发现产品缺陷的最高科学技术水平,则此种发展风险抗辩的标准过于宽松,这将明显不利于对消费者权益的保护。将产品投入流通时的“科学技术水平”理解为世界范围内最先进的科技水平,能够防止一些科技巨头企业以其自身掌握的国内领先技术为由来逃避责任[15]。另外,当前以人工智能产品为典型的新兴科技产品,其研发技术可谓日新月异,只有将整个世界范围内的相关科学技术水平作为发展风险抗辩的依据,才能有助于促进国内相关领域的安全生产技术水平与世界标准保持同步。

在认定发展风险抗辩中的科学技术知识水平时,还应当注意考量生产者对于最新科学技术知识是否具有信息获取的可行性。尽管欧盟对人工智能产品发展风险抗辩中科学技术知识的解释尚无正式决定性的文件,但倾向于主张将知识的可及性纳入合理性标准的考量方面。关于产品最新科学技术的知识首先应当是已经公开的,如果是尚未向社会公布的相关科学知识,则生产者根本没有获取该知识的可能性,也不具备发现产品缺陷与规避风险的能力。对于未发表的文献或者在企业研究部门中保留的未向社会公众提供的研究成果,则不能被认为是已经公开的科学技术知识[16]。生产者对于已经公开的科学技术知识应当能够通过合理的途径予以获取,此种可获取性是生产者识别最新科学技术和研发产品的基本前提,其与以发展风险抗辩为基础的产品责任风险分配原则也相契合。

(二)发展风险抗辩的适用范围

对于发展风险抗辩的适用范围,当前欧盟一些成员国与美国产品责任法形成了两种不同的方案。在欧盟的一些成员国中,德国通过制定《药品法》的方式将药品存在不合理的危险致人损害排除适用于发展风险抗辩之外[16]。《法国民法典》在进行修订时增加了第1386-12条的内容,规定由人体某一部分或从人体中提取的产品造成损害的不得援引发展风险抗辩免于承担责任[10]。在美国产品责任法上,由于工艺发展水平只与产品设计缺陷、警示缺陷的判断标准相关,因此发展风险抗辩主要被限定适用于设计缺陷与警示缺陷的案件之中[17]。

所谓针对与消费者人身健康安全息息相关的产品而主张排除发展风险抗辩的适用[18],并不具有合理性依据。如果仅仅考虑此类产品与消费者人身健康安全关联度较大就否定生产者发展风险的抗辩则未免过于草率,这也不利于此类产品的科技创新,最终损害的也是广大消费者的利益。以20世纪60年代至80 年代期间美国疫苗产品的曲折发展过程为例,由于疫苗制造商对于依据当时科学技术水平所不能发现的疫苗副作用而承担严格责任,疫苗生产企业的科技创新积极性备受压制,甚至为了避免大规模产品责任诉讼而固守研发技术,导致疫苗产品行业的发展长期处于停滞不前的局面,这最终影响了社会公众的健康利益[19]。此外,针对特殊类型的产品主张限制适用发展风险抗辩还存在列举不够周延的弊端,食品、药品、血液制品固然与人身健康安全密切相关,但是这种不完全性的列举将会导致法律适用上的不确定性,也不符合产品责任的公正性要求。

笔者认为,对于人工智能产品责任中发展风险抗辩的适用范围是否应当受到限制以及应当在何种程度上予以限制,还需要根据发展风险抗辩的制度价值进行考量。发展风险抗辩在人工智能产品责任领域适用的主要目的在于对严格责任原则进行必要的矫正,防止生产者对于不可能预见的人工智能产品风险承担绝对的责任,以平衡生产者与消费者之间的利益关系。在产品责任中实施严格责任的理由之一是生产者具有发现和避免产品缺陷的能力,而生产者在产品发展风险中不可能提前发现或避免不可预知的产品风险。如果没有发展风险的抗辩,则严格产品责任可能成为绝对的赔偿责任[10]。由此可见,发展风险抗辩适用范围的确定也应当遵循相应的科学技术水平对于产品缺陷的发现可能性。

依据人工智能产品缺陷产生原因的不同,产品缺陷类型可以区分为制造缺陷、设计缺陷与警示缺陷。其中,制造缺陷是指人工智能产品对既定设计规格的背离,制造缺陷的判断与产品的研发风险没有太大关联,科学技术水平的发展对于产品制造缺陷的判定并无影响。无论与人工智能产品相关的科学技术水平如何更新,只要在产品制造过程中不符合其生产规格并产生了不合理的危险,则可以判定产品在制造方面存在缺陷。因此,在人工智能产品存在制造缺陷的案件中,发展风险抗辩不具有适用的实际意义。与之相对应,对于人工智能产品设计缺陷的案件而言,科学技术水平的发展与客观上能否设计出更为安全产品的可行性密切相关;在产品警示缺陷的案件中,科学技术水平也决定着产品所存在的风险是否具有科学上的可认知性。由此可见,发展风险抗辩的适用范围应当限定适用于设计缺陷和警示缺陷的人工智能产品责任案件。

四、人工智能产品发展风险抗辩的补救机制

发展风险抗辩的适用意味着排除了生产研发企业对于将产品投入流通时所不能发现的不合理危险的责任,虽然有助于鼓励人工智能产品的研发创新,但也可能在一定程度上削弱对消费者的保护力度。为了防止生产研发企业动辄以发展风险抗辩作为“挡箭牌”来逃避人工智能产品责任以及由此可能导致对消费者保护不利的局面,当前亟须在制度配套层面确立对发展风险抗辩的相关补救机制,从而妥善应对人工智能产品投入流通后可能出现的潜在风险并保障消费者在遭受损害后能够及时获得有效的救济。

(一)产品跟踪观察制度的衔接适用

首先应当明确将人工智能产品跟踪观察制度作为发展风险抗辩的补救机制,以督促生产研发企业对投入流通后可能出现的人工智能产品潜在风险持续进行质量安全的跟踪监测,并在发现产品具有不合理的危险时采取必要的补救措施。产品跟踪观察是指生产研发企业在将产品投入流通后负有继续观察其市场上产品安全的义务,一旦发现某产品存在不合理的危险,则对于尚未进入生产或市场的产品须采取改善的必要措施;对于已经进入市场的产品则应当采取售后警示或召回等补救措施来预防危险[20]。产品跟踪观察义务与在产品投入流通之前的设计、制造以及警示方面的安全义务相并列,其在于使得产品的安全性能够及时跟上科技水平的新发展。尽管《民法典》第一千二百零六条规定了生产者、销售者对于产品投入流通后的警示、召回义务,但是并未明确违反该项义务的责任性质,理论上也并未就《民法典》第一千二百零六条的规定与《产品质量法》第四十一条第二款第三项的规定之间搭建逻辑周延的体系关联形成共识。笔者认为,考虑在我国现行法律框架之下如何妥善应对发展风险抗辩可能存在的消极影响,同时为了有效发挥《民法典》第一千二百零六条的体系效应以及进一步明晰违反该项义务的责任性质,因此当前有必要在产品跟踪观察制度与发展风险抗辩之间构建合理的衔接适用关系。

就法律效果而言,发展风险抗辩仅在于使得生产者对于产品投入流通时尚不能发现的产品缺陷致损责任予以豁免,一旦产品被发现具有不合理的危险,则生产者应当积极采取措施预防损害的发生。尽管生产者在将产品投入流通时符合当时的科学技术水平,但是并不意味着其对于投入流通后经发展了的科学技术认定存在缺陷的产品撒手不管,发展风险抗辩的适用应当受到产品跟踪观察制度的制约[21]。发展风险抗辩与产品跟踪观察二者在逻辑上存在紧密的关联性,后者对于前者能够发挥功能上的补救作用[22]。具体而言,由于科学技术水平在某一时期内具有局限性,产品在投入流通时或许并不能被准确发现其存在的不合理危险,生产者对于不可能预见的危险可以援引发展风险抗辩免于承担产品责任。但是,科学技术又具有不断向前发展的客观规律,当科技水平能够发现产品存在的缺陷时,如果此时再允许生产者以发展风险抗辩为由对产品致损免于承担责任,那么将对受害人的保护明显不利。为了弥补发展风险抗辩可能引发的不利后果,同时有效督促生产研发企业为预防产品危险积极采取必要措施,应当针对生产者附加一项特殊的产品跟踪观察义务。至于生产者在履行产品跟踪观察义务时应采取何种预防危险的措施,需要依据个案情形并遵循比例原则予以确定。若产品的不合理危险会对他人的生命、身体或健康造成严重损害,则生产者应当采取密集且重要的预防措施[23]。以当前人工智能产品领域应用前景较为可观的自动驾驶汽车可能出现的研发风险为例,由于自动驾驶汽车的运行需要一系列软件设备,为了防止自动驾驶系统的软件出现漏洞,制造商应当负有及时维护和升级产品软件的义务,并将与产品安全有关的重要信息及时通知产品的终端用户[24]。

如果生产者在发现产品存在缺陷后,未能够及时采取相应的补救措施,那么则不允许其再以发展风险抗辩为由企图逃避产品缺陷造成的实际损害责任。易言之,发展风险抗辩并非一项终局性的抗辩事由,生产者不能凭借产品投入流通时科学技术水平不能发现产品缺陷的抗辩主张而“一劳永逸”免除产品责任。只要发展了的科学技术水平能够从发现产品缺陷之时起,生产者就应当积极履行产品跟踪观察义务,对于缺陷发现之前已经投入流通的产品应当采取售后警示、召回等补救措施,尽可能预防实际损害的发生;对于缺陷发现之后尚未投入流通的产品则应当停止销售,并努力改善产品的安全设计以消除产品的不合理危险。

(二)产品责任保险救助机制的引入

由于发展风险抗辩的适用,生产者将免于承担产品投入流通时科学技术水平尚不能发现的缺陷致损责任,这将可能导致受害人遭受的损害无从得到填补。发展风险抗辩固然有助于提升整个社会的产品研发创新动力,最终受益的主体仍然是社会大众,但是在具体个案中却让实际的受害者独自承担发展风险带来的不利后果,则又难免有失公允。特别是伴随着人工智能产品的应用普及,由于高科技产品的研发风险不易被及时发现,一旦存在不合理的危险往往容易诱发大规模产品侵权责任事故,这不仅不利于人工智能产业的健康发展,而且也使得受害人在遭遇现实损害时难以获得有效救济[25]。因此,完善人工智能产品发展风险抗辩的损害救济分摊机制[26],有助于有效防范人工智能产品的发展风险。

就生产者在产品研发过程中不可预见的风险责任而言,产品责任保险的作用或许是必不可少的。责任保险有可能在一定程度上削弱侵权法的预防目的,但是不应当忽视责任保险对受害人产生的积极意义。责任保险的目的旨在确保损害赔偿从而保护受害人的利益,因而责任保险也服务于侵权法的损害填补功能[27]。产品责任保险是基于将产品发展风险予以分散的方式,由保险机构作为第三方参与者,用于缓解产品发展风险抗辩对于受害人产生的不利局面。

2021 年6 月,欧洲议会和理事会制定的《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为的提案》(laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts),明确该提案的主要目的是确保人工智能系统造成的损害能够得到救济,对于评估的备选方案包括:为人工智能产品运营商设置严格责任,与针对特定风险人工智能应用的强制保险相结合的方式。设置适当的保险机制可以为人工智能产品受害者提供平稳的赔偿,从而减轻发展风险抗辩可能带来的负面后果。因此,在我国当前人工智能产品责任领域,也有必要考虑引入产品责任保险的救助机制,以分散损害风险。由于产品责任保险作为保险的一种类型,其制度运行也应当遵循市场规律和保险法的相关规则[28]。为了有效预防人工智能产品发展风险抗辩可能造成的损害填补空缺,可以针对研发产品设立强制责任险、商业责任险、产品责任保险等不同层级的保险结构。对于产品研发风险中的责任保险,总的思路是应当依据损害风险的大小来确定保险费用的多少,合理配置人工智能产品的保险成本与损害风险的概率,探索个性化的保险模式。

五、结语

随着人工智能技术与产业领域的深度融合,未来更多的人工智能产品将被逐渐推广应用。以良法善治保障人工智能产业的高质量发展,既要激励人工智能产品的研发创新,又要对人工智能产品的致害风险加以防范。发展风险抗辩作为生产者与消费者之间风险分配关系的平衡机制,能够为人工智能产品研发创新提供重要动力,但是其面临的适用困境也存在诸多争议,亟待探索应对方案。在我国产品责任框架中,通过优化发展风险抗辩融入严格责任体系的可行路径,明晰发展风险抗辩的科技水平标准和具体适用范围,以及配套产品跟踪观察制度和产品责任保险的补救机制,能够有效消解人工智能产品发展风险抗辩的隐忧,从而促进未来人工智能产业的市场化良性发展。

猜你喜欢

生产者科学技术人工智能
《中国空间科学技术》征稿简则
2021年CCF科学技术奖获奖项目名单(2)
1月巴西生产者价格指数上涨3.92%
《中国空间科学技术》征稿简则
《中国空间科学技术》征稿简则
2019德国IF设计大奖
2019:人工智能
人工智能与就业
家禽福利的未来:生产者能期待什么?
数读人工智能