人工智能体医疗损害责任分析
——以达芬奇手术机器人为例
2020-04-15丁璐
丁璐
(南京大学法学院,江苏南京210093)
一、引言
伴随着新一轮的人工智能技术浪潮,新型智能产品的应用几乎覆盖了社会的各个重要领域。人工智能体的侵权纠纷也日益凸显,尤其在自动驾驶汽车领域已经受到极高关注,然而,在与人类生命福祉紧密相关的医疗领域却少有人提及。同时,现有的关于人工智能侵权纠纷问题的探讨往往停留在抽象的产品责任层面,缺少与具体领域的结合。原则性的讨论固然必不可少,但不同领域侵权责任的归责方式还是相差甚远。作为外科手术领域中的新星,达芬奇机器人手术系统自2006年进入中国以来已经完成了上万台手术。从患者的角度来看,尽管依然会担心机器人手术的安全问题[1],但无法阻挡医疗技术发展的必然趋势,新技术不仅仅为医院及患者提供了工具支持,更创造了一个有着全新参与方、全新互动模式及全新相互关系的崭新的医疗生态[2]。技术的发展总是与风险同在,除医疗本身的风险以外,人工智能应用的风险又被无形地融入其中。美国早在2005年就已经出现了有关达芬奇机器人侵权的医疗纠纷,我国却对这一双重风险没有足够的重视。到目前为止,笔者检索到的涉及达芬奇手术机器人的医疗侵权纠纷案件,几乎都并未将焦点放在人工智能体本身,而是一味地追究医疗机构的过失责任,这与一般的医疗损害纠纷并无二致。
不可否认的是,达芬奇机器人将在很长一段时间内无法跳脱产品的属性,作为特殊医疗设备,现有的《侵权责任法》以及《关于审理医疗损害责任纠纷案件适用法律若干问题的解释》(以下简称为“《医疗解释》”)似乎能够勉强应对现阶段的产品侵权纠纷,但《人工智能标准化白皮书(2018)》中已经提出了人工智能体独立思考的可能性,根据其是否能实现思考和推理甚至解决问题,将其划分为弱人工智能和强人工智能两个阶段。而面向未来的强人工智能时代的法律规制必定要从法律运行的首要环节即立法活动入手,人工智能体终将脱离人工控制进行独立判断,届时侵权主体的重新界定将会突破现行法的局限,在遵循技术发展规律并坚持正确价值导向的基础上,及时回应在前沿技术领域中出现的新问题[3],这将是一条漫长而曲折的道路。本文仅就人工智能体在医疗损害纠纷中的责任承担问题展开论述,不涉及医疗服务合同纠纷。
二、人工智能体作为“宾格”的医疗损害责任
所谓的“宾格”[4]是指人工智能体作为人类作用对象的定位,即具备产品与工具的属性。人们往往会将新的事物与身边熟悉的事物进行类比,这一过程便是寻找“隐喻”的过程[5],通过“隐喻”可以简单地以既有事物的新版本对新事物加以理解,恰当的隐喻有利于创设完备的立法和消费保护措施。人工智能最具有迷惑性的隐喻可能要属人形机器人陷阱了,但不可否认的是,其在较长一段时间内仍然是人类的工具,摆脱不了产品的属性,在医疗损害纠纷中,达芬奇机器人的归责原则也应当以产品责任为逻辑起点。
(一)达芬奇机器人医疗损害纠纷实例
2005年在美国发生了一起关于达芬奇手术机器人的医疗纠纷,当事人即患者Roland C.Mracek在进行了达芬奇机器人辅助手术后出现后遗症,便针对达芬奇机器人手术中出现的故障从产品责任的角度提出诉求。然而根据美国侵权法重述中严格责任的规定,原告首先要证明产品是存在缺陷的;其次,产品的缺陷在制造商控制时已经存在;最后,产品的缺陷是损害的主要原因。在原告看来,达芬奇的缺陷显而易见,因为其在手术过程中发出错误报告并且关闭,同时又有Dr.McGinnis的证言。然而被告却认为原告没有递交专家报告[6],Dr.McGinnis的证言也仅仅证明了达芬奇在手术过程中没有正常运行,并不必然存在缺陷,毕竟达芬奇在此之前辅助医生成功实施了许多手术,Dr.Sinaiko甚至暗示这场手术是成功的。最后陪审团亦缺少专业背景知识,无法断定机器是否存在缺陷,因此认定原告并没有完成举证责任,案件的最终结果竟是以简易判决的形式驳回了原告的诉求。笔者认为,尽管该案以败诉告终,但是在处理人工智能产品的侵权问题上给了我们重要启示。第一个启示是在医疗侵权损害纠纷中,除了医疗机构的过失责任以外,人工智能产品本身更应该受到关注,抽离出医疗机构的责任将会更有利于缓解紧张的医患关系。第二个启示在于这一判例凸显出了专家报告的重要作用。美国法上通过专家证言来证明产品的缺陷,我国对于产品缺陷尤其是设计缺陷和制造缺陷的证明也需要专门的鉴定,无论是质量技术部门的鉴定,还是司法鉴定机构的鉴定,都面临着现代科技产品对鉴定技术水平以及资质的要求较以往更高的困境[7],在人工智能与医疗领域合作的背景下,医疗鉴定的内容会更加复杂。
近年来随着我国对该技术的引进和应用,也出现了类似的医疗纠纷。笔者检索到的有关达芬奇机器人的医疗纠纷的有效案例有五个,且都被归类于医疗过错责任纠纷领域。从2018年度的医疗损害责任纠纷案件的争议领域来看(见图1),医疗过错责任更像是一个兜底框,而有效的五例关于达芬奇机器人的纠纷中,法官所适用的法条也主要集中在《侵权责任法》中的医疗过失责任(见图2),尚未提及医疗产品责任问题。由此可以得知,达芬奇手术机器人作为特殊的人工智能医疗产品的定位并没有得到认同,由人工智能产品本身的问题而引起的医疗损害侵权问题不能完全纳入医疗过错责任。原因在于,首先,人工智能产品在医疗领域的研发和应用受到处于起步阶段的人工智能技术的限制,我们必须要更加关注产品本身的缺陷引发的外部问题;其次,从医疗鉴定角度来看,大部分鉴定结论都会聚焦于医疗机构的过失行为,而对于医疗产品本身缺陷的检测和分析却往往不到位。如邹爱敏、赵潇诉青岛大学附属医院医疗损害责任纠纷案中,患者术后脾动脉破裂大出血,医疗鉴定结果是医院承担70%的过错责任①山东省青岛市中级人民法院(2019)鲁02民终5081号二审民事判决书。;杨邦文诉重庆西南医院医疗损害责任纠纷案中,患者在达芬奇机器人术后肺部感染,鉴定结论是医方在杨邦文的诊疗过程中,对患者病情的严重程度重视不够,观察不仔细,病情变化后处理不及时,存在过错,该过错与杨邦文“截瘫”之损害后果存在因果关系。医方应对损失承担50%的赔偿责任②重庆市第一中级人民法院(2018)渝01民终3540号二审民事判决书。。但是这样的鉴定结论往往是不被医疗机构所认可的,同时不利于缓解紧张的医患关系,反增医疗机构的诉讼负担。
(二)人工智能体的医疗产品责任
我国医疗产品责任由于医疗机构这一特殊主体的介入,实际上兼具了医疗损害责任以及产品责任的多种属性。医疗机构在医疗损害纠纷中承担过错责任,而在医疗产品责任中又承担了严格责任,总体来说似乎并没有平衡好受害患者、医疗机构和缺陷产品生产者及销售者之间的利益关系[8]。也有观点认为《侵权责任法》第59条规定的医疗机构对医疗产品损害责任的规定,其实是一个过渡性的规则,不应当长期适用[9]。
就产品缺陷而言,《产品责任法》的重点集中于制造缺陷[10],即与产品的设计意图相背离的物理状况。由此类缺陷造成的损害,法院对于产品的制造商、批发商和零售商都会认定为无过错的严格责任。该举证责任的分担原则是由原告举证该缺陷在离开制造商时就存在,若在制造过程后产生,原告需要证明产品在离开经销链上的销售者之时就存在缺陷。侵权法的一个重要功能就是制造产品安全的驱动力,通过将制造商是否存在过错的问题排除在原告的举证责任之外来降低诉讼成本。笔者认为在人工智能医疗产品责任纠纷中,对于制造缺陷的归责原则仍然应当延续严格责任。
其次,人工智能技术的研发和应用处于初级阶段,有无限的可能和空间,而就现阶段其与医疗领域的结合,笔者认为更为关键的应当是产品设计缺陷的应对方式。设计研发是成品的首要环节,设计的严谨及科学与否直接影响到产品的安全性能、自主性并决定人类的参与程度。尽管如此,笔者并不赞同设计缺陷需要适用严格的产品责任,反而,在一项新技术的研发过程中,产品设计本身就是不断更迭和摸索的过程,严格的产品责任不利于技术的创新和发展。不仅如此,人工智能产品的研发需要兼顾多种学科的交互,在保证技术创新的同时还要考虑安全性因素,更何况关于何为消费者适当的产品设计的期望根本难以辨别,设计安全程度与质量监控程度也不能直接对比。因此,从法理和政策上考量,人工智能产品的设计缺陷需要在严格责任的基础上适当软化,至少在技术发展的起步阶段由社会分担责任成本进而鼓励创新。当然,产品的研发和设计者也不能因此而免责,即便危险显而易见,也并不妨碍原告针对产品设计缺陷提出赔偿请求[11]。笔者只是强调需要为技术的改进提供一定的试错空间。这方面可以参考美国《侵权法重述》修订中对设计缺陷的规定,美国法律研究院放弃了“消费者合理期待”标准,新标准强调“合理替代设计”要素,设计缺陷的主流举证责任分担原则是原告必须证明在产品销售或者派送之时存在其他合理的设计方案,或者能够合理存在。如果人工智能产品更合理的设计无法被预见,就不能将责任强加于设计主体[12]。也就是说,在考量一种产品的设计缺陷时,依照“风险效用平衡”理论来把握更为合适,即一个合理的其他设计是否能够以合理的成本,降低该产品带来的可以预见的风险。当然,若不合理设计显而易见,具有较高的危险性以及较低的社会效用,即便没有证据表明存在其他合理设计,也仍然可以认定产品责任。而医疗领域中人工智能技术如达芬奇手术机器人的运用带来的社会效用是极高的,因此,在人工智能产品设计缺陷责任分析中,美国用“合理替代设计”代替“消费者合理期待”的做法更具有合理性,原来的消费者期待变成非决定性控制因素,这一转变显然更有利于人工智能技术的发展。
最后,医疗产品的警示说明必不可少,院方必须要严格执行并且贯穿整个诊疗环节。必须将相关的注意事项以及存在的任何风险毫无保留地告知患者,这将成为患者选择诊疗方式的有效参考。医疗机构的角色更像是人工智能产品的使用经营者,我们不能要求其与产品的设计制造者一样拥有同等的知识技术水平,只要其遵守技术规范,不违背警示操作,通常情况下不应当成为侵权责任的主体[13]。但是,医疗机构的特殊性决定了其对于医疗产品的注意义务更高。在人工智能应用方面,达芬奇机器人手术的操作目前还需要医生的操控,在整个手术过程中医生参与度较高,从这个角度来说,医疗机构对于人工智能医疗器械和设备的使用承担类似于销售者的责任并不会过重。其次,《侵权责任法》第59条之所以将医疗机构纳入到医疗产品责任的归责主体,并不是对医疗机构营利属性的肯定,而是在解决医疗机构责任承担问题的同时更加便利患者的权利救济,与销售者的严格责任设定目的相当,但目的等同并不表明角色定位相同[14]。因此,无需专门梳理《侵权责任法》第54条与第59条不同的归责原则问题,虽然医疗产品责任的最终责任人是产品提供商,医疗损害责任的最终责任人才是医疗机构和医生,但是这样的严格责任的设定在以高标准要求医疗机构的注意义务的同时,也会大大减少医疗机构因未尽告知义务以及注意义务而引发的医疗诉讼纠纷。在医疗诉讼案件中,医疗机构的败诉原因也大多在于未尽注意义务。
因此,在人工智能技术发展的初级阶段,智能产品将在较长一段时间内依然无法脱离产品属性,以达芬奇机器人为代表的医疗器械所引发的医疗损害责任更应当归类为医疗产品责任当中。具体而言,制造缺陷当延续一般严格责任;设计缺陷需要在严格责任的基础上进行软化,以 “合理替代设计”代替“消费者合理期待”以平衡技术创新与社会效益;最后需要加强医疗机构的注意义务,不仅是为了应对新技术带来的风险以及尊重生命,也是为了减少不必要的医疗纠纷,缓解长期存在的紧张的医患关系。
三、人工智能体作为“主格”的医疗损害责任
在弱人工智能向强人工智能发展的过程中,智能产品本身的自主性会随之加强,而达芬奇机器人的发展方向必定是成为依靠一系列的数据与编程实施手术的“人造医生”。达芬奇机器人经过深度学习,具备一定的思考和判断能力后可以真正脱离人类医生的操控,但也要同时面对自己的错误判断导致的严重后果[15]。人工智能作为“主格”的地位即代表其具有独立的法律人格,独自承担法律责任,享有权利和义务[16]。关于人工智能体的主体地位,学界有多种声音,既有肯定的也有反对的,比如有观点认为人工智能体非人类,而我们不应当放弃人类中心主义的观念;也有观点主张人工智能体作为机器人至少在很长一段时间内是缺少意识等关键要素的,无法成为独立主体;还有观点指出人工智能体只能被当作财产来看待等等。笔者认为,达芬奇机器人成为“人造医生”是可以预见的必然趋势,赋予其法律主体资格使其独立承担医疗损害责任也是现实需求。更何况,法律并不是第一次要求非人类对某些损害承担责任,发生在中世纪晚期的动物审判就是很好的例证,在当时的时代背景下,莎萨内将动物视为撒旦无辜的工具,将异端当作神性的威胁,对待动物的惩罚手段极为残忍,甚至施以肉刑[17]。但终究动物受刑的本质也是为了引起人类的恐惧,并没有违背人类中心主义原则。同样,赋予人工智能体以法律人格实际上也并非出于任何经济目的,从功能主义方面解释也仅仅是为了纠纷的解决,从而达到一定的社会效果。我们也应当随时做好准备迎接另一种可能性,对于法律上“人”的认识并非一成不变,当机器说出它们的感受和感知经验,而我们相信其所说的是真的时,它们就真正成了有意识的人[18]。即便我们承认,机器人的每一次回应都需要大量的运算才能完成,其体现出来的“意识”是基于数学运算而产生的结果[19]。但赋予人工智能机器人以法律人格,对于纠纷解决来说无疑是更为简便的,因为这实际上是一个完整的类似于人的案件。相反,倘若不承认其独立的法律人格,那么至少三分之一的法律责任会被排除在外,这是法律体系应该承认机器人独立人格的现实原因而非概念原因。而理论上,授予机器人独立的法律人格似乎也没有障碍。合同领域也已经将某些机器人视为适格代理人,人类完全可以给机器人委派认知任务。法国和意大利民法领域也认可机器成为适格的主体。
(一)谁来为机器人的医疗损害负责
我们赋予人工智能体法律人格的目的并不是为了排除其他主体的责任,重点是当一个新的主体介入医疗损害纠纷时,应对其他主体的责任承担方式作出修正,缓和各主体之间的紧张关系,也为患者的救济多提供了一条路径。深度学习后的达芬奇机器人相比于一般的医疗器械更加像手持手术刀的医生,有自己的判定。此时需要考虑的就不仅仅局限于产品责任而是谁来为机器人的行为负责[20]。
首先,使用或者监控人工智能体的人应当承担一定的法律责任。尽管经过深度学习的人工智能体具备一定程度的专业能力,医疗机构的注意义务有所降低,但不能完全排除医疗机构或医生的手术方案选择错误、监控力度不够以及突发状况下的应对措施不及时等过错责任。其次,机器人手术方式的选择离不开患者自身对风险的评估,是以更高的风险换取更好的治疗效果还是追求稳妥的治疗方式避免风险的发生,因此从这个角度来说患者自己也需要为自己的选择以及科技所附带的风险买单。除此之外,虽然在这一阶段讨论的是人工智能体作为独立法律主体的医疗损害责任,已经部分或者完全脱离产品的属性,但是其设计者、制造商以及销售商是否能够逃脱责任呢?笔者认为,虽然经过深度学习后的人工智能体具备了一定的自主能力,也大致脱离了一般的工具属性,技术发展也趋近成熟,但设计者、制造商以及销售商作为最大的经济受益者,在技术研发阶段社会分担了他们的风险与责任,此时,他们也应当更多地回馈于社会。因此,人工智能体的设计制造者也需要承担一部分的社会责任。最后,作为独立主体的人工智能机器人自身对其不当行为当然也要承担法律责任。经过深度学习后的手术机器人甚至可以达到专业医生的水准,可以独自走进手术室,在医疗机构承担责任的同时需要相应增加人工智能机器人自身的责任。
(二)如何为机器人的医疗损害负责
古罗马时代的特有产制度,也是我们可以探寻到的有限责任公司的原型。罗马律师发现行动能力的形式和无法律上人格的物品的自主性时,目的是在奴隶主的利益不受奴隶负面影响的需要和奴隶的交易方能够安全交易的主张之间取得平衡。人工智能体医疗损害责任的承担方式或许也可参照特有产制度,通过先行储备人工智能专门资金池的方式来应对其引发的侵权赔偿问题。笔者认为,这一模式在理论上是没有阻碍的,问题在于,第一,如何确定资金池的投放数额才能够平衡人工智能技术的创新成本与消费者、使用者的损失救济保障?第二,资金池由谁来投放、投放比例如何分配?关于投放数额问题,标准的设定最好是建立在一定的经验基础之上,标准过高显然加重责任主体的负担,不利于技术的创新发展,过低又无法保障受害者的权利救济。就目前的现状来看,谷歌公司在无人驾驶汽车方面有一些成熟的经验,不妨以此为样本,参考其事件发生概率及后果和成本的相关数据,以此为基础进行适当调整和预估,以平衡人工智能技术的创新需求与消费者、使用者的损害救济保障。关于资金投放主体问题,可以结合上文对机器人侵权损害责任主体的相关讨论,在人工智能体的使用者、监控者、设计者、制造商、销售商以及患者自身中进行利益的衡量,进而确定该特有产资金池的投放主体。而资金投放比例要区分于清偿比例,清偿比例须涉及到个案中各方主体的责任大小,但是投放比例大可不必,甚至可以考虑平均投放,但是要将不同主体的投放资金分别管理。
参照特有产制度建立的人工智能医疗损害资金池固然可以在一定程度上解决作为独立法律主体的人工智能体的医疗损害赔偿问题,保障患者的权利救济,同时减轻医疗机构的诉讼负累,缓解医患关系,但是最终的成本难免会转化为产品本身的成本或服务成本进而叠加在消费者身上。因此,构建医疗领域的人工智能医疗损害专门保险并由患者自由选择购买较为合适。实际上,保险制度的构建也可以相应地延伸到人工智能的产品责任当中,以此作为最终责任人的事先垫付机制,待追偿真正责任人之后补足资金池即可。
四、人工智能体医疗损害纠纷的特殊性
(一)医疗鉴定对事实认定环节更为关键
对于普通患者来说,医疗损害纠纷的举证具有一定难度,举证证明责任在患者与医疗机构之间如何分配是医疗损害责任纠纷案件中争议较大的重要问题[21]。有观点主张将举证责任强加给人工智能产品的生产者和设计者以解决事实查明的难题[22],笔者认为并不合理,因为在技术研发的创新阶段给设计者与生产者附加过重的诉讼负担本身不利于技术进步,同时,作为产品的设计和生产商,其与产品的投入使用无论是在空间还是时间上都有所隔离,更无法精准把控和预测。更为关键的一点是,在医疗领域,因果关系与过错的事实认定主要依靠申请鉴定的方式,在人工智能技术应用的背景下更是需要具备医学与人工智能技术双重背景的专家来做鉴定才更具有说服力。专家们运用专业的知识、技能和经验,辅助法官对专门性事实问题作出判断,以妥当地处理案件,保证案件裁判的公正。此外,笔者认为无法达成双方一致认可的鉴定结论也是一大难点,实践中普遍存在的诸如鉴定意见公信力不足、鉴定人出庭难等问题很大程度上影响了医疗案件的公正处理。
国内涉及达芬奇手术机器人的医疗纠纷案件中,围绕医疗机构过失与否的医疗鉴定结果,各方的争议较大,其中不乏对鉴定机构资质的质疑,如在陈宁庆诉浙江省人民医院医疗损害责任纠纷案中,患者术后出血,被告认为本案是医疗损害责任纠纷,而绍兴文理学院并不具有鉴定的资质,在抽签过程中应当排除。然而法院以被告未能提交证据证明绍兴文理学院不具有鉴定资质或者鉴定程序违法为由仍然采纳了原有的鉴定意见①杭州市下城区人民法院(2015)杭下民初字第02817号一审民事判决书。。一方面,尽管出具意见的鉴定机构具备鉴定资质,但是其鉴定意见的科学性和真实性有时不能让人满意,即使能够保证鉴定意见的科学性和真实性,但在如何让鉴定意见更能贴近民事诉讼证据要求方面仍有不足之处。另一方面,随着人工智能技术的应用,对医疗鉴定的专业性有了更高的要求,鉴定范围也更宽泛,原本有资质的鉴定机构未必在将来依然具备相应的条件。上述案件中医院对专业的医疗鉴定不予认可的原因多是在于此类机器人辅助手术引起的纠纷与一般的医疗纠纷不同。法院往往也不会从医疗技术专业背景方面进行过多考量,只要是具备鉴定资质的机构经合法程序作出的鉴定结果便予以采纳。实际上,法院更应当根据每个案件的具体情况对专家的鉴定能力作必要审查。在人工智能医疗损害纠纷中,鉴定的内容还应包括人工智能产品本身、在手术过程中是否出现故障、能否被医生所预见等,鉴定内容也需要根据人工智能产品的特征相应增加或改变,如达芬奇机器人的机械臂的使用寿命很短,使用十次就需要更换。当医疗损害是由于人工智能体本身出现故障,如错误的编程、粗制滥造、在配送过程中受损等原因,或者由于与产品本身出错相关的任何原因时,医疗机构的责任就会相应减少。因此,规范的医疗鉴定至关重要。
同时,在对鉴定结论的质证过程中,双方往往难以达成一致意见。如在李根泽等诉中国人民解放军第二炮兵总医院医疗损害责任纠纷案中①,机器人实施下胆囊切除、中转开腹脾脏切除手术,术后患者呕血,鉴定意见表示手术方法选择不适当,患者脾脏较大,术前即不宜考虑进行机器人下切除,应直接选择开腹切除。原、被告均不认可鉴定结论,但是原、被告均未就其异议向法院提供充分有效的证据予以证明。一般情况下,除非证明鉴定程序违法,否则鉴定意见难以推翻。在专业的鉴定意见面前,笔者认为在双方对鉴定意见无法达成一致时,若想要推翻鉴定结论,可以借鉴美国产品责任的 “故障理论(Malfunction Theory)”,允许双方通过提供间接证据(Circumstantial Evidence)去证明产品的缺陷,而不再必须提供专家报告去证明产品的缺陷。在医疗领域类似于达芬奇机器人的人工智能体本身故障以及缺陷的证明责任方面,允许双方提供相关的间接证据亦未尝不可。
(二)技术创新与法律规制的动态平衡
为了减少医患纠纷,维护患者合法权益,促进我国医学事业的发展,《侵权责任法》专章规定了医疗损害责任。狭义的医疗损害责任仅仅指的是医疗机构和医务人员在诊疗活动中过失侵害患者生命权、身体权、健康权的侵权责任。如 《侵权责任法》第54—58条及第60条所规定的内容,属于专家责任。除此之外,广义的医疗侵权责任还包括药品和医疗器械缺陷给患者造成损害时医疗机构的侵权责任。现阶段达芬奇机器人作为医疗设备器械使用,由此引起的纠纷勉强被纳入医疗产品责任纠纷当中,当然医疗机构的注意义务也不能被忽视。但是现有的规定仍然十分粗糙,尤其随着人工智能在医疗领域的应用和发展,人工智能体将来可能逐渐发展成有自主意识的专家医生,因此需要从立法论的角度对医疗损害责任作出更加细致的规定。人工智能整体而言为社会带来了经济利益,但人工智能产品的初始设计者和制造商会占有其中绝大部分的利润。人工智能产品也可能在缺乏适当测试、安全机制或者消费者提示的前提下投入市场,制造商和人工智能生产商有雄厚的资金实力来雇佣律师维护他们的利益,因此,确定法律责任、用户义务和制造商责任是有必要的。
从立法论角度考量对人工智能体的规制需要衡量人工智能设计预想达到的效果与法律规制的边界之间的平衡。一种产品研发的预期用途即产品上市销售的用途;而法律未禁止的用途(即使会引起民事责任)被称为合法用途;合理用途是指产品的社会成本不超过社会效益的用途;最后消费者用于实践的才是真正的实际用途。此四种用途并非总能够相适应,彼此间的紧张关系体现出特定的结构性失败。过分安全的产品并不一定使社会受益,例如将汽车的时速设计为每小时20英里,虽然事故可能性大大降低,但是社会却因为低效遭受更大的损失,唯有达到合适的或者最佳的安全水准时,社会才受益最多(见图 3)[23]。
从公平的角度出发,要求个人使用者和消费者承担合理使用产品责任,有利于防止那些谨慎仔细的使用者会补贴草率粗心的消费者和使用者的情况发生,因为后者的赔偿金来自前者对产品不得不接受的更高的价格支付[24]。对于人工智能产品同样如此,自动化的安全性由其设计和使用共同决定,即设计者与使用者都应当分摊责任,共担科技创新的代价,共享社会利益。法律制定与产品设计的有机互动过程十分重要,需要一定时日的检验,在此期间的归责问题不可绝对化。虽然在技术层面和合同层面的用途限制可能会提高产品的安全性,但也可能会使现有的法律趋于僵化、招致干预并排除一些合理合法的使用用途。因此,法律的规制要尽量兼顾以上四个方面,达到一种动态平衡的效果。
立法需要顺应社会的现实需要而不断发展,在保持自身的稳定性的同时也要关注特定时期的技术背景[25],这也是本文一直强调的技术创新与法律制度的平衡问题。规则看起来是束缚,是对技术创新的压制,但是在笔者看来,任何规则的设定都是为了换取自由而付出的代价。著名的“阿吉里斯悖论”告诉我们,立法的脚步永远追赶不上技术创新的节奏,而法律的目的是管理技术进步和创新带来的挑战,虽然具有一定的滞后性但是却不可或缺。法律的合理适用从经济学角度出发,也是对创新成功的可能经济效益与可能成本(包括责任成本)的合理比较。
五、结论
新行为看起来比较危险,因为人们应对其带来的危险时缺乏经验[26],技术的创新同样也是危险的,我们所面临的是多种冲突之间的合理妥协,不存在唯一答案。基于此,应当以怎样的姿态来迎接人工智能带来的新挑战和机遇是当下最重要的课题。我们既不能趋于保守,风险的预防并不意味着因无知而禁止行动,而是采取行动以使行动效果与持久的人类生命相一致[27]。同样我们也不能毫无防备地接受人工智能带来的一切便利而忽视了技术本身的副作用,而是要理智地看待风险与收益。以医疗领域为例,考虑到技术创新的需求,在现阶段的医疗产品责任分析中,关于人工智能医疗产品的设计缺陷应当从严格责任中抽离,转而采用“合理替代设计”代替“消费者合理期待”原则。医疗机构相比于其他主体,需要承担更高的注意义务,甚至按照《侵权责任法》第59条承担与销售者同等的严格责任也未尝不可。当人工智能体具备一定的认知能力,成为独立的行为主体时,医疗机构、患者自身以及人工智能体的设计生产销售方等都要在不同程度上为机器人的行为负责,同时构建特有产制度以及人工智能保险制度来解决医疗损害赔偿问题。最后,需要注意的是,在人工智能体医疗损害纠纷中,以医疗鉴定为核心的事实认定相比于举证责任分配而言更加关键。从技术创新与法律规制的角度来看,也需要更为精准地把握法律制度的边界。
无论人工智能技术的发展在医疗领域面临怎样的机遇与挑战,诚如蒂姆·库克在麻省理工学院演讲时所说的那样,我们并不需要担心人工智能像人类一样思考,反而可怕的是人类像计算机一样思考,没有价值观、同情心,没有对结果的敬畏之心。