APP下载

医疗AI侵权责任的法解释学分析

2022-12-08王海容

医学与法学 2022年1期
关键词:诊断系统漏洞民法典

王海容

一、问题的提出

自1956年约翰·麦卡锡(John McCarthy)和迈伦·明斯基(Myron Minsky)提出“人工智能”(Artificial Intelligence,以下简作AI)概念以来,关于“人工智能”定义的争论就从未停止过。从其文义来看,所谓“人工智能”是相对所谓“人的智能”而言的,而人类的智能活动通常表现为推理、判断、决策、视觉、抽象的使用和其他与人类智能相关的认知活动。因此,可以将“人工智能”理解为“能够形成和运作这类活动机制的数据处理系统,或者像人那样思考的电子计算机”。[1]近年来,人工智能依靠“深度学习”有了最新突破和发展,但现代AI只能称为“弱人工智能”或“窄人工智能”,其仅在狭窄的定义功能(例如图像识别、直行道路上驾驶车辆或档分类)方面具有(超)人类级别的能力,而在其他方面的执行能力则明显低于“理性人”甚至可能输给5岁孩童。人工智能的愿景被称为“强人工智能”或“人工通用智能”(artificial general intelligence,AGI),其所指的是智能机器在自主意识和意志的支配下,超出设计和编制的程序实施其行为。[2]牛津大学教授、杰出的未来学家尼克·博斯特罗姆(Nick Bostrom)甚至认为,机器“能独立自主地制定自己的计划……也许更应该被看作是人而不是机器”[3]。这一直是人工智能所研究的一个目标,但是目前仍只是一种愿望。随着AI的发展,AI被广泛运用于医疗服务、康复管理、健康管理、临床科研、药物研制、行业管理等健康医疗的各个环节和领域。医疗AI的运用给现行法规则带来了挑战,尤其是手术机器人和AI诊断设备所导致的医疗事故应适用何种法律引发了学界激烈的探讨,且将目光集中在是否赋予AI法律人格之上。实际上,今天的AI尽管很复杂,但人类有能力控制它们,它们最多只能算是半自治的,是人类使用的工具。[4]在美国的一个判例中,法院曾指出:“机器人不能被起诉”,即使“它们能造成毁灭性的破坏”。①机器人不能被起诉的原因,是因为法院认为目前它们还缺乏法律能力。本文拟以当前关于医疗损害的赔偿理论为基础,探讨《民法典》施行后,如何在现有侵权法框架下对缺陷医疗AI侵权责任进行认定——以目前的创新水平,医疗AI尚无自主意识和意志,对现有法秩序并未造成根本性的冲击和动摇,故创造全面阐明人工智能权利和责任的全新法律制度,并无事实上的需要和基础。

二、医疗AI侵权适用产品责任的主要困境

虽然我国法律并未明确规定医疗AI属于医疗器械,但从《医疗器械监督管理条例》第七十六条对“医疗器械”的定义来看,医疗AI符合医疗器械的特征、效用和目的;同时,由2017年国家药品监督管理局(CFDA)所发布的新版《医疗器械分类目录》(于2018年8月1日起正式施行)可知,医疗AI上市必须按照第二类或第三类医疗器械进行申报认证,故可推出医疗AI属于医疗器械。在《民法典》中,规制缺陷医疗器械侵权行为的主要为《民法典·侵权责任编》第一千二百二十三条。由于我国现行法对医疗AI中的“软件”问题尤其是具有自主学习功能的医疗AI算法问题缺少必要的规则(包括“软件”是否属于产品及“软件”缺陷如何认定等方面),缺陷医疗AI损害责任不完全适用《民法典·侵权责任编》第一千二百二十三条。

(一)“软件”的属性

医疗AI侵权既包括“硬件设备”存在缺陷所导致的患者受损的侵权,又包括因“软件”问题所导致的侵权,且主要以后者为主。根据《民法典·侵权责任编》第一千二百二十三条,构成缺陷医疗器械侵权责任的前提是存在有“缺陷”的“医疗器械”。若系医疗AI硬件缺陷造成患者损害,毫无疑义地适用《民法典·侵权责任编》第一千二百二十三条之规定;但若系医疗AI“软件”问题(之所以称之为“问题”而非“缺陷”,是因为在现有判断标准下,医疗诊断系统的“黑匣子”算法是否为“缺陷”似还存疑)造成患者损害,如手术机器人的DICOM医学影像三维重建、图像分割、坐标系配准、影像分析等软件出现功能障碍,则不适用第一千二百二十三条之规定。我国法律未明确软件等智力成果的产品责任问题。《产品质量法》对“产品”的定义有同语反复之弊,未能明确指明产品到底是什么。由于法律上的模糊性和不确定性,学界对软件属性的争议较大。有学者认为,产品属于“物”的范畴,根据“物必有体”的传统理念,软件以程序和文档为内容,本质上是一种无形的智力成果,不应纳入所有权客体的范围。[5]软件被视为知识客体,像其他非产品无形资产一样受知识产权法保护。同时,也有学者持相反观点,认为从“《产品质量法》的定义来看,软件并没有被明确排除在‘产品’概念之外,因此可以承担产品责任”。[6]从司法实践来看,绝大多数法官未将产品责任扩大至软件。

笔者认为,软件不属于产品,《产品质量法》中的“产品”不能作扩张解释,其原因有二:

一是从比较法角度来看,世界各国相关法律均未明确将电以外的无形物视为“产品”。例如,《欧共体产品责任指令》第二条将“产品”界定为“所有的动产,但包括电”;《联邦德国有缺陷产品责任法》第二条明确将未经初级加工的农产品和猎物以外的一切动产归入“产品”概念所指之中,无形物仅包括电力;《日本制造物责任法》第二条第一款将“动产”(制造或加工过的)界定为“制造物”。在国外立法例及判例中,美国的经验应给予足够的重视,一方面,欧共体产品责任指令是美国严格产品责任的产物[7],美国解决此问题的方式对欧洲法院解释及适用产品的相关规定有着非常重要的影响;另一方面,我国《产品质量法》对美国产品责任法进行了部分借鉴,将“产品质量责任”修改为“缺陷产品责任”。在美国,虽然许多学者呼吁对软件行业实施严格的产品责任,以结束他们眼中的软件保护主义时代,代之以对软件行业实施严格的产品责任。学者们认为,第一,拥有数十亿美元规模的大型公司的软件行业,不再是所谓的“新兴行业”;第二,由严格责任产生的激励措施迫使软件制造商在设计产品时更加小心,从而使消费者更安全;第三,原告证明软件缺陷的难度和费用证明了对软件的严格责任是合理的,就像对其他类型的大众市场商业产品一样。[8]但从美国立法来看,并未对软件的地位作出明确的规定;在其《侵权法重述第三版:产品责任》中,上市后的有形动产被界定归入“产品”概念所指之中,不动产若其销售与使用类似于动产,也视为“产品”概念所囊括者,故在美国电也是产品,但是服务、血液及人类组织器官,即使是商业性提供的,也不是产品。从美国的司法判例来看,讨论软件所造成的损失的判例法主要集中在经济损害上,适用一般过失原则,几乎所有的法官都拒绝对软件应用严格的产品责任,而通常判定软件不属于“产品”,而应是一种“服务”,故尚未发现法官认为软件属于“产品”的案例。[9]美国法院一直不愿意将产品责任理论扩展或适用于软件开发商,在医疗软件的背景下更不愿意这样做。[10]

二是从严格责任在产品领域的发展和制造缺陷适用严格责任的正当性来看,软件尤其是人工智能系统软件不宜适用严格责任。无论是世界各国学习楷模的美国产品责任法,还是在英美法系中占有重要地位的加拿大产品责任法,并未对产品缺陷责任完全适用严格责任,尤其后者甚至从未适用过。[11]美国早期的缺陷产品侵权责任大多适用过失责任,直到20世纪50年代,严格责任或绝对责任的侵权主义仍然是只适用于范围较窄的问题,如野生动物的饲养和掺假食品的销售等超危险活动。原告在诉讼中举证困难导致其难以得到救济,消费者与制造商矛盾突出。基于社会公平理念,法院开始在案件中适用严格责任,并在“Greeman v.Yuba Power Products Inc案”中确立“格林曼规则”②;该规则正式确立严格责任在产品责任领域的适用,引发了对产品制造商(通常是消费者)因产品缺陷而造成的人身伤害的严格侵权责任的迅速扩展。而后,美国在《侵权法重述第二版》402A节使“格林曼规则”以成文规定的形式得以确认。由于立法当时的诉讼主要以制造缺陷为主,402A节未对产品缺陷进行类型划分,在出现设计缺陷和警示缺陷时仍适用严格责任,这直接导致美国20世纪80年代的产品责任危机。美国开始反思并于1997年通过《侵权责任法重述第三版:产品责任》重新确立了产品的归责原则:制造缺陷仍适用严格责任,设计缺陷和警示缺陷则适用过错责任;并且,在设计缺陷和警示缺陷适用过错责任中,用风险效用测试替代了原来的消费者期望测试。风险效用测试要求原告证明存在一个替代的合理设计或警告,以确定产品是有缺陷的。美国产品责任从对严格责任的完全适用到理性回归,实质是法律对不断变迁的社会经济关系、社会需要及社会价值的调适,以期在不同利益主体和经济发展目标之间达到动态平衡。[12]

严格产品责任是严格责任适用中争议最大的一项,争议的部分原因是严格责任违反了过错为基础的侵权基本原则,绝对责任的适用对正义和公平竞争的理念也不相符合。对商业产品实行严格责任,通常有两种理由,一是制造商基于道德责任,应对消费者负责,因为消费者合理地期望制造商会提供安全的产品;二是基于经济理论或效率原因,如有人认为,制造商最有能力为损失投保,并将保险费用分摊到购买其产品的所有消费者中,促使制造商生产更具有安全性的产品等。故在产品制造缺陷适用严格责任有其正当性,如发现潜在风险、降低事故成本、风险分散、维护消费者权益等。尤其是在维护消费者权益方面,产品制造缺陷实行严格责任有利于受害人。当一种产品很复杂,制造过程又受到商业秘密的保护,原告要证明疏忽是在何时以及如何发生,是十分困难和昂贵的。严格的产品责任通过消除原告证明过失的要求,大大简化了原告证明其案件的责任。但是,将软件纳入“产品”的范畴并实行严格责任,并不能达到使产品更加安全、分散风险进而促进实现公平和效率的目标,反而会阻碍科学技术的发展和进步。这是因为,一方面,与其他产品不同,软件缺陷是普遍存在、不可避免且不总是显而易见或可以预见的,而且软件这种无形产品在创建过程中不存在制造产品过程中“百万分之一”的意外,一旦软件程序的第一个模型完成,它就可以发布,没有制造过程。因此,大多数软件缺陷仅是设计缺陷或警示缺陷。由于设计缺陷或警示缺陷的证明责任并不是不合理的高,因此由原告承担举证责任并非不公平,这也是美国在这两种缺陷中应用风险效用测试的原因所在。另一方面,从经济学角度看,制造商获取风险知识的成本必须是有效的,也就是说经济合理;若过度测试缺陷的成本使得产品无法销售,制造商会认为设计一种更安全的产品不符合成本效益原则。故对其施加严格的产品责任,不仅不会产生预期的促进产品安全之目标,反而会打击软件生产商创新和生产的积极性;且最大的可能性是制造商把软件从市场上撤下来,进而阻碍社会进步和发展。同时,由于软件市场尚不成熟,不能精算出其潜在责任的成本并将之包含在产品价格中,故将风险分配给所有消费者或向保险公司投保皆不具有可能性。

(二)产品“缺陷”界定

我国《产品质量法》借鉴美国《侵权法重述第二版》的做法,未对产品缺陷进行类型划分,所有缺陷类型完全适用严格责任。在原《侵权责任法》立法过程中,虽然学者们极力呼吁对缺陷类型进行界定,但最终所颁布实施的《侵权责任法》却未予采纳,同样在《民法典》中也未进行界定。[13]故从现行法规则来看,我国产品缺陷分类是一个空白,这对法官在案件中正确认识缺陷的存在带来了困难和不确定性,尤其是在采取抽象而又不具可操作性的“不合理危险标准”时。何为“不合理危险”?我国法律并没有给出明确的答案,因为该判断标准系采纳自美国《侵权法重述第二版》的“不合理危险”标准;虽然,其模糊性和误导性在美国本土也给其法院带来了不少困惑从而遭受责难,但美国也确实使“不合理危险标准”具体化和明朗化,因其一方面有几十年的司法经验积累,另一方面在《侵权法重述第三版:产品责任》中将产品缺陷划分为三类,每类缺陷适用不同的归责理论,对具体缺陷类型的判断又有各不相同的判断标准和方法。而我国法律由于没有对缺陷进行类型化及类型化后的标准细化,以致如何理解“不合理危险”的内涵就成为一个理论和实践所面对的重要问题,尤其是在解决医疗AI等新生事物时,这种理解对司法达成统一认识就显得更为急迫和重要。

从字义来看,“不合理危险”是与“合理危险”相对的一个概念,那么,何又为“合理危险”呢?首先,危险是存在的一个客观状态;其次,这种危险是“合理的”存在(这里的“理”应作“事理”之解释),即依据事物的发展状态及其规律,在该当之时这种危险是不可避免的。换言之,“不合理危险”即指依据事物的发展状态及其规律,在该当之时应当避免而未避免的危险。但这样的理解也是较抽象的,需要具体的认定标准来予以支撑,故在此理解基础上借鉴美国的三分法,将产品缺陷划分为制造缺陷、设计缺陷和警示缺陷,方可使我国医疗AI的法律适用问题有解决之可能路径——医疗AI不仅包括硬件缺陷致损,还包括软件缺陷致损,而后者如前所述,只能在设计缺陷或警示缺陷的框架下进行分析,不属于制造缺陷之范畴(制造缺陷的认定标准不适用于软件缺陷的判断)。同时,手术机器人的智能系统与医疗诊断设备的智能系统存在较大差异,前者是基于数据的决定,系统是既定的,不具有深度学习功能,存在有设计缺陷的可能性;后者具有深度学习功能,其出现问题并非是由设计缺陷造成的,而是AI发展过程中出现的不可避免的技术问题,因此在此种情形下,不适用软件缺陷所造成的一般过错侵权责任。

三、医疗AI侵权适用医疗过错责任的主要困境

医疗AI的使用和缺陷致损发生在诊疗过程中,是否可根据医疗过错责任对当事医师进行责任认定呢?在《民法典·侵权责任编》第一千二百二十三条不能完全对医疗AI侵权责任进行规整的情况下,有必要探讨医疗AI侵权责任可否适用《民法典·侵权责任编》中关于医疗过错责任的相关条款,笔者下文主要以《民法典·侵权责任编》第一千二百二十一条为中心,对医疗AI侵权是否适用医疗过错责任原则展开讨论和分析。

(一)医疗损害责任中“过错”的认定

《民法典·侵权责任编》第一千二百二十一条是关于在诊疗活动中如何界定医务人员过错的规定。与原《侵权责任法》相比较,该条并未作任何改变,即根据该条规定,医务人员的注意义务就是应当尽到与当时的医疗水平相应的诊疗义务。该法条考虑到了时间对医疗行为的影响,但是却没有体现空间差异(地区差异、城乡差异和医疗机构的级别差异),即判断医务人员是否尽到诊疗义务时,只考虑时代整体医学水平的因素,却忽略我国各地区、城乡之间,以及各级各类医疗机构之医务人员的医疗水平因受教育程度不同而存在的先天差距、因占有医疗资源不同而加重这种差距的实际情况。在短时间内,这种差距不会有太大的改变,法院在审理医疗损害案件时,若仅以“当时的医疗水平”来考量而不考虑地区因素、机构因素等现实情况,是有失公平的。故对于“当时的医疗水平”应作扩张解释,《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》之“对医疗机构及其医务人员的过错,……可以综合考虑患者病情的紧急程度、患者个体差异、当地的医疗水平、医疗机构与医务人员资质等因素”,即采取了此种解释方法。但令人不解的是,本次《民法典》并未将此司法解释之内容上升为法律规定。

(二)手术机器人致害适用过错归责原则

根据诊疗环节,可将违反医师注意义务的过失具体化为问诊过失、诊断过失和治疗过失。根据医疗AI的功能和作用,医疗AI侵权仅可能存在于后两种过失情形中;其中,手术机器人仅可能涉及治疗过失,即在治疗过失中发生手术机器人故障而损害患者人身权益。目前应用于世界各地的手术机器人没有实现自动化,仍由医师进行操作,不能自主进行手术,也不能在手术前中后向医师提供手术操作或其他医疗建议。手术机器人虽被冠以“人”的称谓,但实质它是一套器械的组成,医师在手术中使用这套器械可以实现无线操作,利用其震颤过滤系统和动作缩减系统达到更好的手术效果;手术机器人的智能,也主要体现在这两大系统中。因此,目前的第一代手术机器人属于普通智能机器人,其不具有深度学习功能,其一切行为和表现都受到程序的严格控制,完全依赖医师工作。只要患者损害是由手术机器人本身缺陷(无论是硬件缺陷还是软件缺陷)造成的而非医护人员操作不当造成的,那么对于损害结果的发生,医护人员就没有过错。按照过错归责原则,责任主体应是制造商,在此情形下,不得按医疗过错追究医方责任。

(三)医疗诊断系统致害不适用过错归责责任

医疗诊断系统的情况则更为复杂。侵权责任法建立在专注于人类行为的法律学说上,而该法律学说在应用于医疗AI时可能不会起作用。造成这一困难的主要原因,是医疗诊断系统的不透明性和不可预见性——医疗AI诊断系统利用嵌入数千个模拟神经元的行为,排列成几十个甚至几百个错综复杂的相互连接的层的“人工神经网络”,对输入数据进行精确分类和分析,然后输出。就像Facebook的DeepFace算法可以在不明确分类识别特征的情况下匹配一组数字图像中的面孔一样,医学算法可以根据数千个基因中的等位基因模式预测肿瘤对特定药物的反应,或者通过分析显微图像预测肺癌的预后——所有这些都没有理解或确定这些模式为什么这样或如何这样[14],我们无从认知神经网络内部逻辑行为。通过自主学习的医疗AI算法成为一个“黑匣子”,而且其随着改进越发变得自主,用户甚至是编程的程序员也无法解释AI得到其结论的原因。医疗AI算法在本质上是不透明的,其决策的基础是未知和不可知的。医师基于医疗AI诊断系统而作出的错误诊断和治疗建议、进而所采取的医疗措施,导致患者遭受损害。在这一诊疗行为中,医师有过错吗?美国法院不情愿将医疗软件归于产品责任的部分原因在于,迄今为止,医疗软件的主要特征是通过向医师提供信息或分析,帮助他们作出决定,而最终决定权总是掌握在医师手中。然而,在黑匣子AI的情形下,医师对其不理解或不能理解的全部决策负责吗?在医疗损害案件中,鉴定专家对医师是否有过错作出鉴定意见,主要基于医学教科书、现有的临床文献、医学学会的实践指南等。医护标准随着医疗知识和技术的不断进步而变化,因此新的技术发展会给医师带来不确定性——实施诊疗行为“当时”的医护标准是什么?医师在“当时”是否应具有判断医疗AI诊断系统所作出的诊断和治疗建议正确与否的能力?医师在利用医疗诊断系统所提供的数据信息和治疗方案时,有谨慎审查的义务,对明显有错的诊断结果和治疗建议应不予采纳;对患者本身存在并发症、合并症情况的,医疗诊断系统所提供的治疗方案需要医师审慎评估才能落实临床,否则医师就存在过错。但随着医疗AI诊断系统变得越来越自治,医师作出相应判断也越来越难。对于前述情况以外的诊断结果和治疗建议,医师不可能具有连程序设计员都不具有的判断正误的能力,因此不能认定医师具有过错。由此,基于替代、控制和可预见的法律标准崩溃了,这直接影响了基于过失和替代责任法律理论的损害恢复机会,即患者难以基于医疗过错责任获得赔偿。

四、从法律漏洞视角对医疗诊断系统侵权责任的反思

(一)“法律漏洞说”的理论基础

任何法律皆有漏洞,在今日学界已无太大之争议。“法律漏洞”被界定为“违反计划的不圆满性”也为通说,然而其中并非毫无区别。以同为德国法学家的拉伦茨和魏德士为例,拉伦茨将漏洞存在范围限于“法律”,认为“法律漏洞”是“一种法律‘违反计划的不圆满性’”,从而否定“法漏洞”和“嗣后漏洞”的概念;魏德士则认为存在漏洞的范围为“法秩序”,将“法律漏洞”界定为“以整个现行法律秩序为标准的法律秩序的‘违背计划的非完整性’”,在对待“法漏洞”和“嗣后漏洞”的态度上与拉伦茨截然相反。拉伦茨之所以反对“法漏洞”的概念,是因为“法漏洞”是指“整体法秩序的不圆满性”,而只有个别法律才有计划可言,法秩序整体则因“整体计划”的根本不存在则不能有如是说法,故与“违反计划的不圆满性”的“法律漏洞”思想不相配合。魏德士则从“整体是衡量非完整性的标准”出发,认为法院基于“禁止拒绝裁判原则”应对“法漏洞”作出“规定”,因为这是对不作为的立法者的代替,而非“修改”或对现有法律评价的拒绝。对漏洞存在范围的判断,同样影响到二位学者对“嗣后漏洞”的态度。“嗣后漏洞”,魏德士称之为“派生的法律漏洞”、我国台湾学者黄茂荣称之为“演变式体系违反”,系指因技术、经济的演变而发生的立法者立法时尚未见及或预见及的新问题,而该新的问题不属于“法外空间”,属于须被法律规整的范围。拉伦茨将“计划”限于“立法者的计划”[15],嗣后漏洞系新事物未被规范产生的“不圆满性”,不与历史上之立法者的意思或立法计划相违,故不具拉伦茨所指之“违反计划性”。相反,魏德士将存在漏洞的范围扩大为“法秩序”,认为“漏洞认定不是符合认识的行为,而是解释者的评价行为”。[16]“嗣后漏洞”虽与“立法者的计划”不相违背,但从整体法秩序来看,“这种状态的继续与法律的意旨,即追求正义在人类共同生活上的体现,显然不符”。[17]

医疗AI尤其是医疗诊断系统,是随着科技发展和变迁而产生的新的事物,在其使用中产生的对患者的损害所引发的矛盾,由于我国长期以来将医疗器械致损案件纳入医疗事故中进行处理,加之我国尚无相关案例,立法者在进行《民法典》编撰时,并未意识和预见到此类责任事故的特殊性和规制的必要性。对于新生事物所生出之矛盾,若法律不加规范,即会形成不被欢迎的不圆满性;若法院仅因“不违反计划性”而将其排除于“漏洞”之外置之不理,或等待立法者来填补漏洞,则势必造成在新立法前这一重要生活关系得不到法律的规整和保障。基于此,笔者较为同意魏德士关于“嗣后漏洞”之观点,并以此为出发点来分析医疗AI侵权责任问题。

(二)对医疗AI侵权之法律规制漏洞的认定

虽然“不合理危险”“产品”等规范性概念在适用具体案件前,需要经法官评价地加以补充才能被适用,但其仍属于“法律解释”的范畴而非“漏洞”。对于手术机器人而言,其智能系统可归于传统意义上的“软件”,而并非“新事物”,手术机器人侵权责任所面临的问题是对“不合理危险”“产品”“软件”等概念的解释。因此,对目前临床上适用的手术机器人所造成的损害而言并不存在法律漏洞:由手术机器人硬件缺陷造成的损害,属于缺陷医疗器械侵权责任,患者可依据《民法典·侵权责任编》第一千二百二十三条之规定向生产者或医疗机构请求赔偿;向医疗机构请求赔偿的,医疗机构赔偿后,有权向负有责任的生产者追偿。因手术机器人软件缺陷而造成的损害,患者虽不能依据《民法典·侵权责任编》第第一千二百二十三条和《产品质量法》请求生产商、经销商(包括医疗机构)赔偿,但可根据《民法典·侵权责任编》一般过错侵权责任请求生产商赔偿。

魏德士指出,在判断法律是否存在“违背计划的缺陷”的时候,应考虑不同的漏洞类型并进行区别,“当遭遇嗣后法律漏洞和法漏洞(领域漏洞)的时候,必须考虑,立法之所以没有对这些需要调整的问题作出评价,是由于它们在有问题的法律颁布时可能不存在,还是可能被认为不需要调整或者规定得不正确”。[18]对医疗诊断系统而言,其在法律上未被规范的是“黑匣子”算法预测错误的问题,而这一问题是产生于技术发明领域,它在现行法律规定中对法律往来的影响根本没有被认识到,属于嗣后法律漏洞。历史上关于此种漏洞情形的经典例子,就是拉伦茨在其《法学方法论》及魏德士在其《法理学》中均提及的德国最高法院就转录文学作品的朗诵或音乐于录音带之裁判。在这一裁判中,法院认为,由于立法未曾预见到录音机的发展,因此当时不可能作出评价,这里存在嗣后的“隐藏”的“法律漏洞”。在分类上,“隐藏的漏洞”与“开放的漏洞”为一对相对的概念。根据拉伦茨之观点,“开放的漏洞”存在于“就特定类型事件,法律欠缺——依其本应包含之——适用规则”之时,“隐藏的漏洞”则存在于“就此类事件,法律虽然含有得以适用的规则,惟该规定——在评价上并未虑及此类事件的性质,因此,依其意义及目的而言——对此类事件并不适宜”之时。[19]据此分析,医疗诊断系统侵权有“开放的”漏洞存在,而非“隐藏”的漏洞——因为法律欠缺对“黑匣子”算法预测错误问题的适用规则。

(三)对存在的法律漏洞作填补

发现法律有漏洞就需要对其填补纠正,对于隐藏的法律漏洞主要通过目的性限缩的方法予以填补;对于公开的、明显的法律漏洞,可以通过类推适用、目的性扩张等方法予以填补。类推适用及目的性限缩所依据之法理,主要为平等原则和正义的要求,即“同类事物应作相同处理”及“不同类的事件应作不同的处理”。[20]目的性扩张,则系“对法律文义所未涵盖的某一类型,由于立法者之疏忽未将之包括在内,为贯彻规范意旨,乃将该一类型包括在该法律适用内之漏洞方法而言”。[21]从医疗诊断系统侵权的法律漏洞来看,并非立法者之疏忽,在漏洞填补方法上适用类推适用,具体适用《民法典·侵权责任编》第一千二百一十八条:“患者在诊疗活动中受到损害,医疗机构或者医务人员有过错,由医疗机构承担赔偿责任。”

在此需说明以下两点:

一是关于原《侵权责任法》第五十四条学界也有不同的解释和学说,如“严格替代责任说”“组织过错责任说”“严格型替代责任与医疗管理损害责任复合说”。本文采第三种学说,从该条文义出发到其立法目的并结合实际情况而言,该法条并非仅规定医疗机构对医务人员的医疗过错承担严格替代责任,还包括医疗机构由自身管理过错侵权而所应承担的责任。《民法典》第一千二百一十八条把《侵权责任法》第五十四条“医疗机构及其医务人员”的“及”改为了“或者”,更加清楚地表明了立法者的规范意旨——医疗机构对于医务人员医疗过错行为承担替代责任,对于自己的过错行为也要承担侵权责任。在目前,从医疗诊断系统的功能来看,主要是提出逻辑选择。以Watson为例,它所提供的治疗方案、药物选择和用药指导等建议,如果没有主治医师的接受和行动就无法得到实施。医疗AI诊断系统视在临床中的作用和地位更类似于会诊医师,其相似性主要体现在以下两方面:第一,根据我国《医院工作制度与人员岗位职责》,“凡遇疑难病例,应及时申请会诊”。我国法律未对何为“疑难病”作出界定,但根据医学界通识,凡大多数医务人员对诊治都感到困难的疾病,均可称为“疑难病”。目前,医疗AI诊断系统主要提供肿瘤患者的治疗选择方案,其所涉病种符合“疑难病”的范围。第二,从目前医疗AI诊断系统的功能来看,其是向主治提供疑难病症的咨询意见,不与患者直接交流,更不能独立采取治疗措施,与患者之间不产生直接的医患关系。会诊医师在对疑难病进行讨论时,也仅是根据主治医师所提供的病历资料、检查信息等从自己专业角度提出建议。医疗机构为了提高自身的诊疗水平和节约人力物力成本,在明知医疗诊断系统可能存在误诊的情形下,应通过实施会诊制度等措施来尽量避免其可能产生的不良后果。虽然医疗机构不可能评估黑箱医疗算法的实质性准确性,但却可以而且应该被要求采取适当的谨慎来评估程序质量。若未采取积极措施而导致误诊发生,就与“医疗机构自身有管理过错”并无二样,皆属于医疗机构由于疏忽或者懈怠而未能履行管理规范或者管理职责、造成患者人身损害之情形。基于“同等事物同等处遇”,医疗诊断系统所造成的误诊,应类推适用《民法典·侵权责任编》第一千二百一十八条,即由医疗机构承担该系统所所造成的损害赔偿责任。

二是医疗诊断系统诊断错误所致患者损害之情形不适用《民法典·侵权责任编》第一千二百一十九条,即该条不可视为医疗诊断系统的免责条款。从文义解释的角度,患者使用医疗诊断系统并非该条所规定的需向患者说明且要获得其书面同意的“手术、特殊检查、特殊治疗”中的“特殊检查”。何为“特殊检查”?从《医疗机构管理条例实施细则》第八十八条的规定可知,第一,“特殊检查”归根结底是“检查”,而未负荷其他功能和作用;第二,所谓“特殊”,主要是该“检查”可能对患者身体产生伤害。从这两点出发,医疗诊断系统的使用就不能落入“特殊检查”的“口袋”中——从上文已知,医疗诊断系统,如Watson通过对300本医学期刊、200本教科书和近1500万页的文本的数据收集[22],其作用和功能,是通过患者的信息和记录以“提供治疗方案、药物选择和用药指导”,而不是检查,而且这种分析过程并不会对患者身体造成任何的损害。医疗诊断系统引发了微妙的知情同意问题。在直觉层面上,很难想象在一个没有人确切知道它是如何工作的情形下,“知情”到底意味着什么,或申言之,这种“知情”有何意义?

从体系解释和立法目的来看,该条更不可视为医疗诊断系统侵权的免责条款。《民法典·侵权责任编》第一千二百一十九条是为了通过保障患者的知情同意权来保障患者的自主决定权,而不是以告知来免除医方的损害责任。即使患者对诊疗手段是认同的,但在之后的治疗过程中,医疗机构或者医务人员过错造成患者损害的,其也应承担赔偿责任,这与患者选择高风险治疗方式而后治疗效果不佳是不同之情形——后者医方并无过错。根据《民法典·侵权责任编》第一千二百二十一条之规定,医务人员在诊疗活动中未尽到与当时的医疗水平相应的诊疗,造成患者损害的,医疗机构应当承担赔偿责任。若通过告知并获得患者书面同意之方式即可免除医方的侵权责任,医方则将利用其优势地位获得书面同意,把医疗过错所造成的损害结果转嫁给无过错的患者,这不符合公平原则,也不利于我国医疗卫生事业的发展。

五、结语

从目前AI发展情况来看,在医疗领域使用且在法律适用上有疑问的,是手术机器人和医疗诊断系统两种智能医疗器械。未来,完全进入强人工智能时代后,医疗AI不仅可以直接与患者交流、展开独立自主的治疗,而且可以通过接连互联网向缺乏医疗资源的地区提供诊疗服务。对于未来之医疗AI,应按照医师准入资格对其进行考核,法律也应作出相应调整。对于目前之医疗AI,则尽量在现有法律框架下统一评估医疗诊断系统责任,以一方面维持法律制度的稳定性、结构性和可行性[23],另一方面统一案件办理流程及适用理论而使结果趋同,进而鼓励技术的使用、发展和进步。

AI在医疗领域的应用,一方面可以减轻医师的工作量,使其能专注于护理或评估等专项工作,工作变得更有效率,也缓解了我国医师的生理和心理压力;另一方面,可以帮助缓解我国医师稀缺地区的负担,缓解医疗资源分配不均衡所带来的矛盾和冲突。除一般医疗外,在军事医疗、自然灾害或其他缺乏医疗服务提供者的情况中,AI更能发挥远程医疗的作用,具有扩大有限医疗资源的能力。法律应鼓励这种创新技术的发展。对于手术机器人而言,其硬件缺陷应适用产品责任,软件缺陷则在过错责任框架下追究生产商的责任,这既符合我国《产品质量》法保护消费者合法权益之目的,又未过于加重生产商的责任,利于促进生产商提高硬件和软件质量,利于保护民众的生命健康安全。用《民法典·侵权责任编》第一千二百一十八条规制医疗诊断系统侵权责任,即由医疗机构承担管理过错,虽可在现行法框架下解决其法律适用问题,使患者更容易获得足够的赔偿,但将全部的风险和责任分配给医疗机构,将给其带来不成比例的负担,并可能阻止人工智能技术在医疗领域的运用。因此,有必要实施统一诉讼程序和强制责任保险,以鼓励人工智能系统在医学上的应用。具体而言,在医疗AI诊断系统致损案件中,法院应分两步走。第一步,评估致损是否由AI系统的硬件缺陷造成。由专家组或专门的鉴定机构(在我国,尚未有专门的医疗器械缺陷鉴定机构,但需明确的是,现有的医疗损害司法鉴定机构无法提供此项鉴定服务)检查该系统,如确系该系统的硬件故障所造成的医疗损害,则适用严格产品责任,被告既可是生产者,也可是医疗机构;若不存在硬件缺陷,则进入下一步骤。第二步,根据医疗管理损害责任构成要件以及是否有《民法典·侵权责任编》第一千二百二十四条所规定的免责事由进行审查和判断;若医疗机构败诉,则其应据《民法典·侵权责任编》第一千二百一十八条承担过错责任。通过“分流”,有助于通过适当评估生产商的责任避免医疗机构承担所有的责任;免责事由的确定和适用,则可进一步将损失风险分配给更多的当事方,以减少每一个诉讼的经济影响。同时,可以考虑引入针对AI产品的强制责任保险制度,强制要求AI产品的生产者为医疗诊断系统投保,从而分担医疗AI的风险,进一步激发医疗机构使用该系统的积极性。

注释

①United States v.Athlone Indus.Inc.746 F.2d 977,979(3d Cir.1984).

②Escola V.Coca Cola Bottling Co.150 P.2d 436.440-41(Cal.1944)(Traynor,J.,concurring).

猜你喜欢

诊断系统漏洞民法典
漏洞
无信不立 无诚不久——民法典中关于合同的那些规定
民法典诞生
民法典来了
中国民法典,诞生!
区间轨道电路智能诊断系统的探讨
设备在线诊断系统在唐钢的建设与应用
三明:“两票制”堵住加价漏洞
漏洞在哪儿
高铁急救应补齐三漏洞