医疗人工智能侵权责任法律问题研究
2020-06-03王轶晗
王轶晗, 王 竹
(四川大学 法学院,四川 成都 610207)
160年前大不列颠作家查尔斯·狄更斯(Charles Dickens)笔下“最好亦是最坏的时代”似乎可将当下的人工智能时代描述得恰如其分。(1)Charles Dickens.A Tale of Two Cities[M].New York:Open Road Media,2014:8.自20世纪以降,人工智能的物化成果被广泛应用。就医疗而言,人工智能的引入,极大提高了手术的精度、灵活性,扩大医生的术野,使更高的可视性与可达性成为可能。然而,在人工智能走出实验室,跨过生产线,进入诊疗室的过程中,与之相关的负面评论不绝于耳,造成巨大的技术恐慌。具体在法律适用上,由于人工智能的法律地位尚未明确,且侵权事实与相关法律规范之间涵摄失灵,医疗人工智能侵权责任认定陷入困境。
一、文献综述与预期创意
随着人工智能在医疗领域的深度应用,医学模式循神灵主义医学、自然哲学医学、生物-心理-社会医学向智慧医学转化。医疗作为最易受到人工智能影响的行业,相关损害责任问题引发广泛的立法回应。如德国颁布《电子卫生法》对人工智能与医疗卫生数字化进行专门规范。日本政府则于2018年宣布将通过优化人工智能医疗设备的相关规则,以厘清人工智能与医务人员的责任归属。(2)李润生,史飚.人工智能视野下医疗损害责任规则的适用与嬗变[J].深圳大学学报(人文社会科学版),2019,(6).美国也积累相当数量的判例,将部分医疗人工智能认定为雇员,由医疗机构承担替代责任。(3)Jessica S.Allain.From Jeopardy to Jaundice:The Medical Liability Implications of Dr.Watson and Other Artificial Intelligence Systems[J].Louisiana Law Review,2013,(73).我国虽然对人工智能的发展战略进行远期规划,但相关的侵权责任规定阙如。
医疗人工智能所裹挟的损害风险与责任难题亦渐入学界视阈,该类探讨争鸣主要集中于医疗人工智能的法律地位与规则适用。有学者提出如果从他者视角期望人工智能的责任,医疗人工智能能够成为一定程度的能动者,即自负其责的主体。(4)张正清,黄晓伟.作为“他者”而承担道德责任的智能机器——一种人工智能成为道德能动者的可能性[J].道德与文明,2018,(4).与此相反,其他学者则对医疗人工智能的主体资格予以否定,指出责任认定宜适用采取优势证据标准并增加法定推定过错标准。(5)李润生,史飚.人工智能视野下医疗损害责任规则的适用与嬗变[J].深圳大学学报(人文社会科学版),2019,(6).另有学者虽赞同人工智能不能具有主体资格,但认为医疗人工智能的管理人应当对损害承担无过错责任,且管理人与生产者不承担连带责任。(6)游文亭.人工智能民事侵权责任研究[J].学术探索,2018,(12).此观点与部分学者提出的由医疗机构承担高度危险责任的内核相一致。(7)贾章范,张建文.智能医疗机器人侵权的归责进路与制度构建[J].长春理工大学学报(社会科学版),2018,(4).还有学者提倡依然适用《侵权责任法》关于医疗产品损害责任的规定,而对配套制度进行优化,如成立医疗人工智能监管机构并建立强制登记制度。(8)刘琪,谷笑颖.医疗人工智能应用中的伦理困境及对策研究[J].医学与哲学,2019,(21).
人工智能侵权与传统侵权相比,具有不可预见性与特异性,而医疗损害责任问题与相关的医学知识须臾不可分,专业性极强,技术性更高。是以,医疗人工智能侵权的复杂程度彰明较著。然而就近年研究成果的内容与数量而言,不难看出,一方面,多数研究虽对现行法律或新法制定中的可能适用路径有所论及,但鲜有涉及产品责任、医疗损害责任、高度危险责任等适用规则的全面探讨;另一方面,较之其他人工智能领域,医疗人工智能侵权的相关研究明显不足。(9)笔者以“人工智能”“侵权”为“主题”,在中国知网进行检索,共计检索出相关核心期刊文章51篇。其中,明确与自动驾驶汽车相关的文章15篇,明确与著作权侵权相关的文章16篇,明确与智能机器人侵权相关的文章2篇,明确与医疗人工智能相关的文章1篇。在此背景下,本文拟于厘清医疗人工智能法律地位的基础上,经过对诸责任规则正本清源式的分析与剖释,为解决医疗人工智能侵权所面临的问题探寻可行进路。
二、医疗人工智能的应用及相关侵权案件的发生
人工智能系具有类人智能,能够独立于人类完成思考、学习、决策等任务的存在。医疗人工智能则指被设计开发并应用于医疗领域的人工智能技术,主要包括医疗影像、辅助诊断、疾病风险分析预测、医疗机器人、药物研发、医疗管理等。
就域外而言,医疗人工智能起步早,发展迅猛,如达·芬奇(Da Vinci)手术机器人以及沃森(Watson)人工智能系统。但医疗人工智能侵权案件却随着人工智能的临床化呈现出上升的趋势,如美国的外科手术机器人在2000年至2013年间,至少造成1391起致害事件,并导致144人死亡。(10)Homa Alemzadeh,Jaishankar Raman,Nancy Leveson,Zbigniew Kalbarczyk,Ravishankar K.Iyer.Adverse Events in Robotic Surgery:A Retrospective Study of 14 Years of FDA Data[J].PLoS ONE,2016,11(4).就我国而言,医疗人工智能侵权的隐忧亦逐渐凸显并实质化。以达·芬奇手术机器人为例,浙大一院的达·芬奇机器人单机手术量蝉联全球第一。截至2016年末,该院的医疗机器人共完成1957台手术,系全球手术密度最大的手术机器人。(11)金娅倩.浙大一院的达·芬奇机器人单机手术量2016年全球第一[DB/OL].http://www.zj.xinhuanet.com/zjNewsman/20170104/3607429_c.html,2020-02-10.笔者通过中国裁判文书网,将“达·芬奇”“医疗”“侵权”作为关键词,2017~2020年作为区间进行检索,共计检索出相关判决书24份,并呈现递增趋势。考虑到医疗侵权案件的复杂性,加之文书上网的局限性,实际案件数量远超于此。见微知著,医疗人工智能侵权逐渐成为人工智能领域的焦点问题之一。如《人民日报》评论文章曾指出,在医疗科技创新攻关中,需处理好医疗人工智能在主体资格、侵权责任等方面的问题,以实现习总书记提出的从人民利益出发的人工智能深度应用。(12)桂从路.人工智能为医疗打开更大空间[N].人民日报,2019-06-28(9).
三、医疗人工智能侵权案件法律适用的困境
(一)逻辑判断——人工智能主客体定位混乱
要解决医疗人工智能侵权问题,首当其冲即责任指向。因此,需对医疗人工智能的主客体属性作出判定。追本溯源,法律主体制度沿着“人可非人”向“非人可人”过渡,但人工智能的智能性、拟人化特征导致其主客体性质在理论研究中一直悬而未决。综观域内外观点,“主体说”主要包括拟制法律人格说、有限法律人格说以及人格减等说;“客体说”主要包括工具说、动物说等。经研判,以上学说的问题主要体现在:首先,拟制法律人格说与有限法律人格说虽主张赋予人工智能法律主体资格,但是囿于目前的人工智能独立承担民事责任之不可能,最终的侵权责任依然归属于刺破面纱后的人类。其次,人格减等制度源于罗马市民法,指身份丧失或者市民权利等的改变。(13)Justinian.The Institutes of Justinian(5th ed.)[M].trans.by John Baron Moyle.Oxford:Clarendon Press,1913:23.它适用于同一主体即自然人的法律人格变化,而无法解释人类与人工智能之间的法律属性关系,不应将人格减等套用于两类主体的不同法律人格。(14)杨清望,张磊.论人工智能的拟制法律人格[J].湖南科技大学学报(社会科学版),2018,(6).最后,围绕动物说存在着人工智能能否被动物同化的争论。尽管两者均存在一定程度的危险性,且不能持有财产,但不可预测性相异。人工智能的不可预测性源于执行软件所含的程序,而动物的不可预测性则由于其自身的天性。(15)Andrea Bertolini.Robots as Products:The Case for a Realistic Analysis of Robotic Applications and Liability Rules[J].Innovation and Technology,2013,5(2).因此,动物说的内在逻辑存在漏洞。
(二)法律适用——侵权事实与法律规范涵摄失灵
在法律适用上,不论单独以产品责任、医疗技术损害责任,抑或高度危险责任加以苛责,医疗人工智能侵权均存在无法消弭的问题。
1. 适用产品责任之虞
一方面,作为产品责任构成要件之一的产品缺陷不易证明。根据《产品质量法》第46条的规定,产品存在缺陷,主要是指产品存在“不合理的危险”,或者不符合国家标准、行业标准。首先,人工智能产品属高科技产品,存在技术黑箱,从事人工智能产品专业开发的人员也很难准确判断产品是否存在缺陷,存在何种缺陷,更枉论本就处于弱势地位的患者。其次,我国尚未出台有关医疗人工智能的国家标准、行业标准,受害患者举证困难重重。最后,我国专业的人工智能缺陷鉴定机构目前仍处于缺位状态,医疗鉴定与司法鉴定机构在处理涉及医疗人工智能的鉴定事项时难免举步维艰。
另一方面,最近规则的适用不尽合理。《侵权责任法》在第五章外设置第59条作为针对医疗产品侵权的独立规整,规定医疗机构以服务提供者身份对缺陷医疗产品致害承担严格责任。(16)对于目前的医疗人工智能产品而言,多数医疗机构一般作为医疗人工智能的使用者,利用人工智能器械为患者进行医疗服务。第59条规定中的医疗机构是以服务者的身份承担责任,而不是产品的生产者或销售者。唐超.医疗机构与产品责任——《侵权责任法》第59条的理解与适用[J].东南大学学报(哲学社会科学版),2018,(2).同时,部分医疗机构作为我国一部分自主研发的医疗人工智能器械的设计者,有可能在器械实现商业化生产后,作为生产者适用《侵权责任法》第五章有关产品责任的规定。该规定实为最近规则的运用,因缺陷产品受到损害的患者可以就近选择就诊的医疗机构行使请求权,有利于患者及时受偿。若医疗机构主张不承担责任,则需要依据《医疗损害责任司法解释》第7条第三款的规定对医疗产品不存在缺陷承担举证证明责任。这无疑增加医疗机构使用人工智能的负担,虽然医疗机构在赔偿后有权向负有责任的生产者追偿,但是进行追偿的成本与追偿不能的风险会成为医疗人工智能落地医疗机构的窒碍。同时,术业有专攻,对于医疗机构而言,证明涉及尖端科技的人工智能器械不存在缺陷是十分困难的。由此,医疗机构遂成为医疗人工智能产品损害责任纠纷中最为不利的一方。
2. 适用医疗技术损害责任之虞
医疗人工智能侵权适用医疗技术损害责任规定的关键性困难有三。分别为主客体地位认定、医患关系有无以及过错的判断。
其一,《侵权责任法》第57条所规定的医疗技术损害的行为主体为医务人员,但诸如人工智能诊断设备、手术机器人、智能康复器具等医疗人工智能能否被赋予法律关系主体地位,并等同于医务人员从而令医疗机构承担用人单位的替代责任,此为适用医疗技术损害责任的先决问题。
其二,即使肯定医疗人工智能的法律主体地位,并将之视为医务人员,仍需在苛责之前确定医疗人工智能与患者之间是否存在医患关系。如当人工智能诊断设备为医生出具患者的诊断结果与治疗建议时,并未与患者形成医患关系,其地位类似于为英美法中的“咨询医生”。(17)Michael Lupton.Some Ethical and Legal Consequences of the Application of Artificial Intelligence in the Field of Medicine[J].Trends in Medicine,2018,18(4).咨询医生不参与患者的具体治疗护理过程,所提供的非正式意见并不构成医患关系。(18)Irvin v.Smith 31P.3d 934 (2001).因此,人工智能与患者之间医患关系的存在与否将会因人工智能的类别、行为等因素的不同而得出迥异的结论,其复杂性可见一斑。
其三,根据《侵权责任法》的规定,医疗技术损害责任的归责原则为过错责任原则。因此假设人工智能与患者之间存在医患关系,在人工智能对患者造成损害后,针对其是否存在过错的判断十分重要。但是,对于以提高人类医疗诊断治疗水平为目的而被研发的医疗人工智能而言,以“法律、行政法规、规章以及其他诊疗规范”“当时的医疗水平”为标准判断人工智能的过错恐有不妥。有学者建议,以自然人医师所能达到的最高诊断水平作为判断标准。(19)李兴臣.人工智能医疗服务的法律责任[J].医学与法学,2018,(4).然而,此种突破地理范围的最高诊断水平的确定方式、人工智能诊断水平与人类最高诊断水平的比较手段,均为判断过错前亟待解决的难题。
3. 适用高度危险责任之虞
《侵权责任法》中的高度危险责任由一般性规定、具体列举式规定、兜底规定组成,这样的开放性体系结构可以为医疗人工智能侵权责任的纳入提供可能性。(20)窦海阳.《侵权责任法》中“高度危险”的判断[J].法学家,2015,(2).但是依然存在两方面的问题,一方面,高度危险责任包括高度危险物致损责任与高度危险作业致损责任。(21)马俊驹,余延满.民法原论(第四版)[M].北京:法律出版社,2016:175.医疗人工智能造成患者损害归属于何类致损值得深入探讨。另一方面,高度危险责任属自己责任,高度危险物的占有人、使用人以及活动经营者为其责任主体。因此,若适用高度危险责任,医疗人工智能侵权的最终责任主体即为医疗机构,而生产者则得以逃脱责任,这显然是不合理的。(22)张亚连,郭会玲.履行社会责任能促进企业绩效提升吗?——以医药行业为例[J].湖南财政经济学院学报,2019,(1).
四、医疗人工智能侵权的法律因应
(一)定性——明确医疗人工智能的客体地位
在展开人工智能地位之思时,容易落入“安卓谬论”的陷阱中,(23)“安卓谬论”即“人形机器人谬论”,是指对机器人的拟人特征进行过度投射,其结果可能会产生法律上的误判。See Ryan Calo,A.Michael Froomkin & Ian Kerr (eds.).Robert Law[M].Northampton:Edward Elgar Publishing,2016:18.从而过分关注人工智能的拟人性。(24)Jacob Turner.Robot Rules-Regulating Artificial Intelligence[M].London:Palgrave Macmillan,2019:189.就医疗人工智能而言,其打破人物二分的司法格局仍尚未可期。目前的人工智能智性足矣,但人之心性、灵性不足。不同于人类,人工智能的自主性纯粹为技术性的,他们在算法的基础上做出决定。(25)Hervé Jacquemin,Jean-Beno t Hubin.Aspects Contractuels et de Responsabilité Civileen Matière D’Intelligence Artificielle[M].Alexandre de Streel & Hervé Jacquemin.L’Intell-igence Artificielle et le Droit,Bruxelles:Larcier,2017:116.
以沃森医疗人工智能为例,(26)选择沃森进行分析,是基于沃森的技术先进性与成熟性。沃森早在2012年就通过美国医生执业资格考试。与高度依靠医生工作的人工智能系统相比,医生对沃森的控制程度很低。See Jessica S.Allain.From Jeopardy to Jaundice:The Medical Liability Implications of Dr.Watson and Other Artificial Intelligence Systems[J].Louisiana Law Review,2013,(73).采用Bloom认知领域分类法进行分析后,沃森与人类的认知差距可以清晰地展现出来,见表1。
表1 沃森与人类认知程度的对比
通过对比可知,沃森仍然无法执行关键功能来决定结论或行动方案。虽然沃森擅长理解问题,但沃森编程的问答模型意味着它不能独立地“综合”或“评估”医疗问题,也不能独立地构思和搜索新的相关信息。沃森缺乏批判性思维所需的更高层次的认知,以及内在价值排序方案所需的多样性交互来源。(27)Jason Chung,Amanda Zink.Hey Watson-Can I Sue You for Malpractice? Examining the Liability of Artificial Intelligence in Medicine[J].Asia Pacific Journal of Health Law & Ethics,2018,11(2).机器对于抽象表征的提炼亦即以规则条件与概率统计为基础的决策方式与人类所特有的基于情感感动与顿悟冥想的判断机理之间的鸿沟依然存在。(28)刘伟.关于人工智能若干重要问题的思考载[J].人民论坛·学术前沿,2016,(7).因此,医疗人工智能在现阶段仍属于人类医疗活动中的工具,即医疗器械。如是,应当明确其法律客体的性质,避免过早地赋予法律人格,造成法律制度的空置与虚转。(29)张建文.格里申法案的贡献与局限——俄罗斯首部机器人法草案述评[J].华东政法大学学报,2018,(2).
(二)因应——法律制度布局及具体规则构建
在厘清医疗人工智能法律地位的基础上,亟待通过相关的法律制度对医疗人工智能侵权问题进行规制。一方面,如果俟人工智能的效应充分显现,以此形成以技术事实为基础的社会规范,那么彼时的法律制度将会严重迟滞,从而导致法律对人工智能技术“匡正”的无力。(30)吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,(5).另一方面,就目前的人工智能发展阶段而言,不宜进行脉冲式立法。应以现行产品责任与医疗损害责任的规定为基础,遵循“最小化原则”和“程序化原则”,(31)“最小化”即尽可能地将现行的法律规定适用到该类侵权案件上,在最低程度上进行新的立法与法律修订;“程序化”即尽可能地对现行法律进行程序性的技术改造加以适用。孙占利.智能机器人法律人格问题论析[J].东方法学,2018,(3).分情形适用产品责任、医疗损害责任,个别适用高度危险责任乃措置医疗人工智能侵权的必由之路。具体的规则设计如下:
1. 产品责任的承担
经法院确定医疗人工智能侵权系其缺陷所致,则由该医疗人工智能的生产者承担产品责任。(32)本文着重探讨较为复杂的医疗人工智能产品生产者的产品责任,医疗人工智能产品销售者等主体的产品责任因其与一般产品责任具有相似性,在此不再赘述。
首先,厘定生产者的外延。考虑到现阶段医疗人工智能的发展趋势,同时为加强对受害者的保护,宜对生产者的范围进行扩张解释,包括产品的直接制造者、进口商以及表见生产者等。其中,进口商归类为生产者的主要考量为医疗人工智能产品的跨国高科技属性。目前,应用于我国医疗机构临床诊断治疗的人工智能产品中存在相当数量的进口仪器,转卖令人工智能产品生产者的确定复杂化,对于受害者而言,即使确定海外生产者,也将面临艰难的跨国诉讼,无疑加重受害者的诉累与获偿难度。表见生产者,即将自己的名称、商标或者其他标识标注于他人制造的产品之上的主体。(33)周友军.民法典编纂中产品责任制度的完善[J].法学评论,2018,(2).将表见生产者列为人工智能医疗产品的生产者有利于最大限度地保护受害者的利益。
其次,明确产品缺陷的类型与归责原则。我国《侵权责任法》并未对产品缺陷进行分类,产品责任通过立法被确立为无过错责任。依据比较法研究与学界通说,产品缺陷主要有三,分别为制造缺陷、设计缺陷与警示缺陷。其中,制造缺陷致害适用无过错责任基本未存争议。但是对于设计缺陷致害所适用的归责原则,则呈现出无过错责任原则与过错责任原则分庭抗礼之势,就适用前景而言,对于医疗人工智能设计缺陷致害宜适用无过错责任,原因在于:其一,由于技术的复杂性与人工智能产品的不可预测性,制造缺陷与设计缺陷往往难以区分,统一适用无过错责任有利于减轻受害人举证负担。其二,对生产者科以无过错责任,有利于促使其履行更高的注意义务,在新人工智能产品的研发过程中更加审慎。诚然,无过错责任恐对人工智能产品生产者造成“寒流效应”,降低企业开发新技术的意愿。但根据阿西莫夫定律,人工智能的首要原则即不伤害人类。生产者应始终以维护消费者的生命财产安全为圭臬。并且,生产者可根据《产品质量法》第41条的规定主张发展风险抗辩,以避免对彼时科学技术水平尚不能发现的设计缺陷致害承担无过错责任。此外,我国还可以通过建立人工智能强制责任保险与人工智能基金降低生产者的风险。针对警示缺陷,该类缺陷致害排除无过错责任原则的适用,回归过错责任乃域外立法的通行做法,我国在处理医疗人工智能侵权案件时应予以借鉴。其原因在于警示缺陷致害案件的争议焦点系生产者警告行为的有无与充分与否,质言之,评判的关键为行为。而制造缺陷、设计缺陷致害案件则以产品本身为中心。因此,警示缺陷致害责任宜适用过错责任原则,而非错位适用无过错责任原则。(34)梁亚,王嶂,赵存耀.论产品缺陷类型对产品责任归责原则的影响——《侵权责任法》第41条生产者责任之解释与批判[J].法律适用,2012,(1).除此之外,生产者在医疗人工智能领域的警示义务还应受到“博学中间人”原则的限制。即当熟练的专业人员站在产品生产者与最终消费者之间时,产品责任中生产者的因果链可以被打破。(35)Danny Tobey.Software Malpractice in the Age of AI:A Guide for the Wary TechCompany[A].The 2018 AAAI/ACM Conference on AI,Ethics,and Society[C].Cham:Springer,2018.因此,生产者在对医疗机构及医务人员进行充分合理的警示后,即视为完成警示义务,可将承担产品责任的风险卸下。
再次,增加“消费者合理期待”作为认定产品缺陷的标准之一。由于证明产品存在“不合理的危险”涉及较为复杂的技术层面,加之医疗人工智能国家、行业标准的空白,患者受到损害后面临着巨大的举证负担。因此,建议引入“消费者合理期待”这一标准,依据整个目标诊疗群体对该医疗人工智能产品的特性所具有的一般性常识构建理性最终消费者模型并加以判断。(36)贺琛.我国产品责任法中发展风险抗辩制度的反思与重构[J].法律科学(西北政法大学学报),2016,(3).
最后,废止最近规则在医疗产品损害责任中的适用。《侵权责任法》第59条的规定无疑增加医疗机构的风险与负担,为改变这一局面,建议在缺陷医疗人工智能产品导致患者损害后,如果医疗机构不存在过错,受害患者应径行主张由产品生产者承担产品责任,而不应就近选择医疗机构承担医疗产品损害责任后再向生产者进行追偿。
2. 医疗损害责任的承担
患者在使用人工智能的医疗活动中受到损害,经法院确定医疗机构存在组织过错的,由医疗机构承担赔偿责任。
《侵权责任法》将医疗机构规定为医疗损害责任的责任主体,该责任的性质为替代责任。然而替代责任已无法满足医疗人工智能侵权责任的需求。现代医疗属系统性活动,是一种组织医疗,即复数医疗人员的运作群体。各自依专业分担部分医疗行为,完成病患治疗的组织态样。(37)黄丁全.医事法新论[M].北京:法律出版社,2013:450.如在医疗活动中运用人工智能,涉及数据的采集、审核、输入,仪器的操作、维护、消毒,专业人员的培训、考核等。因此,为处理医疗人工智能侵权案件,建议将医疗机构的责任明确为组织过错责任。患者无须证明诊疗过失由某位具体医务人员造成,或医疗机构对医务人员的选任、管理、培训、组织上存在过失,而只需在优势证据标准下证明医疗机构所提供的诊疗活动,没有达到客观上应当具有的诊疗注意义务水平,即可完成对过失的证明,从而减轻证明负担。同时,组织过错责任的适用亦避免陷于探讨人工智能主客体法律地位的泥潭,这一规则也将适用于现属法律客体的人工智能在未来可能具备高度自主性乃至替代医务人员的情形。医疗机构在医疗人工智能领域中的组织过错主要包括:
(1)技术类组织过错
如提供未经审核的瑕疵医疗数据供人工智能诊断设备进行深度学习,造成设备诊断失误,医务人员误操作人工智能设备或人工智能设备独立进行手术造成患者损害,未按照诊疗规范对人工智能设备进行消毒导致患者发生感染,未对医务人员进行充分的人工智能相关培训、考核等。(38)Elizabeth M.Hechenbleikner,Brian P.Jacob.Medicolegal Issues in Robotic Surgery[A].Shawn Tsuda,Omar Yusef Kudsi.Robotic-Assisted Minimally Invasive Surgery:A Comprehensive Textbook[C].Cham:Springer,2019.
(2)伦理类组织过错
如未经过患者或其近亲属同意使用人工智能医疗设备,未充分向患者披露采用机器人手术的原因、医务人员及人工智能设备在此类医疗活动中的经验水平、潜在风险、不良后果与预期恢复情况,(39)YL Lee,GS Kilic,JY Phelps.Medicolegal Review of Liability Risks for Gynecologists Stemming from Lack of Training in Robot-assisted Surgery[J].The Journal of Minimally Invasive Gynecology,2011,18(4).使用医疗人工智能设备造成算法偏见等。
(3)管理类组织过错
未能妥善保管人工智能黑匣子或拒绝患者的查阅请求,未能对人工智能设备进行定期维护导致患者损害,未能合理管理人工智能导诊员、搬运机器人、分药机器人等非临床人工智能造成损害,未能维护医疗机构的网络安全与备用电路稳定导致人工智能系统被入侵或工作中断等。(40)王喜军,杨秀朝.医疗事故处理条例实例说[M].长沙:湖南人民出版社,2003:6.
3. 产品责任与医疗损害责任的结合
如果缺陷人工智能产品与医疗机构的组织过错共同造成患者的同一损害,则根据《医疗损害责任司法解释》第22条的规定,由产品的生产者与医疗机构承担不真正连带责任。生产者或者医疗机构承担赔偿责任后,向对方追偿的,应当根据医疗行为与缺陷医疗人工智能产品造成患者损害的原因力大小确定相应的数额。
如果无法评估患者的损害系产品缺陷造成抑或医疗机构的组织过错导致,则参照适用《侵权责任法》第10条关于共同危险的规定,由产品的生产者与医疗机构承担连带责任。(41)关于共同危险制度能否适用于无过错责任领域的问题,学界存在争论。本文认为,无过错责任领域并不排除共同危险的适用。王泽鉴先生认为,共同危险行为的规范意旨乃在缓和被害人举证的困难,此于无过失责任,亦应适用。见王泽鉴.侵权行为(第三版)[M].北京:北京大学出版社,2016:447.但是,排除最近规则的适用,即患者不得先行单独请求医疗机构进行赔偿,患者可以选择对生产者,或者对生产者与医疗机构同时提出损害赔偿的请求。因为从风险利益一致性角度分析,医疗人工智能的生产者已通过销售行为获得利益的圆满状态,就产品售出后产生的赔偿责任也可通过销售价格的涨幅实现部分成本的转移分担,而在人工智能医疗设备报废之前,其对于医疗机构的使用性价值始终在延续,并未饱和。因此,生产者需要承担与其收益相对应的风险。
对于免责事由,建议采纳“补充说”。即医疗人工智能产品的生产者或者医疗机构依据《人身损害赔偿司法解释》第4条的规定,证明损害后果不是由其行为造成的,则免除其承担连带责任。但若受害人无法从其他连带责任人处完全受偿的,由免除连带责任的一方承担补充责任。此制度设计令非实际致害人的连带责任得以被免除,缩小连带责任的适用范围,并在一定程度上保护人工智能生产使用等环节参与者的自由。(42)王竹.再论共同危险行为——以客观关联共同侵权行为理论为视角[J].福建师范大学学报(哲学社会科学版),2010,(4).
4. 高度危险责任的个别适用(43)需要说明的是,此种做法易造成不同患者举证责任与受偿难度的差异,并加重医疗机构的负担,故仅将之作为过渡性措施,待医疗人工智能技术较为成熟,医疗强制责任保险、基金制度较为健全时停止适用。
高度危险责任的归责原则为无过错责任原则,纵观全球,该责任原则在医疗领域的适用呈现出逐渐扩大的趋势。(44)如新西兰、瑞典等国对医疗损害进行无过错赔偿。See Puteri Nemie Kassim.No-Fault Compensation for Medical Injuries:Trends and Challenges[J].Medicine and Law,2014,33(4).此外,如果生产者得以证明产品不存在缺陷,而处于信息弱势的患者无法证明医疗机构存在过错,则将面临受偿不能的风险。因此,建议将高度危险责任适用于部分医疗人工智能侵权,由医疗机构作为高度危险物的使用人承担无过错责任。其适用范围可以通过以下3种途径进行综合判定:
其一,根据医疗器械的分类标准确定。《医疗器械监督管理条例》规定国家对医疗器械按照风险程度分为3类进行管理,判定分类的因素包括预期目的、结构特征、使用形态、与人类的接触程度等。修订后的《医疗器械分类目录》将诸如尖端侵入人体的髌骨爪、进入眼内进行治疗的激光光纤、对病变部位进行自动识别并提供明确诊断提示的诊断软件、全自动血库系统等划分为第三类医疗器械。因此,可参照第三类医疗器械确定适用高度危险责任的人工智能医疗器械侵权类型。
其二,根据医疗活动的性质确定。在美国第三次医疗危机中,由于高额的保费与巨大的医疗责任风险,约70%的妇产科医师改变了自己的执业习惯。(45)Stuart L.Weinstein.Medical Liability Reform Crisis 2008[J].Clinical Orthopaedics and Related Research,2009,467(2).为应对危机,美国进行一系列侵权法改革措施,其中包括无过错医疗责任的个别适用。(46)林暖暖.美国无过错医疗责任改革:制度缘起与法理启示[J].中国社会科学,2010,(2).如弗吉尼亚州通过《与出生有关的脑神经赔偿法》,对产科发生的造成新生儿脑神经损伤的相关医疗损害适用无过错责任。(47)Ronald S.Latz.No-fault Liability and Medical Malpractice-A Viability Analysis[J].The Journal of Legal Medicine,1989,10(3).因此,我国在确定高度危险责任的适用范围时,可以将不同科室的医疗活动的性质作为参考因素之一。
其三,酌情考量受害患者的损害程度确定。如法国以最高行政法院通过认同里昂上诉行政法院就“比昂仕案”的判决为标志,开始接受无过错归责原则,但立法机关将其适用范围限定为对受害人造成达到政府颁布的政令所确定的永久性残疾标准的损害。(48)张莉.医疗纠纷与赔偿责任体系建立——法国医疗赔偿制度最新发展及其启示[J].行政法学研究,2015,(5).为限制无过错责任的滥用,受害人的损害程度亦可在厘定高度危险责任适用范围的过程中予以酌量限制。
五、结 语
对于人工智能技术,既应避免成为盲目乐观的技术至上论者,亦须防止成为过度恐慌的技术灾变论者。对于由人工智能的运用所衍生出的诸多隐忧,法律需要有所回应,以解决模糊不清的人工智能法律定位、捉襟见肘的法律适用、函矢相攻的实务处理等问题。举一反三,就医疗人工智能侵权而言,刻板地适用现行法律关于产品责任、医疗损害责任、高度危险责任的相关规定已难以完成准确的演绎推理。因此,应以最小化与程序化为原则,对法律进行适度的改造,而非进行斗榫合缝的法条设计,从而令医疗人工智能侵权案件能够通过适用改造后的产品责任、医疗损害责任,并个别适用高度危险责任,得到合理解决。另可辅以事前、事中、事后的制度去障,如制定医疗人工智能国家、行业标准,设立医疗人工智能审查机构,实现黑匣子与医疗人工智能器械“三同时”,(49)此处的“三同时”制度借鉴《国务院关于开展加强环境保护执法检查严厉打击违法活动的通知》中关于环保设施的规定。建立沙箱区域,(50)将医疗人工智能置于开放的网络环境中会放大医疗设备本身的脆弱性,易受黑客攻击。沙箱是计算机安全术语,指在单独的环境中将某个程序与其他程序分开,以便在出现错误或安全问题时保护计算机上的其他区域不被影响。See Clemens Kolbitsch.Evasive Malware Tricks:How Malware Evades Detection by Sandboxes[J].ISACA Journal,2017,(6).改革医疗质量安全事件报告数据库,(51)我国《医疗质量安全事件报告暂行规定》对各级医疗机构则科以强制的报告义务。但是,缺乏对于生产者、销售者等主体报告义务的规定,且未建立医疗人工智能器械安全事件的专项报告机制。成立人工智能鉴定委员会,设立人工智能赔偿上限(52)如澳大利亚昆士兰州的民事责任法所规定的赔偿上限即可扩展到人工智能领域。See Michael Lupton.Some Ethical and Legal Consequences of the Application of Artificial Intelligence in the Field of Medicine[J].Trends in Medicine,2018,(18).以及试行国家先行赔偿等。与此同时,医疗人工智能作为影响人类切身利益的重要技术创造,在相关法律的制定及适用过程中,社会公众对于人工智能技术的知情权亦应被给予充分的维护,即将“以人为本”作为制度安排的根本旨归,保证因科技进步而产生的社会经济利益与福祉得以为社会公众所分享。一方面,对于某些重大、高风险的医疗人工智能技术的法律规制,须广泛征求公众的意见并进行科学的论证,另一方面,在医疗人工智能的数据收集与技术公开过程中,应努力寻求个人隐私权保护与公众知情权捍卫之间的平衡点,以期引导人工智能技术循“善智”之路径造福人类。