APP下载

人工智能背景下医疗法律责任的现实困境与完善路径

2020-12-13范亲敏周茂雄

重庆邮电大学学报(社会科学版) 2020年5期

范亲敏,周茂雄

(1.福建省厦门市中级人民法院,福建 厦门 361012;2.福建警察学院 学报编辑部,福建 福州 350007)

一、问题的提出:人工智能与医疗

随着大数据、云计算、深度学习算法、传感网、人脑芯片等技术的发展,人工智能被运用到众多学科领域,推动经济社会从网络化、数字化阶段向智能化阶段发展。在人工智能技术升级和产业市场化推动下,从早期的Puma560工业机器人、“快捷医疗参考”软件,到Acrobot机器人、DxPlan项目,再到DaVinci手术机器人、“沃生”电脑医生等在医学领域的运用,人工智能与医疗的深度结合被视为新的风险投资热点和社会关注焦点。2017年,国务院印发的《新一代人工智能发展规划》就发展智能医疗提出:“推广应用人工智能治疗新模式新手段,建立快速精准的智能医疗体系。探索智慧医院建设,开发人机协同的手术机器人、智能诊疗助手,研发柔性可穿戴、生物兼容的生理监测系统,研发人机协同临床智能诊疗方案,实现智能影像识别、病理分型和智能多学科会诊。”[1]由此观之,人工智能在医学影像、药物发掘、疾病分析、健康会诊、临床治疗等医学领域具有广阔的发展空间。但人工智能本身所固有的“技术黑箱”和“自主学习”造成医疗人工智能在医学临床应用上存在巨大风险。例如,据报道,2007年,美国FDA就收到了来自社会的200余次投诉,指控医疗外科手术机器人导致病人遭受烧伤、切割伤与感染,甚至造成89例死亡事故[2]。医疗人工智能诊断失误以及手术损害等不良事件的发生引发理论界和实务界对医疗人工智能的风险责任规制、医疗人工智能的法律地位、医疗损害的责任承担等法律问题展开热议。法律在积极回应科技发展需求的同时,也亟须应对技术革新带来的潜在风险。医疗人工智能的发展不可避免地对现有的医疗法律秩序构成挑战,形成了对医疗人工智能主体资格和法律责任的全面讨论,特别是医疗人工智能造成医疗损害事件时,谁应当承担责任?是医疗人工智能的生产者或制造者,还是医疗机构或者医生呢?亦或是人工智能本身能够成为适格的责任主体?这一系列问题,均成为医疗法律责任研究关注的重点。

二、人工智能对传统医疗法律责任的现实挑战

关于医疗法律责任,我国《侵权责任法》按照不同的致害原因和归责原则,分成了医疗技术损害责任、医疗伦理损害责任以及医疗产品责任三种基本类型。从侵权责任法范畴看,医疗损害责任属一般侵权行为,由以下要件构成:(1)医疗机构或医务人员诊疗过程中的诊疗行为具有违法性;(2)患者遭受实际损害;(3)诊疗行为与患者损害之间具有因果关系;(4)医疗机构及其医务人员主观上具有过错[3]。随着医疗人工智能的快速发展,不断出现的智能医疗机器人等实质性地改变了现有“医务人员”的主体认知,从而对现有的医疗法律责任提出了许多理论和现实挑战。

(一)医疗人工智能的法律主体适格问题

责任主体是法律责任构成的必备要件,在现行民法理论框架下,法律责任主体主要包括自然人和以自然人为集合的法人或其他组织。强调责任主体必须具备责任能力,追索其背后的理论渊源,来源于哲学上的自由意志理论。该理论强调只有具备自由意志支配能力的人才会对其自身行为负责。若其不具备自由意志,则其相应的行为也不具备法律效果。正如日本学者北川善太郎所言:“法的人格者等于权利能力者。”[4]《德国民法典》也规定将赋于权利能力作为是否拥有法律主体资格的制度逻辑,形成了“理性经济人—权利能力—法律人”的逻辑框架,无论是自然人、法人或非法人组织,其拥有法律主体资格的前提是赋予了其权利能力。具体到医疗法律责任领域,现行理论框架下的责任主体主要包括医务人员和医疗机构。但是,随着人工智能技术的快速发展,智能机器人医生等拥有越来越强大的智能,这些利用“反馈学习”机制而拥有强大学习能力和认知能力的智能医疗机器人与人类差别甚小,特别是人工智能进入强人工智能和超人工智能阶段尤为如此。那个时候出现的医疗人工智能,将具有主体意识和独立的思考能力,能够自主判断和决策,可以与拥有生物大脑的人类相媲美,甚至更强。此时,进行医疗人工智能诊断的主体是智能医疗机器人还是人类医生?智能医疗机器人在法律上是人还是物,其是否具有独立的法律责任主体资格?这就成为探讨医疗法律责任的元命题。关于是否赋予智能机器医生等人工智能以“法律主体资格”,在一段时间内引发了全球范围内的激烈争论。有的学者认为,在强人工智能背景下,人类只是扮演一名监督者的角色,若其监督行为不存在过错或不当之处,且人工智能产品本身也不存在缺陷,那么,应当赋予人工智能法律主体资格[5]。持相反观点的学者认为,“主-客体序格的自然法上服从规则的必须遵守,人工智能只能被定格在无法反应与确证自我的客观类存在物,而不能将其人格化”[6]。

(二)医疗人工智能的过错责任面临难以适用

过错是法律责任的核心要素,是指行为人在实施某种侵害行为时,没有尽到特定标准的注意义务,从而造成他人损害时的一种应受非难的主观状态[7],包括故意和过失两种状态。然而,现行的以人的理性和自由意志为核心的过错归责理论,在人工智能背景下却备受挑战。伴随人工智能技术的不断更新迭代,在运作过程中脱离人类的预期和控制,拥有自身思考和学习能力,成为人工智能的核心特征。而这使得以行为人主观上“明知”或“应知”的注意义务为前提的过错法律责任难以适用因人工智能的使用而产生的侵权行为,肇因于以智能机器人为代表的人工智能是自主独立运作,不是基于人的故意或者过失?那么,此时,是归责于人工智能的设计者、开发者,亦或是生产者、使用者的责任?还是说可以直接归责于人工智能本身呢?比如,在医疗人工智能中,一位人工智能外科医生在执行常规的肿瘤切除手术时,突然遇到边上的动脉开裂,于是,智能医生决定去修补动脉,监督这台手术的人类医生同意该决定,智能医生修补好动脉后,病人因出血太多,所以,智能医生决定停止实施肿瘤切除手术,监督医生表示同意。但病人不得不因此花费更多的住院治疗费用以及肿瘤未能及时切除而造成的进一步病变的可能。经事后评估,智能医生的决定没有任何错误,监督医生也不存在失职之处。对于因此而给患者带来的相应损失及新增风险的赔偿责任,应当由谁承担?在人工智能是否具备独立法律责任主体资格存有争议的情况下,探讨其是否存在过错也就没有客观意义。那么,在这种情况下,医疗人工智能设计者、生产者、医疗机构或者医务人员等主体是否应作为责任主体呢?若要追究上述主体相关责任,直接依据是《产品质量法》严格责任归责原则下的产品缺陷责任,但医疗人工智能所造成的损失既可能是由于生产制造过程中存在技术缺陷,也可能是由于人工智能系统本身基于大数据转化和超级算法分析后独立思考作出的决定,现实中对该事实认定无法形成有效判断。

(三)人工智能医疗损害的因果关系认定问题

责任认定是一个逻辑推理过程,事实差异决定了结论不同[8]。因果关系认定是分析损害原因与损害结果之间是否具有关联的法律推理活动。事实的差异决定了因果关系的不同,从而决定了不同主体的责任承担。随着医疗人工智能的发展,以智能机器人医生为代表的具有独立思考决策能力的人工智能从事医疗诊疗活动,其所产生侵权后果的原因复杂多样,有可能是制造设计中存在缺陷,也有可能是销售使用中存在管理不当,还有可能是医疗人工智能自身所作出的判断与决定,这就给医疗损害中的因果关系认定带来巨大挑战。具体主要表现在:一方面,应用于医疗领域的人工智能自身缺陷难以证明。依据《产品质量法》的相关规定,生产者对产品缺陷所造成的损害承担的是无过错责任,而认定产品缺陷的标准主要有二:一是产品是否存在危及人身或财产安全的不合理危险;二是产品是否符合保障人体健康、人身财产安全的国家标准或行业标准。按照民事诉讼法“谁主张,谁举证”原则,作为患者的受害人很难证明对其进行诊疗的医疗人工智能存在《产品质量法》规定的缺陷,医疗人工智能高度自主性,导致侵害事实难以归咎于设计者、生产者。且目前尚未制定医疗人工智能技术在保障人体健康、人身财产安全方面的国家标准或行业标准,使得受害人在遭受损害后,无从援引相关标准以证明相关人工智能产品存在缺陷。另一方面,现代医疗人工智能系统的核心技术在于深度学习和超级算法,但深度学习在广泛快速学习的同时,也存在“不受前提预设、经验法则、传统智慧等因素限制”,造成智能机器人医生的生产者、设计者难以预见及控制未来是否会出现相应错误[9]。与此同时,算法本身也存在“技术黑箱”,所有的技术原理、信息、决策均在“黑箱”之中[10]。要对其中的算法模型和决策逻辑进行解释,对于人工智能的研发人员尚且困难,更遑论法官、律师等法律工作者,这进一步加大了因果关系的认定难度。

三、域外对人工智能医疗法律责任的探索借鉴

西方国家较早开始发展人工智能,在发展和使用的过程中也最先遇到了人工智能所造成的侵权损害责任问题,并且意识到要通过改变现有相关法律制度的手段来实现对人工智能发展进行必要的规制,以保障人类安全。

(一)欧盟关于人工智能法律责任的立法建议

欧盟关于人工智能法律责任的研究走在世界的前列。2016年10月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》建议将智能机器人的设计、使用活动纳入法律规范范畴,并在此基础上提出了包括成立欧盟人工智能监管机构、确立人工智能伦理准则、为智能机器人重构责任规则、考虑赋予智能机器人“电子人”身份、明确“独立智力创造”、注重隐私保护、推进标准化工作、制定特定的监管规则、关注人工智能社会影响、加强国际合作等十大建议[11];2019年4月,欧盟先后又发布了两份代表欧盟推动人工智能治理的最新文件,即《可信人工智能伦理指南》和《算法责任与透明治理框架》,对建立人工智能的伦理和法律框架进行具体安排。总的来说,可以归结为以下三点。

1.人工智能时代新的民事法律责任规则

在欧盟看来,以智能机器人为代表的人工智能与人类此前开发利用的机器工具是完全不同的,它们通过深度学习具备自主性和认知特征,其行为难以为人类所预测和控制,造成传统的民事法律责任规则难以适用,需要重新制定新的规制规则。欧盟认为,这种规则应以智能机器人为其自身行为承担责任为出发点,通过解决人工智能的法律责任主体地位来重构新的规则。为此,在其立法建议第50(f)项中就提出,从长远角度考虑,有必要确立智能机器人的特殊地位,至少应当确保技术系统最复杂的智能机器人拥有“电子人”(electronic persons)的独立地位,使其有资格担负自身所致损害的责任,配以登记公示制度,智能机器人负责弥补自身所引起的侵害,以及它自主决定的、与第三方独立交往的情形[12]。

2.“责任与机器人自主性成反比”规则

欧盟认为,既然智能机器人的侵权行为造成损害后果,就应当追究其相应的主体责任,以补偿受害人。但责任主体所负责任范围、大小应与其赋予智能机器人自主性等级相统一,智能机器人的自主能动性与其他责任主体(除智能机器人本身外)应负责任成反比。简单来说,人工智能机器人自我学习和决策的能力越强,其他与人工智能技术利益相关的主体(如制造商、所有人、使用者等)所担责任越少。人工智能机器人的培训者所担责任与教育时间成正比,然而,虽然引入了“责任与人工智能机器人自主性成反比”的规则,但当将机器人的侵害行为归因于特定身份的时候,应当对受过训练的机器人产生的技能及凭其自身深度学习和自我迭代所获得的技能加以区分,这样才能平衡受害方与责任最终承担者之间的利益冲突。

3.与人工智能民事法律责任规则相配套的制度

欧盟判断,为人工智能造成的损害分配法律责任将是未来司法实务中面临的极其复杂的问题。既然对于自主性程度高的智能机器人赋予独立的“电子人”身份,以使其能够成为法律责任归责上的主体,那么,就应当进一步完善智能机器人独立承担责任的配套制度。为此,欧盟提出了许多探索性建议,比如,可以要求智能机器人相关主体为其生产、制造、使用的机器人承担强制购买保险的义务;可以设立赔偿金制度,补充强制保险计划;推动智能机器人的标准化工作,确保其更具安全可靠性,针对具有特定用途的机器人和人工智能出台特定规则;可以通过强调说明义务、黑匣子记录义务等透明性原则,方便人工智能损害责任的事实认定等。

(二)有关美国人工智能法律责任的实践探索

与欧盟相较而言,美国对人工智能侵权法律责任持相对保守态度,比如,在责任主体上,美国一些州的立法在对以自动驾驶汽车为代表的人工智能责任主体分配上,将责任分配给汽车的生产者、所有者或者占据所有者位置的“操作者”,在美国庭审中,对于责任的指控,更倾向于“自担风险”抗辩规则。美国不认为当前人工智能侵权的复杂程度及后果足以根本改变现行民事法律责任制度,按既有的产品质量责任规则追究生产者、销售者及使用者责任业已足够。对于存在侵害风险的自动驾驶汽车、电脑医生等人工智能产品,可以实行召回制度,剥夺其再次开展相应行为的资格,以避免它的人工智能系统再次做出侵害他人的指令[13]。同时,美国关于人工智能法律责任与欧盟也有一些共同之处,比如,对于人工智能应当使用差别化的归责原则,按照严格责任、过错责任分别适用于对人工智能产品拥有不同控制程度的相关主体;建立包括安装黑匣子在内的技术手段,保存人工智能产品在不同领域的“行为”信息,以作为法律责任认定的证据参考;要求人工智能产品在售价中增加特定责任费用,建立政府或行业主导的储备金;允许既懂得智能机器人专业技术知识,又拥有专业医疗知识的专家证人出庭发表意见,并推动相关政策标准的制定与执行等。

(三)比较与分析

综上所述,在探索人工智能发展所带来的法律责任承担问题上,美国与欧盟呈现出相对保守与递进发展两种状态。它们都从责任主体、归责原则、责任方式、配套保护等角度,进行了许多具有现实应对意义的探索。但于细微处比较,美国对人工智能的规制,更多地从现有法律责任制度的角度提出差别化的归责原则,其责任主体仍旧是生产者、销售者、使用者等相关主体;而欧盟则是站在社会和法律制度递进发展角度,提议赋予人工智能独立的主体资格,这是对现行法律责任制度原理的创新。

四、我国人工智能医疗法律责任制度的完善路径

前文已述,医疗人工智能的兴起与应用将对现行的医疗损害责任制度提出现实挑战。这些挑战,既可能造成接受医疗人工智能诊疗的患者所遭受的损害难以得到完整补偿,也会给生产商、制造商、医疗机构带来责任分担不确定,最终影响技术进步和社会发展。为了实现鼓励人工智能研究发展和最大限度保护患者权益之间的平衡,笔者在综合国外立法探索经验的基础上,尝试性地提出以下几点构建意见,以供参考。

(一)现有医疗法律责任归责模式的综合适用

对于医疗人工智能实施侵害的责任主体,美国、欧盟均认为生产者、销售者以及使用者应作为相应的责任主体,但是否将医疗人工智能视为拥有独立人格的责任主体,却有不同看法。欧盟认为应当赋予其法律主体资格,但却没有进一步明确取得主体资格后的权利义务关系,也没有设计相应的责任承担体系。对此,笔者认为,在现阶段尚不需要考虑是否应当赋予医疗人工智能以独立的主体资格,一则是医疗人工智能是由人类设计与生产出来的,当前阶段人工智能所能完成的各项任务或采取的各种操作均取决于人类研发设计中事先制定好的代码或程序,亦即人工智能还不具备独立思考和独立决策的能力,尚处在人类的掌控范围之内,而且完全自主的医疗人工智能在短期内尚不会出现,因此,并不需要人工智能独立承担相应的民事责任;二则若要赋予医疗人工智能以独立的主体地位,让其能够独立实施行为、承担责任,离不开法律、政策及道德规范的体系化支持与调整,但这些目前尚都处于空白阶段,在匹配的制度规范体系尚不健全的情况下,如果强行赋予人工智能独立的法律主体资格,那么,可能会造成运作偏离合理向度下的混乱局面。况且,通过现行法律制度的扩展适用和法律解释技术的成熟运用能够有效解决现行面对的实际问题。

笔者认为,对于医疗人工智能引发的法律责任承担问题,可以综合运用现有的法律责任归责模式。首先,目前医疗人工智能通常是作为医生“助手”的身份出现,尚未达到具有独立自主自由意志的智能程度,也就是说,当前医疗人工智能更多表现为一种工具手段,对因其使用造成的医疗侵权责任,可适用《侵权责任法》的规定,对医疗机构或医务人员在人工智能使用过程中因操作或管理不当致使患者遭受损害的,应当由医疗机构承担过错责任。其次,现阶段的医疗人工智能尚属于人类研发生产的产品范畴,若因医疗人工智能自身程序瑕疵或设计缺陷导致的损害,应由其设计者、生产者按照《产品质量法》的规定承担无过错的产品瑕疵责任,并可在司法实践中对证明责任进行倾斜分配,将人工智能是否存在缺陷、缺陷与损害事实之间因果关系等证明责任分配给设计者、生产者或医疗机构承担。最后,随着人工智能的高度发展,可能会在超级算法和深度学习技术的深度应用下产生具有独立自主意识能力的人工智能。但这是一种伴随技术的市场化应用而产生的新生事物,市场化的运行方式要求医疗人工智能的生产者、制造者、使用者在享受其利益的同时也要具有风险承担的能力,风险的不可预测性契合高度危险责任的适用,亦符合《侵权责任法》在社会发展与科技进步之间所做的立法选择[14]。当然,我国现行《民法总则》虽未将人工智能纳入法律主体范畴,但假若医疗强人工智能或超强人工智能真的出现并席卷人类社会时,对《民法总则》或者《民法典》再进行适时的体系修改,以满足社会发展需要,这也符合法律制度作为上层建筑决定于社会存在的哲学本质。

(二)建立强制保险或储备金制度

在涉及人工智能所引发的医疗法律责任中,存在着责任主体难以界定、过错责任原则难以适用、因果关系难以查清等现实困境,这不仅使受到损害的患者无法获得公平赔偿,而且也阻却了生产者、医疗机构进一步研发、使用先进的人工智能技术的工作热情。为此,笔者认为可以借鉴欧美经验,尝试建立强制性保险和储备金制度,由开发者、制造商、所有者(医疗机构)等通过多种方式支付费用,建立一个专门用于医疗人工智能法律责任支付的独立资金池,既使患者的权益能够得到有效保障,又使相关主体免于因承担巨大风险责任而丧失技术研发与使用的积极性[15]。该方式使得在智能医疗领域,因非人为因素导致的损害负担通过风险最小化的方式实现化解,为救济受害人、分散医疗风险、维护社会稳定提供较为妥善的制度保障[16]。当人工智能医疗机器人投入医学使用时,生产商可以为其购买保险,在医疗损害出现时,无需纠结于侵权责任的归属认定,由保险公司对受害人填补损害。同时,为了弥补保险制度范围相对有限性的不足,建立储备金制度则可实现优势互补。储备金既包括生产者、销售者、医疗机构和患者在生产、销售、使用时的附加费用分担,也接纳社会捐赠。为确保储备金的公开透明,可配以相应的登记和公示制度。构建强制保险和储备金制度是摆脱囿于讨论医疗人工智能是否能够成为独立的法律责任主体的理论争议,而探索的一条能够真正有效解决人工智能快速发展所面临的法律责任问题的实践之道。

(三)建立专门的人工智能监管机构和行业标准

在人工智能当前发展阶段,我们提出通过适用不同的法律责任模式实现差别化归责,但差别化责任的前提需要建立在对医疗人工智能的审批监管机制上[17]。因此,在医疗人工智能产品越来越多、技术参数越来越复杂的背景下,有必要建立专门的人工智能监管机构,通过“有形之手”监督建立安全标准和伦理规则,实现对人工智能行业的监督管理和风险预测。这种前置性的审批制度,可以实现两方面的作用,一方面,可以保证人工智能的产品质量,保证投入到医疗卫生事业中的智能机器人医生等具有保障人身安全的可靠性,增进患者采用医疗人工智能的信心;另一方面,基于人工智能的安全标准和伦理准则,也可以保证差别化医疗法律责任承担的实现。对于符合一定生产标准并经过审查的医疗人工智能,生产商、制造商实质上只承担有限的产品责任,作为受害人的患者也可以援引相应的标准和准则证明涉事医疗人工智能存在“缺陷”之处,对于没有经过审批的医疗人工智能,相关主体应当承担严格责任,并且相互间是连带责任关系。针对医疗人工智能监管机构及监管标准,可借鉴美国食品药品监督管理局(FDA)创新设立的“数字医疗软件预认证计划(Precertification Program)”的监管方法,通过设置专门负责医疗设备及科技监管的机构 CDRH(Center for Devices and Radiological Health),按照前期试点项目中确定的客观标准来“预先认证”符合条件的智能医疗开发主体。但是,该项目现存最大的问题在于智能医疗管理标准有待进一步完善。无独有偶,欧盟、英国、德国、新加坡等也都成立专家委员会研究与人工智能有关的隐私、安全和道德的行业特定准则,以推动人工智能实现规范化健康发展。

五、结 语

医疗人工智能的产生和发展,一方面,给医疗领域实现精准化、个性化、高质量的诊断和治疗带来希望;另一方面,也因其参与诊疗活动而给医疗损害法律责任的分配与承担提出了现实挑战。伴随生物医学技术和人工智能的深度融合和链式发展,最终可能出现具有学习能力、思考能力和决策能力的智能机器人医生。这种智能机器人医生也将对传统的以自然人为中心的法律责任主体制度带来挑战。但法律制度的变更与发展是与社会经济发展的程度相适应的。在当前人工智能尚未全面进入强人工智能的背景下,人工智能产品尚处于人类的掌握和控制阶段,提出赋予人工智能法律责任主体地位尚不必要。当前,针对人工智能在医学领域的应用,应当坚持以“前端预防”代替“末端惩治”的原则,通过现有法律制度的整体运用和法律原则的系统解释,在结合医疗责任风险与利益的基础上,按照生产者、销售者、医疗机构或医务人员等相关主体不同的注意义务关系去认定各方责任,以体系性的法律规制来有效应对人工智能所带来的挑战。当然,在未来真正进入强人工智能的人机共存的时代,法律也必须面对和解决智能机器人医生的法律行为和法律地位问题,并对其进行适时的修正和更新,为患者维护自身合法权益提供法律救济的制度安排,增进人类健康福祉。