APP下载

医疗人工智能侵权行为法律规制研究*

2022-12-17谈在祥蒋雨彤

医学与哲学 2022年14期
关键词:生产者医疗机构人格

谈在祥 蒋雨彤

1 医疗人工智能侵权责任法律研究背景

医疗人工智能(medical artificial intelligence,MAI)作为一种新兴医疗保健工具,为降低医疗成本、诊疗患者和未来医学发展提供了前所未有的机遇[1]。在智能诊疗方面,IBM 公司已研发出可以诊断癌症的 Watson 机器人,其诊断准确率可超过临床医生[2-3],一项研究报告称,人工智能(artificial intelligence,AI)对乳腺癌肿瘤的正确检测率为92.4%,而人类医生的正确检测率仅为73.2%[4-6]。在智能手术方面,Intuitive Surgical 公司开发出了世界一流的外科手术机器人“达芬奇机器人”,通过使用微创的方法,代替医生实施复杂精准的外科手术[7]。在智能紧急医疗资源调度方面,Corti 是一种用于管理和优化哥本哈根医疗资源紧急调度过程的技术[8-9]。在智能个人健康管理方面,由巴比伦健康中心提供的应用程序GP at Hand,用于评估患者已有症状和风险因素,并提供已知的医疗信息以及保持健康的建议[10-11]。

在推动技术革新与医学发展的同时,MAI 也带来了许多问题。例如,美国食品药品监督管理局(Food and Drug Administration,FDA)在2007 年收到了200 余次投诉,指控医疗外科手术机器人导致患者遭受烧伤、切割伤与感染,甚至造成89 例死亡事故[12]。在英国2015 年首例“达芬奇”心瓣修复手术中,机器人对患者心脏的缝合位置和方式都不对,甚至还戳穿了患者的大动脉。随着MAI 的飞速发展,这类侵权行为将持续增多,给民事责任的归责带来一系列问题。然而,由于MAI 的算法不透明性、学习自主性、行为独立性,其造成的侵权呈现出一定的拟人性、不可预见性和复杂性,进而引发对传统法律规制的冲击。因此,笔者分析传统民事责任制度适用MAI 侵权的困境,结合国外的经验,为我国MAI 侵权责任法律应用的发展与完善提供建议。

2 我国MAI 侵权责任规制的应用困境

2.1 责任主体的法律地位问题

运用恰当法律规制的首要前提即为明确责任主体,然而目前国内学界对于MAI 是否具有法律人格存在不同看法[13]。

2.1.1 肯定说

2017 年10 月,在沙特首都利雅得举行的Future Investment Initiative 大会上,索菲亚被宣告成为历史上第一个获得公民身份的机器人[14]。这一里程碑事件使众多学者对AI 法律人格肯定说更加笃定。肯定说主要包含拟制法律人格说。拟制法律人格说认为AI 应当被赋予独立的法律人格。在现代法律人格理论的发展史上,法律主体逐渐从自然人扩展至法人和组织,法人作为法律关系的主体,通过法律人格拟制的方式参与法律关系。而人与AI 之间天然不平等,AI 独特的“应用”路径,AI 承担有限的法律责任后果等因素,决定了其应当享有拟制法律人格[15]。

2.1.2 否定说

我国学者大多倾向于该学说,否定了AI 的法律人格与主体地位。否定说主要包含工具说与代理说。工具说认为AI 是人类创造的在给定环境下表现良好的智能体程序,其本质是为人类服务的工具,不具备独立思考行动的能力[16-18]。代理说则认为AI 与所有人、使用人间的关系属于法定代理关系,代理人对其的行为及产生的结果负责[19]。

2.1.3 折中说

折中说既不肯定AI 具有人格,也不否定AI 具有人格,而是认为其具有部分人格。折中说主要包括有限法律人格说和电子人格说。有限法律人格说认为AI 具有独立自主的思考行为能力,享有法律规定的权利并能承担责任,但其与传统法律上的自然人或法人不同,AI 独立承担行为后果的能力有限,基于此,仅应赋予AI 有限的法律人格[20]。电子人格说认为,“电子人”是拥有人类智能特征,具有自主性,以电子及电子化技术构建的人格化AI 系统或机械装置[21]。法律应当将“电子人”作为法律主体容纳,并在一定范围内赋予其权利与义务,让其承担一定范围内的责任。

2.2 法律适用的类型问题

现行《侵权责任法》在医疗侵权方面的适用主要包括产品责任、医疗损害责任和高度危险责任,然而在法律的认定上仍存在许多问题。

2.2.1 产品责任

根据《民法典》侵权责任编中产品责任的规定,因MAI 产品存在缺陷造成损害的,患者可以向产品的生产者或医疗机构请求赔偿[22]。但MAI 不同于一般产品,其缺陷不易证明。根据“谁主张,谁举证”原则,患者需对MAI产品存在的缺陷进行举证,但AI 产品属高科技产品,它的算法具有不透明性,人类难以完全理解其运作过程[23]。在接收端,对于算法是如何从给定的输入中得到特定的结果没有清晰的认知[24]。因此,AI 算法经常被描述为“黑匣子”[25]。AI 算法的不透明性是其“高维性和复杂性”的产物,即使是这些系统的设计者也无法理解机器的表达过程[26],更不用说不具备专业知识的普通患者。

此外,我国专业的AI 缺陷鉴定机构目前仍处于缺位状态。大部分鉴定结论都会聚焦于医疗机构的过失行为,而对于医疗产品本身缺陷的检测和分析却往往不到位。笔者在中国裁判文书网上检索到的与达芬奇机器人相关的医疗纠纷共5 例,均属于医疗过错责任纠纷领域。例如,根据《山东省青岛市中级人民法院(2019)鲁 02 民终5081号二审民事判决书》,“邹爱敏、赵潇诉青岛大学附属医院医疗损害责任纠纷案”中, 患者术后脾动脉破裂大出血,医疗鉴定结果是医院承担70%的过错责任。根据《重庆市第一中级人民法院(2018)渝 01 民终3540 号二审民事判决书》,“杨邦文诉重庆西南医院医疗损害责任纠纷案”中,患者在达芬奇机器人术后肺部感染,鉴定结论是医方在杨邦文的诊疗过程中, 对患者病情的严重程度重视不够,观察不仔细,病情变化后处理不及时,存在过错,该过错与杨邦文“截瘫”之损害后果存在因果关系。医方应对损失承担 50% 的赔偿责任[27]。

2.2.2 医疗损害责任

传统大陆法系认为,医疗过失属于典型的业务过失。如果作为可信赖专家的医生在诊疗活动中存在过错或未尽到与当时的医疗水平相应的诊疗义务,造成了患者损害,他将被视为医务人员违反注意义务承担过失责任,医疗机构将承担替代责任[28]。然而,当AI 参与到医患关系中时,情况就会变得十分复杂。

首先,要想在医疗侵权案件中胜诉,原告必须证明,其伤害是由于治疗医生背离了普遍认可和接受的惯例和程序,未尽到与当时的医疗水平相应的诊疗义务[29-30]。法院评估这一标准的依据是一个合格的医生应该做些什么,也就是说,一个与被告具有相同的技术背景和专业知识的医生会怎样进行诊疗。但是,当一项新技术,如AI,被引入临床诊疗时,当前医疗的平均水平的标准可能是模糊的[31]。

其次,医务人员过错与损害结果之间的因果关系难以判断。医疗损害责任构成要件包括:医疗机构和医务人员在诊疗活动中有违法诊疗行为;患者受到损害;诊疗行为与患者损害结果之间具有因果关系;医疗机构及其医务人员有过错[32-33]。由于AI 算法具有“黑箱”属性,其决策过程不透明,原告很难证明其损害是由于医务人员存在过错而不是由于AI 本身的故障,也就无法说明是医务人员的诊疗行为导致了患者的损害。在未来,机器的自治能力越大,将其行为的法律责任归咎和分配给人类的合理性就越薄弱[34]。随着AI 系统变得越来越自主,真正能控制它的各方(即临床医生、医疗机构和AI 设计师)越来越少,代理AI、控制AI 以及对其行为可预见性的崩溃直接影响了基于过失和替代责任的法律理论和患者受到损害时的追偿机会[35]。

2.2.3 高度危险责任

由于目前学界对AI 性质界定的不明确,相关法律制度的不完备和高度危险责任体系结构的开放性,部分学者认为MAI 侵权也可考虑适用高度危险责任。然而在具体实施方面也存在以下问题。首先,高度危险责任包括高度危险物致损责任与高度危险作业致损责任[36]。MAI 造成患者损害归属于何种致损责任值得深入探讨[37]。其次,高度危险责任通用无过错责任原则,其赔偿义务主体是危险活动或者危险物的作业人,即医务人员与医疗机构。因此,若适用高度危险责任,医疗AI 侵权的最终责任主体即为医疗机构,而其他参与AI 从出厂到投入使用过程且可能造成损害的主体如设计者、生产者、运输者则得以逃脱责任,这显然是不合理的[38]。最后,如果把MAI 归为高度危险物或把AI 诊疗过程判定为高度危险作业,那么会造成大众对AI 的误解,使他们对其产生害怕抵触的心理,这不利于未来科技的进步与医学的发展[39]。

2.3 法律适用的归责问题

2.3.1 过错原则

如前文所述,AI 产品是人类智慧活动的结晶,但其依然拥有摆脱人为控制的可能性,这就难以诠释传统侵权理论秉承的主观过错要件[40],主要原因是过错判定一般以侵权人在主观上是否尽到了应知和明知的注意义务为准则。当前许多MAI 实现了无人化的操作,使其使用者不再负有主观上的注意义务,这让过错归责原则变得无所适从。对于一些仍需要人为操控和监管的AI 来说,就算使用者尽到了主观上的注意义务,由于AI 本身的智能性与自主性,仍有可能使患者遭受侵害。AI 产品是基于独立自主的算法、思考做出判断而导致了侵害,并非源自人为的操作失误。如只是考虑使用过错原则对医疗机构及医务人员进行责任判定,这无疑增加了医疗机构的负担。此外,在AI 产品应否作为法律责任主体的争议状态下,探究其是否存在主观过错似乎没有任何实际意义。即使AI 产品可被认定为承担过错责任的责任承担者,它也无法履行经济赔偿或其他相应的法律责任[12],最终真正的责任履行还是会落到医疗机构与医疗AI 使用者身上。

2.3.2 无过错责任归责

在上述几种责任类型中,目前无过错责任归责仅通用于产品责任。运用无过错原则的产品责任进行责任判定即承认了AI 的客体地位,也追究了生产者、销售者的责任。生产者将承担举证责任证明自己的产品没有缺陷才能免于担责。虽然保护了患者这一弱势群体,也规避了上述对于医疗机构和MAI 使用者责任判定的困境,但这种归责方式也存在局限。一方面,这对生产者经济上造成了重大压力,严重打击AI 市场的主体的积极性[41],最终可能妨碍AI 的推广与应用。另一方面,生产者承担无过错原则的产品责任仅限于技术缺陷情形,而MAI 产品对患者产生侵害既有可能是因为生产者的技术缺陷,也有可能因为AI 本身的自主行为,明确侵害来源是十分困难的。

2.4 责任承担的举证问题

由于AI 本身的特殊性,责任认定中主体的复杂多样性,侵权责任的举证工作也变得十分困难。首先,AI 自身的缺陷难以证明,这一点在产品责任部分已经阐明,此处不再赘述。其次,AI 引起损害的原由难以解释,即便将AI算法公之于众,但其基于算法学习、思考、推理、决策的过程是难以理解与解释的。专业技术研发人员都未必能阐述清楚AI 运行机制,更何况不具备专业知识的普通民众,那又谈何举证医疗机构与AI 使用者过错分配呢?这无疑增加了患者的举证难度,医疗机构与AI 使用者的逃避责任机会。再次,AI 技术作为商业机密的一种,是一个高科技企业核心竞争力的体现。当前我国没有相关法律规定在侵权案件中,AI 设计者、生产者需要公开研发数据资料。最后,AI 数据库庞大繁杂,这对于后续的记录显示和保存也造成了严重困难,恐难无法完全还原当时客观的侵权过程[39]。

3 域外MAI 侵权责任规制的探索

3.1 美国

3.2 欧盟

欧盟正在对其颁布的 《医疗设备指令》进行调整,但也仍未建立起应对MAI 侵权问题的完备法律体系[50]。首先,欧盟2017 年2 月16 日颁布了《机器人民事法规则》[51],该文件倡议赋予AI 机器人“电子人”的法律地位,以应对由其自主决策,行为引起损害的情形[52-53]。其次,除AI机器人以外的法律主体的民事责任应与AI 机器人的自主程度成反比[54],如果机器人的自主能力越高,那么越难被看作是其他行为人的工具,其生产者、使用者应负的责任也就越小。最后,建立强制保险制度,要求生产者为自己制造的AI 机器人投保,该保险方案还应当有赔偿基金作为补充,以确保患者在受到强制保险未能覆盖的损害时也能得到补偿[55]。然而,当前欧盟法规仅是单纯提出“电子人”的概念,并没有说明具体如何让它们履行责任进行补偿。所以最终该类侵权民事案件仍是由人承担责任。严格责任制度(也称危险责任)在欧盟国家占主导地位。无论是AI 机器人违反了欧盟国家民事责任制度,还是MAI的作业人、持有人有过错,都由AI 的作业人、持有人对造成的损害承担责任[55]。在监管方面,2021 年4 月,欧盟委员会发布《人工智能法案》,明确了对AI 实行基于风险的分级监管思路,意在为欧盟范围内的投资和创新营造良好法治环境。欧盟委员会将AI 产品划分为不可接受的风险、高风险、有限的风险和极小的风险四类,着重立法规制前两类,并对高风险AI 的全生命周期监管设立了严格详细的规定,同时明确三类违法情形的处罚原则,以保障欧盟公民的尊严、隐私等基本权利,构建公民对新兴科技的信任。

3.3 日本

日本的大部分AI 方法都以工业为基础,其中出现的挑战为各国制定新的AI 战略提供了重要的经验教训。2014 年5 月,日本新能源产业技术综合开发机构公布了《关于工业、商业和生活机器人化的白皮书》,白皮书中提到在医疗卫生以及相应医疗卫生服务相关的机器人有清洁机器人、医疗机器人、救灾机器人。2016 年,日本颁布《日本复兴战略-走向第四次工业革命》,通过使用机器人和传感器等技术提高护理质量和生产力,减轻护理人员的负担,进一步将机器人技术引入护理场所。日本从法政策学角度,主张将MAI 的侵权责任由医疗机构与医务人员承担。

4 我国MAI 侵权责任法律应用困境的应对

当前我国MAI 侵权责任法律体系仍存在众多问题,笔者综合了域外之先进经验,提出如下应对建议。

4.1 分阶段厘定MAI 的法律地位

4.1.1 当下

当下仍属于弱AI 时代,MAI 应当被视为物、产品和医疗器械[56]。其仍然具备工具属性即不具有自由意志,有可支配性[57]。即便是当前较为先进的手术机器人,也不应当被规定为民事主体[58],手术机器人作为辅助外科医生开展手术的助手,受到人类的终极支配。另外,考虑到现实基础不充分,尚无落实责任的可行办法,立法成本较大等方面的原因,如将MAI 立为责任主体并进行严格责任执行,将阻碍科学技术的创新和发展。

4.1.2 未来

在未来强AI 时代,MAI 将不具有工具属性,而成为侵权责任主体[57],因为其不再具有可支配性,并存在自由意志的可能性。届时,人机界限模糊且人机共存状态成为新的社会特征[59],赋予其法律人格能更好解决法律关系问题。我国可效仿欧盟做法,立法赋予医疗AI 法律主体人格,由其与人类主体共同承担侵权责任。同时立法需明确MAI的责任承担方式与细节,更新现行《民法典》中关于传统侵权责任的认定标准与法条规定,避免空有概念而无实践。MAI 作为法律主体的具体责任承担方式见下。

4.2 分阶段、情形适用不同类型责任与归责原则

4.2.1 弱AI

生产机械设备使用的材料影响设备的使用寿命。因此需要在选择材料时要全面考虑经济性和适用性。很多煤矿企业的生产设备在选择耐磨零件的时候倾向于低碳锰钢。相较于普通的钢来说,这种钢的耐磨性能更好,同时随着现代生产技术以及工艺的迅速发展,能够选择的材料增多,使得煤矿机械零件所具备的抗磨性以及抗腐性得到了提升,为降低磨损,应合理选择材料,提高零件耐磨性和寿命。

在弱AI 时代下,AI 作为客体,可分情况应用当前既存的《民法典》侵权责任编的规定进行责任认定。

仅由产品自身缺陷导致的损害,适用产品责任规则,生产者和医疗机构对直接责任的承担适用无过错责任原则。患者可以向MAI 生产者或医疗机构请求赔偿。患者向医疗机构请求赔偿的,医疗机构赔偿后,有权向生产者追偿。在产品责任规则时,要注意以下两点。其一,责任主体外延,采用“共同企业”责任制。产品责任的责任主体不应仅局限于生产者,销售者、存储者、运输者都可能存在过错,对产品自身缺陷负有一定责任,即从生产研发开始到使用前的整个过程中所涉及的所有主体组成相互关联的“共同企业”,其中每一个实体都可能对属于企业的其他实体的行为承担连带责任[60]。如果产品的缺陷是因第三人过错所致,生产者或医疗机构在承担无过错的直接责任后,则可向有过错的运输者、存储者等第三人追偿。运输者、存储者等第三人对这种最终责任的承担适用过错责任原则。其二,增设认定产品缺陷的标准。考虑到当前MAI 侵权责任法律制度尚不完善,产品鉴定技术尚不发达,被损害者专业知识匮乏,为了更大限度地保障患者的利益,认定产品缺陷的标准不应单一化,如未达到同类MAI 产品市场平均效果的即可考虑认定为产品缺陷。此外,由黑客攻击MAI 造成的产品损害,适用产品责任的第三人责任,由黑客承担责任,这不在本文的讨论范围之内。

在绝大多数医疗侵权案件中,医务人员或医疗机构的主观心理状态为过失,而非故意。因此,过失情形的判定需要进一步细化。应考虑两种过失情形,第一,应当使用而没有使用MAI 的情形。根据美、德法律,对单个患者而言,相较于传统方法,MAI 优势大于劣势,那么MAI 法就应当使用[61]。这点值得我国借鉴。第二,MAI 使用过程中出现过失的情形。一种是不应当使用而使用MAI 的情形。另一种是应当使用但在使用MAI 的过程中发生操作失误。

产品缺陷和医务人员操作失误或医院管理不当共同导致损害发生时,应进行原因力的考量,分别适用产品责任规则和医疗损害责任规则,由产品的生产者与医疗机构承担不真正连带责任[37]。

高度危险致人损害责任属于危险责任,归责原则为无过错责任原则,且责任主体仅为高度危险物使用者(即医疗机构),因此,笔者建议谨慎使用高度危险责任规则,以防生产者、运输者等第三人得以逃脱责任。应仅考虑在确定适用高度危险责任的第三类MAI 器械侵权案例中和患者损伤严重的情况下使用[37]。

就归责原则来说,制造商作为MAI 的缔造者,应初步承担无过错的严格责任,其他主体承担过错责任。

4.2.2 强AI

此时MAI 作为侵权责任主体,违反诊疗义务,存在过错,应与相关人类主体共同承担侵权责任。首先MAI 应以“停止侵害”的方式承担侵权连带责任的前一部分,然后人类以其他方式承担后一部分的侵权连带责任[15]。MAI 并无财产,并不能像传统责任主体一样对患者进行赔偿,因此需要采取别种方式对其进行责任追究,如强制更改其程序,删除部分记忆,终止某些功能,对患者造成严重损害的,甚至可将其销毁。作为MAI 的生产者、使用者,也应当承担部分责任,对患者进行经济补偿。强AI 医疗过失认定标准包括过失情形和认定标准。过失情形分为选任过失和监督过失。选任过失包括应当使用MAI 却未使用或不应使用MAI 却使用两种情况。认定标准应混合人类医生和MAI 的平均医疗水平作为注意义务的标准。强AI 时代,MAI 可达到与人类相当甚至更高的医疗水准,因此,将人类医生和MAI 的平均医疗水平作为标准是最合理的。本着人类健康权、生命权高于一切的原则,任何一方未达到应尽的注意义务,都应当承担侵权责任[45]。

4.3 利用“黑匣子”记录MAI 信息

马航MH370 的失事让“黑匣子”走入大众视野,“黑匣子”是飞机专用的电子记录设备之一,可记录存储飞机运行的数据,在飞机失事后大大提高了空难分析的准确度。考虑到MAI 的不透明性、自主性、不可预测性,这样的技术急需运用其中。“黑匣子”不仅可以记录AI的操作过程,而且其内部存储的数据可以帮助查明出错的环节,便于进行责任分配。考虑到受害者处于信息弱势地位,举证困难,生产者应自觉披露黑匣子内部的数据,如有隐瞒或恶意篡改数据者,则可推定其在法律上承担过错责任。此外,对“黑匣子”的数据分析涉及商业科技秘密与个人隐私,我国可效仿欧盟《一般数据保护条例》(General Data Protection Regulation,GDPR)[62],制定个人数据信息保护管理规则,既要保证信息所有人查阅修改存储数据的权利,也要对其有所限制。同时也要制定AI 技术的隐私权保护规则,赋予AI 开发商一定的数据自主权,定期进行数据销毁,以防止信息的窃取滥用。

4.4 对AI 产品确立必要的监管或处置机制

设立AI 管理委员会,引入一套基于机器人分类标准的高级机器人登记系统。登记系统及登记簿应当建立在全国范围内并覆盖其内部市场,由AI 管理委员会直辖。针对高度自主化的AI 产品施行登记公示制度,严格把关AI 的质量、安全性与市场流通。针对已发生侵害行为、高度危险的MAI 产品,需召回返厂并对生产者进行相应处罚,对情节严重的,甚至进行强制销毁。此外,为了方便患者举证,AI 管理委员会需督促生产者尽快如实披露黑匣子内存储的相关数据,并为患者提供AI 算法专家及一系列支持服务。

4.5 建立医疗责任强制保险和赔偿基金

我国可参考欧盟的做法,通过法律法规强制要求MAI产品的生产者投保责任保险,并建立专项赔偿责任基金用以涵盖责任保险中不包含的侵害情况的赔偿,切实保障接受MAI 诊疗致损患者的权益。

5 结语

MAI 作为新兴事物,不可能照搬当下的法律规制进行责任认定,应在不断探索中完善相关法律法规。此外,要利用“黑匣子”记录MAI 信息,对MAI 进行必要的监管或处置,建立责任强制保险和赔偿基金保障患者的利益。在做到“有法可依”的同时,切实保护个人隐私,技术机密,各方权益,以期MAI 带来更多民生福祉。

猜你喜欢

生产者医疗机构人格
湖南省老年友善医疗机构建设评审与分析
FMEA法应用于现代医疗机构药事管理工作中的体会
共产党人的人格力量
1月巴西生产者价格指数上涨3.92%
你是回避付出型人格吗?
在医改大背景下医疗机构财务管理人员如何适应发展需求
基于分级诊疗的医疗机构分工协作机制探究
远去的平凡背影,光辉的伟大人格
2020德国iF设计奖
漫画之页