人工智能医疗相关法律问题的思考
2020-02-25黄洁
黄 洁
(天津大学法学院,天津300072)
一、争议问题
人工智能以其日益精确、高效等特点,在各个行业运用越来越广泛,在医学领域更是如此。目前人工智能与医学技术融合,在很多领域改变了传统的诊疗服务模式。例如,医疗人工智能在影像识别、治疗、护理、疾病诊断及健康管理方面都发挥着重要作用。人工智能技术使医疗资源配置方式发生重大改变,诊断、治疗效率明显提升,随之而来的诊疗成本也大幅降低。然而,人工智能并不只是单纯的诊疗工具,其高超的自我学习和决策能力使其在临床应用中面临特殊的风险,各种医疗不良事件如诊断失误、手术失误层出不穷,带来了巨大法律治理困境。例如,如何确定人工智能的民事法律地位?在定义人工智能的基础上,当医疗损害发生时,如何进行法律责任分配?另外,医疗人工智能的发展,尤其是医疗人工智能的健康管理和影像诊断,离不开大量患者的临床医学数据分享。医疗人工智能的精确度、个性化程度乃至整个服务质量都与它所吸收的医疗数据体量成正相关。[1]这些医疗数据大部分是属于个人隐私数据,而且不乏敏感信息。如何从法律上对这些信息加以保护?毫无疑问,医疗人工智能这种数据共享的特性也对法律的适用提出了挑战。
二、法律文献
(一)人工智能的法律地位
人工智能是人吗?20年以前答案多半是否定的。在民法的范畴内,民事主体是指有民事行为能力并且可以承担相应民事责任的个人或者法人。人工智能的产生并非是自我意识的实现,而是其创造者意志和智慧在机器上的投射,从这个角度,人工智能被看作工具和机器比较合理。然而,随着人工智能的发展,尤其是应用于医疗的高级人工智能,已能初步在实践中形成自己的判断。人机界限逐渐模糊成为人工智能发展的新特征。2016年开始,“电子人”的法律概念被欧盟法律委员会提出,证明弱人工智能的特征正在被强人工智能所替代。除了具备工具性的功能,强人工智能还能逐渐运用人所特有的智慧对不同的智慧功能进行融合。[2]在此基础上,就不能将人工智能定义为机器。
目前,关于人工智能的法律定义,理论界和学术界主要有“肯定说”“否定说”和“折中说”三种观点。持“肯定说”观点的学者认为,机器人获得人类所具备的情感、智慧和思维,具备一定的表达能力和自我决定能力是一种应然的状态。[3]因此,它们可以也应当被认为是“活着”从而享有相应法律人格与法律地位。“否定说”观点认为,人工智能是为人所创造的并为人服务的一种存在,从而不可能有超越人现有经验的经验,其依附于人的存在,而存在不具备独立的法律人格。[4]持“折中说”观点的学者则认为人工智能包括机器人等,虽主要作为工具存在,但随着发展具备了人的很多特性从而超越了工具的局限性,但这种发展又不足以达到智慧人感性与理性的高度,因此可以赋予人工智能有限的法律人格,作为一种略带保守的创新方式以解决当下的困境。[5]
(二)医疗人工智能造成损害时法律责任分配
医疗人工智能造成损害,一方面可能是使用过程中操作者及医疗人员的过错造成的,另一方面也有可能是人工智能制造者生产过程的缺陷或者销售者在销售过程中的过错所造成。要认定医疗人工智能造成损害的责任分配,就必须清晰定位责任主体,分别讨论。
1.使用者的法律责任
人工智能在医疗领域的使用目前主要集中于医疗影像诊断、治疗和护理领域。在医疗影像诊断领域内,人工智能在辅助诊断方面起到的作用和核磁、CT、验血等辅助检查项目一样。最终决策者是医师,医师应当根据自己的经验对人工智能的结论是否合理作出判断,并提供给患者与其水平相称的医疗服务。对于医疗人工智能给出了合理的建议与诊疗结果,而医生出于某种过失没有采纳该结果为患者带来损害的,医师同样应该承担责任。医师责任承担的认定标准参照《侵权责任法》第54条和第57条,[6]在与过错相称的范围内承担责任。与此同时,如果医疗人员在诊疗过程中严重不负责任,损害到患者的生命或严重侵害到他人的身体健康时,应当依据刑法追究其刑事责任。[7]
2.制造者的法律责任
人工智能医疗系统的复杂性导致在制造过程中不可避免地产生一些缺陷。因此人工智能的制造者应当尽到相应的告知和培训义务,当这种义务履行不到位时,可以此认定制造者的过失责任。传统观点依然认为人工智能医疗属于医疗器械的范畴,因机器本身的缺陷而导致就诊人员受到损害时,应当适用《侵权责任法》第41条关于产品缺陷的规定。[8]《刑法》第145条对于不合格产品也有相应的规定。
(三)医疗人工智能应用中关于隐私权的法律保护
人工智能医疗发展和完善的过程中,必然导致大规模的健康数据采集,如身高、体重、年龄、基本身体状况等。这些患者信息数据涉及个人隐私,一旦泄露将造成就诊人员权利侵害。在伦理层面上,对患者的隐私权保护体现在《希波克拉底誓言》,要求医务工作者,无论是否有业务上的需要,均有义务维护患者诊疗过程中的隐私。[9]法律层面上,2016年6月1日起实施的《中华人民共和国网络安全法》同样对隐私保护作出了相关规定,在信息和数据收集使用方面要求任何个人和组织不得利用网络和人工智能收集的数据,行侵害他人名誉、隐私、知识产权和其他合法权益之事,医疗人工智能需要使用他人信息时,应当征求当事人同意。[10]
三、适用说理
(一)关于人工智能的民事法律地位
笔者认为,人工智能能否被视作法律上的人这个问题不能一概而论。40年来人工智能在医疗上的发展日新月异,其不同阶段有不同的特征,需根据阶段特征是否满足民事主体的定义具体而论。理论上,民法规定民事主体主要是自然人和法人,适格的民事主体具备民事行为能力并能独立担责,具备实现其意志的能力并且在社会上可充当特定的角色。以此观之,将法人纳入到民事主体范畴表明,法律不要求民事主体一定为人类。那么就医疗人工智能而言又该如何界定?
根据人工智能发展的水平不同,可分为弱人工智能和强人工智能。弱人工智能不具备人类的审美和情感,但早已进入人类日常生活之中,比如世界闻名的柯洁和Alpha-Go的围棋大战里面应用到的人工智能就是弱人工智能。弱人工智能同样具备人的个别能力,比如深度持续学习的能力和一定范围内的创新能力。[11]但是笔者认为弱人工智能不具备民事主体地位。理由如下:第一,弱人工智能没有独立的意识,只能重复运行人类为之设定的程序,更无法独立表达自我意识、控制自我行为,从而也就无从判定弱人工智能是否具备承担责任的能力,不具备民事主体的条件。第二,弱人工智能无法独立地与人产生连接。无论是生产制造还是使用,弱人工智能无一不是按照人类的设定而与人产生连接,遑论与人产生情感上的连接。因此笔者认为,弱人工智能不具备相应的社会属性从而被认定为“社会上独立的人”。
然而人工智能是在不断发展和进化的,弱人工智能若发展到全面达到人的智能就应当被认定为强人工智能。[12]强人工智能的概念首次由美国著名哲学家罗杰斯提出,他认为如果人工智能完善到一定的程度,智能计算机就不仅是一个工具,而完全具备等同于人类的智力和思考能力。强人工智能通常被认为具备意志力,可以自由地与人交谈,甚至具备与人类相同的记忆与情感。这种情景虽然现在看来仍较遥远,但根据人工智能的发展速度,却完全可能发生。强人工智能将来完全可能通过对患者的检测诊断相关症状,运用医师的思维独立思考,给出较为精确的诊断结论和合理的治疗方案,而无需专业医师的参与。此时人工智能和人类的界限逐渐模糊,应当赋予其法律权利和法律主体地位。
(二)关于医疗人工智能侵权之法律责任
笔者认为,医疗人工智能发展至今,因其“人工”制造特性,不能将其看做具备自主权的医师,又因其具备“智能”的特点,又不能等同于毫无主动性的医疗工具。人工智能的特殊性使其具备不同于一般医疗侵权或者产品侵权的特点,既不能将医疗人工智能的侵权单纯地看作是医疗侵权同样也不能单纯地认定为产品侵权。
1.医疗人工智能侵权特点
综合来看,医疗人工智能侵权主要包含以下特点:
第一,自主性。医疗人工智能的运行程序虽然为人类所编写,但是这套程序促使医疗人工智能具备一定的自主学习、自我决策的能力。比如,在医疗影像诊断的过程中,将影像传输给人工智能分析时,人工智能会自主进行分析,得出自己的判断。又如,个别先进国家使用人工智能机器人对患者进行护理。这些机器人在护理的过程中,势必会对患者的诉求与需要作出自己的判断和回应。因此,医疗人工智能具备一定的自主性。
第二,复杂性。不同代际、类型的医疗人工智能产品的自主性存在差异。[13]例如,同样为外科手术机器人,达芬奇类型的手术机器人主要以其高清视线、仿真手腕等特色见长,在使用时主要由主刀医师操控,而Acrobot机器人在由医师对其操控的同时,也对医师的手术过程进行监督。Probot类机器人则被类比为自动外科医生,在特定条件和手术类型的情况下,几乎不需要医师的参与。医疗人工智能从生产到使用,从编码程序的撰写到诊疗数据的输入,每一个环节都可能出现问题,因此医疗人工智能侵权类型较为复杂。[14]
2.侵权责任认定
笔者认为,侵权责任的认定必定和具有可责难性的行为有关,应采用原因力与过错程度相结合的综合判定方式。由上文可知,医疗人工智能的侵权原因复杂多样,根据人工智能的特性以及其在影像诊断、治疗、护理等方面的功用,损害的发生通常与下列情形有关:程序开发过程中的缺陷;制造者在生产过程中失误导致的产品质量问题;销售或者运输过程中操作不当导致的质量问题;培训不合格的工作人员不恰当操作导致的问题;医师对影像诊断的结果的不恰当采纳(包括影像诊断正确时不予采纳和影像诊断错误时的过失采纳)造成的损害。[15]责任主体明晰的前提下,认定侵权责任必须在公平的背景中,确认违法行为与因果关系,从而厘定各方责任。在确定侵权责任和不当行为之间的因果关系时,应当制定合理的举证框架。医疗工作人员作为人工智能的使用者和直接控制者,通常被认为是损害发生的直接负责人,对被侵权人承担赔偿责任。如医疗机构有确定证据证明是机器本身的缺陷,或者是第三方过错导致损害的发生,则可向第三方追偿,这种处理模式也与我国现存的司法解释观点相一致。[16]
上述归责机制在当下弱人工智能占主导地位的情况下具有一定的优势,举证责任倒置的模式在大大降低患者诉讼难度的同时,也为医疗机构的诉讼举证增加了压力,因此医疗机构在举证时,可将人工智能的通常表现纳入考察标准。而在强人工智能可独立进行诊疗操作时,在医疗人员尽到合理的监督义务情况下,应当认为医务人员对人工智能有足够的信赖,确信其具备对患者的诊疗能力。此时损害结果应当认定为设计开发者与生产者的责任,并且由人工智能的设计者或者生产者承担举证责任。例如在强人工智能时代,在医师监督下使用智能机器人进行阑尾手术已经成为常规,而在术前确认状态良好的机器人在手术过程中却失控刺破动脉导致患者大出血死亡。此种情况不能认定为医师的过错,而应归结于开发者或制造者。
(三)医疗人工智能使用过程中的数据保护
医疗人工智能的发展离不开大数据,公民在享受医疗服务的同时都会不可避免地提供自己的健康数据,构成了个人的健康密码,一旦泄露,除了对个人权利造成侵害,甚至可能对国家安全构成威胁。比如,数据可能包含一国公民的特殊基因信息。我国法律规范及伦理准则都对就医过程中个人信息加以不同程度的保护,情节严重且存在非正当事由的甚至构成刑事犯罪。[17]然而,在实践中这些规范对高速发展的医疗人工智能并不能提供完善的规制机制。首先,根据我国立法程序,法律从提案到公布施行过程较为漫长,到施行时难免存在滞后和结构单一等不足。其次,相对于法律的严厉性和惩罚性,很多轻微违法行为不足以被法律所惩戒,难以被现存的法律规制囊括,[18]因此现有法律在对人工智能医疗数据泄露的预防和救济方面存在缺陷。
笔者认为,建立防止医疗大数据在人工智能适用过程中泄露的软规制极其重要。首先,将“安全”作为医疗人工智能使用过程中对数据保障法律规制的硬指标,建立公民健康资料的有限数据库,比如,除了必要的影像数据资料以外,较为隐私、与医学相关性不大而影响公民生活的数据不宜包含于医疗数据库中,同时对敏感信息作脱敏的技术处理,尽可能防止或减轻医疗数据的泄露对个人产生不良后果。其次,加强道德层面的软规制。不同于法律规制,道德是同一利益共同体的共同约定,相对灵活。[19]加强人工智能软规制的主要措施是建立医疗数据行业自律体制、相应的大数据适用技术规范和预防泄露的保密措施等,并给予违规行为一定处罚,最后,法律层面的保护主要体现在修订相关的基础医疗法律,加快相应的立法和法律解释工作,使法律的施行不过度落后于行业的发展。
四、结语
人工智能进入医疗诊断、治疗、护理和健康管理等相关行业,为医疗机构带来了更精准、更快速的诊疗手段,也为患者带来了前所未有的医疗服务。正如部分专家学者指出的那样,人工智能在医疗方面的影响是巨大的,将会给医疗技术和医疗服务带来深刻的变革,是未来医疗行业向前迈进的巨大推动力。[20]在展望未来的同时,我们也不能忽略医疗人工智能发展所引发的社会问题和对现有法律规范产生的冲击。法律作为社会的稳定器,应当顺应潮流、面对挑战,厘清在人工智能进化的各个阶段的法律地位,明确各主体权责,建立有效的解决纠纷的规则,更好地保障公民的合法权利,确保医疗人工智能始终在法律框架下良性发展。