APP下载

医疗领域的人工智能:法律问题与规管挑战

2020-01-19丁春艳

中国医学伦理学 2020年7期
关键词:个人信息医疗人工智能

丁春艳

(香港城市大学法律学院,香港, chunding@cityu.edu.hk)

近十年以来,人工智能(artificial intelligence)随着算法、算力和大数据的发展而势不可挡。各国相继出台了人工智能的国家战略布局,凸显人工智能在医疗、教育、交通、通信、环境等诸多方面的重要性和巨大的应用潜力[1]。 国务院于2017年公布的《新一代人工智能发展规划》即对我国人工智能的发展作了系统的部署[2]。 在医疗领域,人工智能主要被应用于药物研发[3]、 医学影像[4]、 辅助诊疗[5-6]、 健康管理[7]以及疾病预测[8]等几个方面。人工智能医疗,不仅能够减缓医疗人才的紧缺,提高医疗服务的质量与效率,而且还能在疾病预防层面发挥重要的作用[9]。正因其巨大的市场潜力和社会效能,近年来,包括IBM、Google、百度、阿里、腾讯在内的国内外各大科技企业纷纷加入研发人工智能医疗的行列,而市场上也涌现专门从事人工智能医疗研发和服务的科创公司[10]。

与此同时,人工智能医疗的兴起和发展引发了人工智能法律地位、产品责任、数据安全和隐私保护、知识产权保护等一系列的法律问题,并在规范和管理层面带来全新的挑战。面对这些问题和挑战,法律的应对是相对滞后的,目前仍处于摸索和发展的阶段。总体而言,有待厘清的法律问题包括:人工智能医疗引发的新法律问题是什么?传统的法律规范在多大程度上可以解决这些问题?对传统法律不足以解决的部分,法律应当如何应对?在我国,学界对人工智能医疗之法律问题的关注兴于2018年,当前的讨论尚未在现行法律框架下作全面且细致的探讨。本文在阐释人工智能特征和局限性的基础上,就产品责任、数据安全和隐私保护、知识产权保护三个方面,结合现行法并参考域外法,来全面探讨人工智能医疗带来的法律问题与规管挑战。

1 人工智能的特征和局限性

人工智能是指模仿人类智能执行特定任务的系统或机器,其包括四大技术分支:模式识别、机器学习、数据挖掘、智能算法。理论上,按照人工智能的发展阶段,可分为弱人工智能和强人工智能。通常认为,擅长单个方面的弱人工智能(例如,AlphaGo下围棋),目前已经实现。但是否能够实现能与人类比肩的真正具备推理和解决问题能力、具有知觉与自我意识的强人工智能,无论是在哲学争论上还是技术发展上,都未有定数[11]。 当前的人工智能技术在模仿人类的感知能力(看、听、读、写、说)、认知能力(分析辨识能力、预测能力、判断能力、学习能力)方面已经取得了重大突破和发展,但是在创造力和智慧(自我意识、自我认知、价值观)方面仍然难以企及人类。而在医疗领域,借助其所达到的感知能力和认知能力,人工智能主要被应用于药物研发、医学影像、辅助诊疗、健康管理以及疾病预测等几个方面。

需要注意的是,人工智能应用在三个方面存在局限性。首先,人工智能技术并非中立。该技术的设计和生成离不开人的参与,而如何选择用以训练机器学习的数据也取决于设计者。由于数据选择偏见、设计偏见的存在,算法本身也会带有偏见,从而可能产生偏颇、不公平甚至带有歧视性的决定或结果[9];其次,人工智能技术也并非绝对准确。人工智能的决策往往基于归纳的知识、强关联性(而非因果性)、统计的盖然性,其预测的结果并不一定完全符合真实情况。如果技术设计者欠缺对真实世界的全面充分了解或者训练机器学习时存在数据选择偏见,也可能导致算法得出片面、不准确的结果[9];最后,人类无法理解或解释深度学习算法在分类时考虑了何种因素、如何且为何作出特定结论,而且随着数据的增加,算法会发生自我改变并优化之后的预测,即所谓的“黑盒(black box)”问题和“欠缺透明性(opacity)”问题。因此,深度学习算法在应用中具有不可预测性和潜在的危险性[12]。

鉴于人工智能应用于上述三方面的局限性,在伦理、法律以及科技政策角度值得作相应的思考。第一,如何能够减少人工智能技术或其结果所包含的偏见,以及由此造成的技术鸿沟(technology divide)?第二,如果人工智能在应用中产生了错误的判定或结果而导致人身伤害或财产损失,应当如何分配风险和责任?第三,当人类对深度学习算法的运行和如何得出结果无法解释、无法掌控时,人类是否应当对其承担责任?第一个问题有赖于科技伦理和政策方面的探讨和思索,而后两个问题则有赖于法律予以处理和解决。如果转换成法律语言,即人工智能在应用中所造成的人身及财产损害,谁是法律上的责任主体,应当如何确定法律责任?

2 人工智能医疗的产品责任

人工智能被应用于医学影像方面,可以协助放射科医生筛选正常影像、分析影像。在辅助诊疗方面,人工智能可以读取、分析电子病历中的文本信息,学习病例中的诊断逻辑,生成预测诊断,为医生对复杂或罕见疾病进行诊断时提供参考;而手术机器人可协助医生以提高手术精确性。人工智能被用作健康管理,能够实时动态地监测健康数据,特别是为慢性病患者、老年患者提供常规化的健康监测、指导和管理。此外,其被用于疾病预测,预测特定人群在特定时间窗口患某种疾病的风险概率。当人工智能技术在上述方面的应用中发生决策或预测错误并因此导致患者遭受人身伤害时,则需要考虑法律责任主体、如何确定法律责任、如何进行法律规管的问题。

2.1 人工智能是否具有法律主体地位

弱人工智能中的深度学习算法具有推理和决策的不透明性,其开发者也难以理解或解释算法是如何、为何得出特定的结论。强人工智能被期待达到与人类比肩的推理和解决问题能力、知觉与自我意识。由此引发人工智能能否具有法律主体地位的思考和争论,形成肯定说、否定说和中间说的观点[13-14]。

现行法下,根据《中华人民共和国民法总则》(1)《中华人民共和国民法总则》于2017年3月15日颁布,2017年10月1日实施。的相关规定,民法上的法律主体包括自然人和法人,两者具有民事权利能力(capacity for right),依法享有民事权利,承担民事义务。 自然人系法律主体而非客体,是基于人本主义的伦理基础,出于对人之为人的尊重。无民事行为能力(capacity to act)或限制行为能力人的自然人(例如婴幼儿、儿童、精神病患者),虽然其行为能力须由其法定代理人予以补足,但是其均具有独立的法律人格,得以享受民事权利、承担民事义务。而活体出生的胎儿,因为具备了有限且发展中的伦理地位(moral status),在法律上亦被拟制为具有“有限”民事权利能力的法律人格(限于遗产继承、接受赠予等与胎儿利益保护相关的法律关系)。 此外,基于社会与经济活动的实践需要,民法将法人拟制为法律主体,使之具有独立于设立者或成员的法律人格、财产,独立地享受民事权利、承担民事义务和责任。法人的意思能力和行为能力需借由代表法人的自然人或机构,或者通过代理人来实现。

可见,现行法并没有确立人工智能的法律主体地位。通常认为,没有自我意识的、仅擅长单个方面的弱人工智能并不具有法律人格。它们只是人类借以实现特定目的或需求的手段或工具,在法律上处于客体的地位。即使人类目前很难理解或解释深度学习算法如何且为何作出特定的决定,但这并不足以构成赋予人工智能以法律人格的理由,因为深度学习算法的设计、生成、训练机器学习等各个环节都离不开人类的决策与参与。而设计者是否要对其无法完全控制的深度学习算法之决定及该决定引发的后果承担责任,并非涉及法律主体的问题,而是关系到归责原则的问题。目前,域外就这个问题的讨论所达成的基本共识是,赋予人工智能以法律主体地位是不必要的、不实际的、不符合伦理且有可能被滥用[9]。

如果人类将来研发出具备推理和解决问题能力、具有知觉与自我意识的强人工智能,其是否成为法律主体,则是值得思考的问题。民事法律主体的核心要素是“权利能力”,而非“行为能力”。法律若要赋予强人工智能以法律主体地位(即赋予能独立享受法律权利的资格),首先须确认其伦理地位或者证明实践必要性。由于当前仍无法得知强人工智能究竟能够在创造力与智慧(自我意识、自我认知、价值观)方面达到何种程度,因此就人工智能能否具有“人性”,在伦理上成为“目的(end)”,而不是服务于其他目的的“手段(means)”等问题,目前基本停留在假设或猜想的阶段而无法得出确定的答案。但与此同时,鉴于人工智能科技的发展潜力,人类是否应当赋予将来可能产生的、具有“人性”的强人工智能以伦理地位和法律人格,且在多大程度上承认其法律主体地位,作为一个开放性的问题,可被持续关注与探讨。

2.2 产品责任的确定

当人工智能医疗用于疾病预测和辅助诊疗时,其相当于发挥着类似医疗器械或设备协助医生诊疗的作用,而人工智能技术开发者和医疗机构成为可能的责任主体。当人工智能医疗用于患者日常的健康管理和疾病预测时,其相当于发挥着医疗产品供消费者使用的作用,而该人工智能医疗产品的生产者和销售者则是可能的责任主体。针对应用于辅助诊疗、健康管理以及疾病预测的人工智能医疗所造成的人身伤害以及民事责任,现行法并没有特别的规定;但根据人工智能医疗具体的作用和性质,其可被视为“医疗器械或设备”或“医疗产品”,因此得以适用现有的相关法律规则。

具体而言,根据《中华人民共和国侵权责任法》(2)《中华人民共和国侵权责任法》于2009年12月26日颁布,2010年7月1日实施。第五十九条的规定,因药品、消毒产品、医疗器械的缺陷,或者输入不合格的血液造成患者损害的,患者可以向药品上市许可持有人、生产者、血液提供机构请求赔偿,也可以向医疗机构请求赔偿。患者向医疗机构请求赔偿的,医疗机构赔偿后,有权向负有责任的药品上市许可持有人、生产者、血液提供机构追偿。另根据《中华人民共和国产品质量法》(3)《中华人民共和国产品质量法》于1993年2月22日颁布,1993年9月1日实施。2000年、2009年、2018年修正。第四十一条,生产者对因产品存在缺陷造成的人身伤害、缺陷产品以外的其他财产损失,承担赔偿责任;除非其可证明尚未将产品投入流通,或产品投入流通时引起损害的缺陷尚未存在,或将产品投入流通时的科学技术水平尚不能发现缺陷的存在。尽管销售者基于过错原则承担产品责任,但是《产品质量法》第四十三条允许受害人任意选择生产者或销售者请求赔偿,客观上使得产品的生产者和销售者承担连带责任。

基于上述法律规则,当人工智能医疗应用于疾病预测和辅助诊疗时,作为生产者的人工智能技术开发者和作为医疗服务提供者的医疗机构应对作为受害人的患者承担以严格责任为基础的产品责任,患者可以选择向生产者或医疗机构请求赔偿,而医疗机构赔偿受害人后,可对生产者行使追偿权。当人工智能医疗用于患者日常的健康管理和疾病预测时,作为生产者的人工智能技术开发者以及销售该人工智能医疗产品的销售者对受害人的损失基于严格责任对产品瑕疵承担连带责任。

现行法要求受害人证明人工智能医疗设备或产品的瑕疵和其损害与该瑕疵有因果关系,需要思考的是,受害人是否具备相应的举证能力。鉴于人工智能医疗技术的复杂性、其行业标准尚未建立,对受害人而言要证明产品瑕疵并非易事。为减轻受害人的举证责任,法律可以考虑就产品瑕疵问题采用举证责任倒置,或者采用无过错(no fault)制度,只要受害人能证明其损害因人工智能医疗的错误决定造成即可获得赔偿。

此外,人工智能医疗被用于疾病预测和辅助诊疗时,导致患者人身伤害的直接原因是医生的诊断。当人工智能医疗提供了错误的决定时,医生是否作出合理的专业判断以甄别或排除该项错误?如果医生亦存在过失,那么在多大程度上误诊所造成的人身伤害是出于人工智能医疗所作出的错误决定?这分别涉及相当复杂的医疗过失判定和因果关系判定的法律问题。尽管现行法要求生产者与医疗机构对患者承担连带责任,但是就生产者与医疗机构之间的责任分配,以及各自承保人所应负担的损失赔偿数额等问题,在实践中极有可能产生争议。由于对此很难有划一的答案,只能留给法官在个案中作具体的判定。

另一个问题是,如果人工智能医疗运用了深度学习算法作出特定的医疗判定或决定,其开发者、销售者及医疗机构能否主张《产品责任法》第四十一条所规定的免责事由呢?这就涉及人类对深度学习算法之决定的不可控性是否构成“产品缺陷”,如果是,该缺陷是否属于“产品投入流通时引起损害的缺陷尚未存在”或“将产品投入流通时的科学技术水平尚不能发现缺陷的存在”。在某种意义上,人类无法理解或解释深度学习算法如何且为何作出特定的决定,从而无法预防、降低或消除人工智能可能做出错误决定的风险,可以被视为法律上的“产品缺陷”。然而此种缺陷的存在,在产品投入流通时已为设计者所知晓,因此生产者很难成功主张产品责任的免责事由。

值得进一步追问的是,现行法要求人工智能医疗的开发者、销售者及医疗机构基于严格责任来承担产品责任,是否会产生阻碍人工智能医疗研发和使用的不利后果呢?法律之所以就产品责任适用严格责任,其中一个重要原因是,相对于因产品缺陷受害的患者或消费者,生产者处于更佳的地位去发现、减少甚至避免产品缺陷,从而提高产品的安全性和效用。当深度学习算法之推理和决策的不透明性可能已经造成信任危机时[15],如果再让受害人面对法律风险去承担产品缺陷所导致的损失,既不合理、又会导致患者丧失信任从而拒绝使用人工智能医疗的后果。确立严格责任的另一个重要原因在于,生产者可以将法律风险作为产品的成本转嫁到全体消费者,从而起到分散损失的效果。实践中,生产者往往通过购买产品责任保险来实现这一目的。同理,为转嫁风险、分散损失,人工智能医疗的开发者也需要借助保险制度或设立特定的赔偿基金来应对潜在的产品责任法律风险。与此同时,这也能增强产品使用者和消费者的信心和购买意愿,便利法律纠纷的解决和救济的实现,增强人工智能医疗研发的动力。但是,《侵权责任法》第五十九条要求医疗机构对人工智能医疗的生产者的产品责任承担连带责任的规则并不合理,因为该规则将医疗机构置于自身不可控的法律风险中,以致产生阻碍人工智能医疗应用的后果[16]。

2.3 人工智能医疗产品的规管

法律上,将人工智能医疗视为“医疗器械”(4)按照《医疗器械监督管理条例》第七十六条,医疗器械,是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件;其效用主要通过物理等方式获得,不是通过药理学、免疫学或者代谢的方式获得,或者虽然有这些方式参与但是只起辅助作用。或“医疗设备”,需要面对标准设定、市场准入、质量监控等规管层面的问题。根据《医疗器械监督管理条例》(5)《医疗器械监督管理条例》于2000年1月4日颁布,2014年、2017年修订。,国务院食品药品监督管理部门负责全国医疗器械监督管理工作。县级以上地方人民政府食品药品监督管理部门负责本行政区域的医疗器械监督管理工作。为确保安全性和有效性,根据医疗器械低中高三级风险等级进行分类管理,对其审批、注册上市、生产经营、不良事件监测和召回、监督检查等作出一系列的规管。

原国家食品药品监督管理总局于2017年更新的《医疗器械分类目录》 中单列了医用独立软件(包括治疗计划、影响处理、数据处理、决策支持、体外诊断、康复训练软件等)。如果诊断软件通过其算法提供诊断建议,仅具有辅助诊断功能,不直接给出诊断结论,则按照中风险的第二类医疗器械进行规管。如果通过其算法对病变部位进行自动识别,并提供明确的诊断提示,则按照高风险的第三类医疗器械进行规管。而市场上大部分的人工智能医疗产品属于第三类,须经过产品定型、检测、临床试验、注册申报、技术审评、行政审批等六个步骤。此外,国家药品监督管理局医疗器械技术审评中心于2019年7月发布了《深度学习辅助决策医疗器械软件审评要点》,用于规范“深度学习辅助决策医疗器械软件”(6)“深度学习辅助决策医疗器械软件”是指基于医疗器械数据(医疗器械所生成的医学图像、医学数据,以下统称数据),使用深度学习技术进行辅助决策的软件。的注册申报。

然而,当前对人工智能医疗器械或设备的法律规管面临如下三个方面的挑战。首先,针对人工智能医疗的专业监管人才欠缺,尤其是缺少具备医疗、技术、法律等知识的复合型人才。美国的食品药品监督管理局在2017年正式组建了一个专门致力于数字化医疗和人工智能技术审评的部门,配置相应的专业人才以确立相应的标准和规范,为审批和监管数字化医疗和人工智能医疗器械、设备或医用软件服务[17]。 国家药品监督管理局目前尚未设立类似的专门机构、配备相应的人才来应对将来可能涌现的人工智能医疗产品。其次,用于审批和监管的标准测试数据库有待建立和健全,且要达到广泛性、兼容性和标准化的要求。与传统的医疗器械不同,人工智能医疗应用依赖大量的临床医疗数据,而针对不同病种的人工智能医疗产品需要建立不同病种的标准测试数据库。由于实践中医疗系统中的数据标准化程度较低、数据质量层次,这也给对人工智能医疗的有效规管带来难度。再次,适应于人工智能医疗的特殊审批标准和规则有待确立。例如,人工智能医疗的数据库、算法模型、应用界面会在应用中被快速扩张或更新,而传统的增项或升级标准和规则无法适应人工智能医疗设备更新迭代的速度和频率。另外,如何对人工智能医疗设备的风险等级做合理的评估和分类;就关系到安全性和可靠性的深度学习算法之黑盒问题,如何与以科学认知、临床试验为基础的传统审核方法和标准相协调;为取得发展科研和患者安全之间的平衡,是否需要适当放松人工智能医疗上市前的监管而代之以上市后监管的强化;在对人工智能医疗技术作上市后规管的阶段,药监局如何取得业界的有效配合或协同治理。这些问题未能在《深度学习辅助决策医疗器械软件审评要点》中得以解决,因此仍待厘清。而随着人工智能技术的发展,相应的审批标准和规则还需与时俱进地作出及时地调整与更新。

3 人工智能医疗与数据安全和隐私保护

发展人工智能技术不应以牺牲个人数据隐私利益为代价。在大数据年代,只有为用户提供充分的个人数据隐私保护、健全保障数据安全的措施,才能建立并增强公众对大数据应用和人工智能技术的信任和信心,从而为技术发展提供动力和助力。在伦理层面,保护个人数据隐私是出于对个人人格和尊严的尊重。在法律层面,无论是经济合作与发展组织(OECD)2013年更新的个人数据保护八项原则(即收集限制原则、数据质量原则、明确目的原则、限制使用原则、安全保障原则、公开原则、个人参与原则和责任原则)(7)Collection limitation principle, Data quality principle, Purpose specification principle, Use limitation principle, Security safeguard principle, Openness principle, Individual participation principle, and Accountability principle., 还是欧盟2016年《通用数据保护条例》(General Data Protection Regulation)明确的七项原则(即合法公平透明原则、目的限制原则、数据最小化原则、准确原则、储存限制原则、完整性和保密原则和责任原则)(8)Lawfulness, fairness and transparency, purpose limitation, Data minimization, Accuracy, Storage limitations, Integrity and confidentiality, and Accountability.,都为各国的个人数据隐私保护立法提供非常重要的参考。

人工智能医疗的开发和应用同样离不开大数据,尤其涉及大量患者的身份信息、健康信息和临床医疗数据的收集、共享和使用。在发展人工智能医疗的同时,需要考虑的是现行法对个人信息隐私的保护是否完善、人工智能医疗对个人信息隐私保护产生哪些挑战,以及在监管层面需如何应对等问题。

3.1 现行法对个人信息隐私的保护

中国法律明确对个人信息隐私的保护始于2009年的《中华人民共和国刑法修正案(七)》,其新增了关于侵犯公民个人信息罪的相关规定(9)2017年,最高人民法院和最高人民检察院通过了《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》对侵犯公民个人信息罪的具体操作规则进行了细化。。 之后,2012年的《全国人民代表大会常务委员会关于加强网络信息保护的决定》第一条规定:“国家保护能够识别公民个人身份和涉及公民个人隐私的电子信息。任何组织和个人不得窃取或者以其他非法方式获取公民个人电子信息,不得出售或者非法向他人提供公民个人电子信息。”

2013年,工业和信息化部颁布了《电信和互联网用户个人信息保护规定》。该法第四条将“个人信息”定义为“用户姓名、出生日期、身份证件号码、住址、电话号码、账号和密码等能够单独或者与其他信息结合识别用户的信息以及用户使用服务的时间、地点等信息”,并提供了保护个人信息的一般规则。首先,该法第五条要求电信业务经营者和互联网信息服务提供者在收集、使用用户个人信息时应当遵循合法、正当、必要的原则;其次,该法第九条要求采集、使用客户个人信息时,应当明确告知其收集、使用信息的目的、方式和范围,查询、更正信息的渠道以及拒绝提供信息的后果等事项,并经用户同意后方可收集、使用其个人信息;再次,该法第十条要求在收集、使用客户个人信息过程中,应当严格保密,不得泄露、篡改或者毁损,不得出售或者非法向他人提供;最后,该法第六条、第十三条和第十四条要求电信业务经营者和互联网信息服务提供者应当对客户的个人信息安全负责,防止其泄露、毁损、篡改或者丢失;如果发生上述情形,应当立即采取补救措施。2017年,国家互联网信息办公室制定《儿童个人信息网络保护规定》,明确监护人在保护儿童个人信息中的权利和作用。

2017年颁布的《民法总则》首次在民法上对个人信息作出明确规定(10)2014年的《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》第12条曾笼统提及网络侵犯个人信息的侵权行为。。 该法第一百一十一条规定,“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。”而2020年5月全国人大通过的《中华人民共和国民法典》(11)《中华人民共和国民法典》于2020年5月28日颁布,2021年1月1日实施。加大了对个人信息保护的力度,在“人格权编”单设一章“隐私权和个人信息保护”。《民法典》第一千零三十四条定义了“个人信息”;第一千零三十五条规定了个人信息的处理应当遵循合法、正当、必要原则,须获得信息主体的同意,公开处理信息的规则,并明示处理信息的目的、方式和范围。第一千零三十六条规定了信息处理者的免责事由;第一千零三十七条明确个人信息主体的参与权利;第一千零三十八条规定了信息处理者的安全保障义务。最后,第一千零三十九条明确了国家机关、承担行政职能的法定机构及其工作人员对公民个人信息的保密义务。

在个人数据安全方面,全国人大常委会于2016年颁布了《中华人民共和国网络安全法》(12)《中华人民共和国网络安全法》于2016年11月7日颁发,2017年6月1日实施。。2020年4月,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家安全部等12个部门联合公布了《网络安全审查办法》。

虽然近十年来我国法律对公民个人信息隐私的重视逐渐加强,在民事、行政、刑事法律上均做出保护,但是现行法对个人信息隐私的保护仍有完善的空间。首先,现行法尚未建立一个完整的个人信息的法律保护框架,相关的规则都零散于不同的法律、法规、规章和司法解释。虽然现行法将个人信息保护提升到《民法典》的高度,但如果与OECD个人数据保护的八项原则相比,《民法典》仅提到了信息收集阶段告知及征得同意的要求、安全保障原则、公开原则、信息主体参与原则,却未能确立数据质量原则、限制使用原则、责任原则。若与欧盟的《通用数据保护条例》相比,现行法尚未涉及数据最小化原则和储存限制原则;其次,现行法的规定基本停留于原则的陈述,欠缺细化的具有操作性的法律规则。以信息主体参与权为例,其如何行使查阅或复制个人信息的权利、如何请求更正或删除个人信息、能否及时收到其个人信息被侵害的通知(data breach notification)、信息处理者相应地负有哪些义务和职责,信息主体的权利未能实现时如何获得救济等问题,都语焉不详。操作性规则的缺失将导致个人信息保护在实践中难以被真正落实;再次,现行法未能建立一个专门的公权力机构或执法机构(类似中国香港的个人资料私隐专员公署)来执行个人信息保护的法律,全面负责个人信息隐私保护。在实践中,缺少对信息处理者的行为是否合规的监管。此外,如果出现信息处理者违法或侵权行为,受害人只能依赖民事诉讼或刑事诉讼等高成本的救济方式,而没有向专门机构进行投诉、请求其行使公权力以快速有效纠正信息处理者之违法或侵权行为的可能。

3.2 人工智能医疗对数据安全和隐私保护的挑战

人工智能医疗离不开患者的个人健康信息和病历信息,显然须受制于个人信息隐私的法律规制。根据《民法典》第一千零三十六条对“个人信息的处理”的定义,人工智能医疗技术的开发者和使用者(例如医生、医疗机构)对大量的患者信息进行收集、存储、加工、传输、使用,即为“信息处理者”。在大数据和人工智能年代,个人信息自主采集模式、大数据深度挖掘能力、深度学习算法对数据作自主决策等因素,对数据安全和隐私保护提出了以下三个方面的挑战。

首先,法律规定数据处理者在收集个人信息时需要明确告知对方收集、使用信息的目的,并征得信息主体的同意方可收集其个人信息,而且数据的处理也要以该目的为限。但是,人工智能医疗需要使用跨医疗机构、跨地域的电子病历系统中储存的大量患者个人身份信息、健康信息、临床医疗信息等。其中,部分信息是患者自愿向医疗机构提供,部分信息是医疗机构在为患者提供诊疗服务中生成;其收集、生成、储存通常都获得患者的明示或默示的同意,并以诊疗为目的。当电子病历系统中所储存的患者个人信息被用来建立大型的电子病历库而成为人工智能医疗的重要数据源时, 这已经超过患者最初知悉并同意的使用目的[18]。《民法典》第一千零三十六条列举了三项信息处理者的免责事项:信息主体的同意;已被公开的信息;公共利益之维护。显然,电子病历系统中的患者个人信息不属于已被公开的信息。而将其用于人工智能医疗的开发和使用,作为信息主体的患者并不知情,更无法对其个人信息被另作他用来行使知情同意的权利。能否以维护公共利益为理由而不经患者同意即将其个人信息用于人工智能医疗,取决于如何界定公共利益。法律上,泛泛将促进医疗技术发展视为“公共利益”则有滥用免责规定、侵害信息主体隐私权利之嫌。就此,有学者提出“个人信息的公共性和社会性”的概念,主张个人信息由“个人控制到社会控制”的观点[19],不过笔者对此予以保留。就如何解决人工智能医疗对患者个人信息的合法使用问题,可以考虑信息主体给予“概括性同意”并配合以“撤销同意的权利”。

此外,实践中,与健康相关的部分应用程式在用户使用时未经同意自主采集其个人信息,或超越授权方式及范围非法收集用户个人信息,或将收集的个人信息另作他用或泄露给他人使用。类似的情形也可能出现在用于健康监测的人工智能医疗产品。这些均涉及如何规管信息处理者、如何执法的问题。2019年国家网信办、工信部、公安部、市场监督总局联合颁布的《App违法违规收集使用个人信息行为认定方法》即针对应用程式违法收集用户个人信息的现象。

其次,《民法典》第一千零三十五条将“个人信息”定义为“以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等”,以规范“可识别特定自然人”的信息。换言之,信息处理者处理去识别性的信息则无须受法律制约。然而大数据的深度挖掘能力,可以将原本被匿名、去识别性的单个信息整合和关联后,重新对信息主体的身份进行“再识别”[20]或者挖掘出有关信息主体的额外隐私信息。同样,在人工智能医疗开发中,信息处理者收集的患者个人信息即使已作匿名化处理,依然有可能被重新识别。尽管《网络安全法》第四十二条设定了“经过处理无法识别特定个人且不能复原的”的要求,但是能否复原识别性与再识别技术发展和可获取信息的增加相关。因此,法律应当要求人工智能医疗的信息处理者对匿名患者信息的再识别风险作常规化的评估,当监测到风险时立即采取补救措施。此外,法律可要求信息处理者作出“反对再识别”的承诺;当其向第三方使用者披露患者信息时,其亦可通过合同方式来禁止后者对信息进行再识别。

再次,大数据年代所汇集的个人信息数量巨大、种类庞杂,数据快速生成并累积,数据流动性强,这些因素对数据安全带来更大的隐患[21]。对人工智能医疗而言,汇集的患者健康数据和临床医疗数据越多,机器学习需要的训练数据就越充分,获得的深度学习模型就越精确。但是一旦海量数据集发生数据泄露或被盗的情形,将会对众多的患者或用户的个人隐私构成威胁及侵害。因此,信息处理者必须在收集、存储、加工、传输、使用海量数据的各个环节保障数据安全,防止黑客入侵、违法泄露或使用。一方面,信息处理者需提升保障数据安全的技术措施(例如数据脱敏、数据加密、分类分级管理、数据隔离、数据追踪技术等),并确保数据平台运行的安全(例如传输交换安全、存储安全、访问控制安全、平台管理安全和平台软硬件基础设施的安全等);另一方面,信息处理者需要加强对其工作人员的管理和培训、密切监督数据接收方的数据处理活动,以防止个人信息被违法使用或滥用。

3.3 人工智能医疗中数据安全和隐私保护的监管

有别于传统的医疗器械或设备,人工智能医疗的监管重点,除了安全性与有效性,还应包括数据安全和隐私保护。这一点已经在国家药品监督管理局医疗器械技术审评中心发布的《深度学习辅助决策医疗器械软件审评要点》中有所体现:其要求数据采集时将个人信息脱敏以保护患者隐私,并要求在算法设计中考虑网络安全防护。但是国家食药监局的这些要求仅针对人工智能医疗产品的设计而提出。而国家食药监局的评审人员是否具备就人工智能医疗产品之数据安全和隐私保护的评审能力,亦存有疑问。此外,就人工智能医疗产品上市后的数据安全和隐私保护,国家食药监局并无监管权限,由此出现监管主体的空缺问题。

所以,对人工智能医疗产品的数据安全和隐私保护做上市前和上市后的全面监管,仅有国家食药监局的作用是远远不够的。为切实执行个人信息隐私保护的法律和有效监管人工智能医疗应用中信息处理者的合规行为,政府应当要成立一个专门负责执行个人信息保护之法律的公权力机构,以提高其监管能力。例如,欧盟《通用数据保护条例》第51条即要求所有欧盟成员国至少要建立一个独立且有能力的公权力机构,全权负责监管执行《通用数据保护条例》。而我国对不同领域的个人信息,分别由网信部门、电信部门、公安部门等分裂式管理。若按此逻辑,人工智能医疗产品的数据安全和隐私保护,可能会根据其不同的使用者和应用场合,由卫生健康委员会或工商管理部门分别负责。显然,欠缺一个独立且有能力的专门监管机构,对个人信息的法律保护则难以在实践中落实。

尽管现行法对个人信息的保护提高到《民法典》的高度,但是仍然缺少一个完整的个人信息的法律保护框架,尤其缺少应对大数据环境下的有效监管信息处理者行为的具体规则。再以《通用数据保护条例》为例,其第四章共20个条文不仅规定了数据控制者和处理者对隐私保护和数据安全的具体义务,而且还针对大数据、新科技、对权利侵害有高风险的情形(例如人工智能医疗),设置了促进数据控制者和处理者合规的各种机制:包括数据控制者事先进行数据保护影响评估,数据控制者和处理者须任命数据保护专责人员,鼓励数据控制者和处理者制定行业内的行为准则,以及建立合规证书制度等。而其第八章共8个条文亦明确了数据控制者和处理者违规时的责任和罚则,以落实个人数据保护的“责任原则”。这些应对大数据、人工智能新技术的监管模式和方法值得我国借鉴。

4 人工智能医疗与知识产权保护

知识产权制度旨在保护智力创造者对其智力劳动成果享有的权利,从而激励和促进人类智力创造活动的发展。在我国,人工智能技术属于“涉及计算机程序的发明专利”[10]。但是,人工智能医疗是否能够获得专利保护,在法律上仍存有障碍。

首先,《中华人民共和国专利法》(13)《中华人民共和国专利法》于1984年3月12日颁布,1985年4月1日实施。1992年,2000年、2008年修正。第二十五条规定,疾病的诊断和治疗方法,不授予专利。《专利审查指南(2019)》第一章“不授予专利的申请”中第4.3项对此作了详细说明。其中,“疾病的诊断和治疗方法”是指“以有生命的人体或者动物体为直接实施对象,进行识别、确定或消除病因或病灶的过程”。之所以对疾病的诊断和治疗方法不授予专利,出于两个原因。其一,基于“人道主义的考虑和社会伦理的原因”,避免不当限制医生选择诊疗方法的自由。其二,疾病的诊断和治疗方法适用于有生命的人体或动物体,无法在产业上利用。同时,《专利审查指南(2019)》澄清,那些“用于实施疾病诊断和治疗方法的仪器或装置以及在疾病诊断和治疗方法中使用的物质或材料”则具有可专利性。

《专利法》排除疾病诊断和治疗方法之可专利性的做法,与多数法域(例如欧洲、日本)的做法是一致的[22]。实践中,某些利用计算机硬件手段收集患者健康信息并通过程序予以处理后得出其健康结论的技术,就曾被专利审查部门认定为“疾病诊断方法”而被拒绝授予专利[23]。但是亦有观点认为,随着人工智能医疗技术对医疗诊断和治疗的重要性和作用增加,从鼓励创新的目的出发,有必要对其可专利性问题再作思考,并建议对“由计算机实施”诊断和治疗疾病的人工智能技术可以被考虑授予专利[23]。类似的观点认为,人工智能医疗由软件驱动机器设备完成,并不影响医生选择诊疗方法的自主性,而且人工智能医疗获得诊疗结果的功能具有反复执行效果,具有产业重复利用性,由此建议将具有诊疗功能的人工智能医疗技术与《专利法》第二十五条排除的“疾病的诊断和治疗方法”相区分,从而使其获得可专利性[23]。上述观点是否能获得更多共识以及立法者的认同,仍有待观察。

还需注意的是,《专利法》第五条规定,对违反法律、社会公德或者妨害公共利益的发明创造,不授予专利权。如果某项人工智能医疗技术存在违反个人信息隐私保护的法律的风险,或者由于数据选择偏见或设计偏见使其在应用上违反了平等原则或反歧视原则[9],那么该项人工智能医疗技术在申请专利保护时亦会遭遇法律障碍。

5 结语

人工智能科技的发展前景广阔,在医疗领域的应用潜力巨大。本文就人工智能医疗,分析讨论了在现行法下人工智能法律地位、产品责任、数据安全和隐私保护、知识产权保护等法律问题和规管挑战。一方面,在弱人工智能阶段,人工智能很难具有法律主体地位,现行法将其视为法律关系的客体;另一方面,人工智能医疗对现行法中产品责任的相关规则、个人信息隐私保护的法律,以及专利法等均提出了诸多新问题。在监管层面,就人工智能医疗器械或设备上市前后的监管、对人工智能医疗涉及的数据安全和隐私保护的监管都提出新的挑战,急需政府做出有效的应对。需要注意的是,人工智能科技仍在持续发展中,某些人工智能医疗技术可能在较短的时间里被更新换代。技术层面的不确定性也需要法律上的讨论保持开放性与持续性,从而找到既能促进人工智能科技发展、又能公平合理保障持份者权益的法律对策。

猜你喜欢

个人信息医疗人工智能
防范电信网络诈骗要做好个人信息保护
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
个人信息保护进入“法时代”
新型医疗废弃物焚化舱
主题语境九:个人信息(1)
警惕个人信息泄露
2019:人工智能
人工智能与就业
数读人工智能