APP下载

人工智能在我国卫生健康领域的应用和法律挑战*

2019-06-19汤可桢陶金婷袁紫藤张宇清

医学信息学杂志 2019年5期
关键词:医疗器械机器人人工智能

汤可桢 黄 格 陶金婷 袁紫藤 张宇清

(湖北中医药大学人文学院 武汉430065)

1 引言

1.1 人工智能的内涵

2017年“新一代人工智能发展规划”指出将在医疗领域推广应用人工智能(Artificial Intelligence,AI)治疗新模式、新手段,卫生健康领域正在成为人工智能最富变革力的领域之一。但是正如其中所言“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响”。

人工智能概念由麦卡锡等于1956年在达特茅斯会议上提出,使机器达到与人类做同样的行为可称为人工智能。因对智能这一概念并不明确,对于何谓人工智能并未达成共识。笔者认为人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学[1]。人工智能可分为3个层次,即弱人工智能、强人工智能和超越人类的超人工智能,目前所有的人工智能技术尚属于弱人工智能阶段。

1.2 应用场景

随着“人工智能+医疗”深度融合,政策和资金层面的大规模投入,人工智能技术为多个医疗细分领域提供了帮助。特伦斯·谢诺夫斯基在新书《深度学习:智能时代的核心驱动力量》中预测:基于大数据的深度学习将改变医疗行业,对疾病提供更快速、准确的诊断和治疗,甚至未来癌症将变得不再可怕。目前人工智能在我国卫生健康领域的应用场景[2-3],见图1。

图1 人工智能在我国卫生健康领域应用场景

2 人工智能在我国卫生健康领域的法律挑战

2.1 概述

法律的功能是在广泛的领域中指引、计划和控制人们生活,其中包括人工智能在内的科技发展。人工智能在法律理论上的挑战体现为某些传统观念、看法已无法与人工智能匹配,有必要做出修正。而实践上体现为法律传统的风险防范、救济机制已无法应对人工智能引发的科技风险,必须重新构建。

2.2 法律主体制度

2.2.1 主要学说 (1)否定说。目前大多数学者所持的一种观点,即完全否定人工智能具有法律人格。主要包括郑戈的“工具说”,吴汉东、王利明为代表的“客体控制说”以及杨立新为代表的“人工类人格”。“工具说”认为人工智能是人类的一种工具,在发生损害后还是由人来承担责任,没有必要赋予其法律主体地位。“客体控制说”认为人工智能不是有生命的自然人,也非独立意志的法人,不足以取得独立主体地位[4],现行法律可以解决人工智能带来的挑战,没有必要赋予其民事主体资格[5]。“人工类人格说”认为智能机器人尽管具有一定的自主意识能力和意志,能够充当一定的社会角色,但不具有法律人格,属于物的范畴,是权利客体。(2)肯定说。即肯定人工智能的法律主体资格,其理论来源为拟制人格的出现。在法律的发展历史上,为适应法人在社会经济中所发挥的作用使法人通过法律人格拟制的方式参与法律关系。未来出现的机器人将拥有生物大脑,甚至可与人脑相媲美,届时可通过法律人格拟制的方式赋予智能机器人法律关系主体资格,使之参与社会经济生活[6]。(3)折中说。既不肯定也不否定人工智能具有人格。主要包括“电子人格说”以及“有限人格说”。“电子人格说”最具代表性的是欧盟考虑对复杂的自主机器人赋予电子人的法律地位,使其具有一定的权利和义务。“有限人格说”认为人工智能作为具有独立意识的智慧工具,应赋予法律主体资格,但与自然人和法人不同,人工智能承担的责任是有限的,因而其为有限法律人格。

2.2.2 相关观点 从人工智能发展趋势来看,算法、深度学习等技术不断进步,其自动化程度会越来越高。如何界定人工智能的法律属性是对法律主体制度的巨大挑战。宪法法域下法律主体是公民和国家;行政法法域下法律主体是行政机关与行政相对人;民法领域下则是自然人、法人及非法人组织。法律主体的范畴不能超出上述范围。目前弱人工智能尚可按照现行法律归为物,不具备法律主体资格。但面对强人工智能甚至超人工智能,又该如何判断其法律主体资格?机器人“晓医”通过国家医师资格考试,约1个小时完成10个小时的题量;沙特阿拉伯的“索菲亚”更是被赋予公民的身份。随着人工智能的迅猛发展,其可能会冲破人与物二分的体系,在一定程度上具有自主意识,能做出简单的意思表示。2018年1月美国哥伦比亚大学的工程师们声称其克服机器人领域最大的障碍之一,一个没有被植入指令程序的机械臂在仅仅几个小时后开始执行实际任务。这实际上对现有的权利主体、程序法治、用工制度、保险制度等一系列法律制度提出挑战,是否赋予人工智能法律主体资格、赋予其怎样的法律主体资格是目前所面临的重大难题,必须妥善应对。

2.3 医疗损害责任归责与认定

2.3.1 医疗技术 人工智能的不透明性,加之人工智能开发的去中心化模式,加大责任确定和分配的难度。医疗技术损害是指医疗机构及医护人员在医疗活动中违反高度注意义务,具有违背当时医疗水平的技术过失,造成患者人身损害的医疗损害责任[7]。归责原则为过错责任原则,责任主体为医疗机构及医务人员。具备深度学习和自主决策能力的医疗人工智能使诊疗行为具有不可预测性,将导致医疗技术损害认定困难重重。以目前的弱人工智能来看,首先是“具有违背当时医疗水平的技术过失”认定的困难。2015年英国手术机器人暴走事件中负责操作的主刀医师承认错过两次机器人手术培训课程,当天是其本人第1次使用该型号的机器人。在临床应用人工智能(尤其是外科手术机器人)之前,医务人员必须经过一定时期的专业培训,但培训要达到何种程度目前并没有统一标准或者资格、考核审查机制。虽然我国已建立国家机器人心脏外科手术培训基地、国际达芬奇机器人外科培训基地等培训基地,解决以往只能去国外研习,周期长、费用高、难度大等问题,但仍存在着人才缺口且培训考核机制不健全。这些因素导致医疗技术损害纠纷中被侵权人对违法诊疗行为以及违规诊疗行为与损害结果之间有因果关系的举证难以完成,合法权益可能无法实现。如果人工智能达到独立执行诊疗活动阶段(强人工智能或超人工智能),那么是人工智能独立承担责任,还是生产商或设计者担责,再或是使用该人工智能医疗机构担责?如果人工智能独立承担责任,责任形式有哪些?批准该人工智能的相关机构是否应当担责?这些都需要完善法律制度来予以应对和规制。

2.3.2 医疗伦理 医疗伦理损害责任是指医疗机构及医务人员违背医疗良知和伦理要求,违背医疗机构和医务人员的告知或者保密义务,具有医疗伦理过失,造成患者人身损害以及其他合法权益受损的医疗损害责任[7]。与医疗技术损害不同,被侵权人只需要对医疗机构及医务人员违法行为、损害结果以及因果关系进行证明,医疗机构及医务人员需对于没有过错举证。英国机器人暴走事件中医务人员并未告知患者其是国内第1例且手术存在较高的风险,采用传统手术方法存活率将更高。医方未尽到充分告知义务,侵害患者知情同意权。手术机器人不同于一般的医疗器械,具有更强的自主性,即便医疗机构手术前完成充分告知义务,但使用过程中出现脱离人类操控、甚至违背人类意志的情形时医疗机构是否承担伦理损害责任?综上,认定医疗机构及医务人员是否违反告知法定义务、违反的程度以及因果关系都是现行法律所面临的困难。

2.3.3 医疗产品 在目前人工智能不具备法律主体资格的前提下应用于卫生健康领域的人工智能产品仅能认定为医疗器械。国家药监局医疗器械技术审评中心2017年正式成立的人工智能工作组认为以医疗器械数据为处理对象且具有医疗用途的人工智能产品属于医疗器械。该类型的医疗损害应适用《侵权责任法》第59条医疗产品损害责任,归责原则为无过错责任原则。被侵权人需就医疗机构使用有缺陷的医疗人工智能产品与损害事实之间的因果关系进行举证。《产品质量法》第46条规定产品缺陷的认定依据,一是存在危及他人人身、财产安全的不合理危险;二是不符合国家标准、行业标准。而应用于医疗领域的人工智能产品相较于一般的医疗器械而言复杂度高,目前并没有关于医疗人工智能技术的国家标准、行业标准。值得注意的是人工智能产业发展中存在着只关注创新、市场和经济效益,未充分考量安全因素的现象。以上诸多因素造成产品缺陷认定异常困难,被侵权者很难就因果关系进行证明,难以完成举证证明责任。另外医疗人工智能是高科技产品,责任主体的确定也具有特殊性。在我国手术机器人已被广泛应用于临床,损害侵权案例也有发生。如果按照《侵权责任法》规定确定由医疗机构或生产者、销售者承担责任显然不合理,还需增加设计者(发明者)这一责任主体。因为手术机器人依靠自身算法运作,有自身独特的运作程序。而这些运作程序有的是由设计人(发明人)基于与生产商之间的合同完成,并非是由生产商完成。不仅如此,人工智能程序的复杂度决定其可能存在多个共同研发主体,有时会难以确定具体程序的设计者,这也给责任主体的确定带来困难。

2.4 个人健康信息保护

2.4.1 个人健康信息概念 指个人过去、目前和未来的生理和心理健康、医疗护理情况及与医疗护理相关的信息。可分为两个部分,即电子病历信息(Electronic Medical Records,EMR)和患者产生的健康医疗数据(Patient Generated Health Data,PGHD)。在卫生健康领域人工智能技术依托于大数据的采集、分析和处理,除基本公民信息外(家庭住址、年龄、姓名、婚姻状况等)还包括过往病史、诊疗记录、基因检测和遗传史等。

2.4.2 个人健康信息保护的挑战 对患者而言,个人健康信息属于敏感信息,大多私密性较高,在存储、使用和共享等方面有严格的隐私安全要求,一旦泄露会对个人声誉乃至安全产生巨大风险。加州大学伯克利分校近期一项研究显示人工智能的进步为人们健康数据的隐私性带来新隐患。智能医疗系统将收集到的患者信息保存在云端或存储器,即使删除也能被恢复;人工智能没有人的情感,任何人均可从中调取信息,即使有加密措施也无法完全阻止信息被非法调取、篡改和滥用。2017年5月谷歌旗下DeepMind获取英国国家医疗服务体系信托基金运营的3家医院160万患者的医疗服务体系数据,其中有艾滋病病毒感染、堕胎信息和吸毒过量历史等私密数据[8]。人工智能技术对于个人健康信息的侵害是一种本能,若要增加智能性就会要求更多的数据信息,对于收集和处理个人数据的巨大需求,使得未经授权使用个人信息和隐私的风险大大增加。尽管我国涉及隐私保护的法律规范已经不少,《侵权责任法》中规定患者隐私权,《民法总则》将隐私权作为一项独立的人格权确立给予直接保护,个人信息保护也进行专门规定,但应对风险的机制仍不足。一方面我国现有隐私权保护体系并不完善,无法像美国那样通过不断丰富隐私的内核来应对人工智能时代个人信息保护需求;另一方面我国尚未健全个人信息保护法律体系,无法像欧盟那样依靠完善的个人信息保护法律体系来有效应对,所以亟待出台专门个人信息保护法。

2.5 医疗人工智能监管

人工智能应用于卫生健康领域的发展速度较快,而该领域与人类生命安全密切相关,庞大的医疗健康数据涉及患者隐私和数据安全,需要高度严谨的政策和法规进行监管,给监管部门带来很大挑战。就我国的监管体系而言,一些监管和准入政策还有待明确。2018年8月1日施行的新版《医疗器械分类目录》(以下称新《分类目录》)中出现对诊断功能软件的界定,对推动产业规范化发展提出新要求。根据新《分类目录》,诊断功能软件风险程度按照其采用算法的风险程度、成熟程度、公开程度等为判定依据,不仅以处理对象(如癌症、恶性肿瘤等疾病的影像)为判定依据。若诊断软件通过其算法提供诊断建议,仅具有辅助诊断功能,不直接给出诊断结论,在诊断目录中相关产品按照第2类医疗器械管理。若诊断软件通过其算法对病变部位进行自动识别并提供明确的诊断提示,则其风险级别相对较高,在诊断目录中相关产品按照第3类医疗器械管理。目前在国家药品监督管理局官网可查询到有两家企业已取得神经外科机器人的3类医疗器械注册证。国内监管法制体系下对于审评审批医疗人工智能产品的路径也不明朗。医疗器械更新快,人工智能医疗器械更新更快,因此不能延续传统的监管思路。传统医疗器械是基于产品本身的监管,而人工智能产品应考虑产品本身的风险和厂家即制造商的风险控制。不同于美国食品与药品管理局(Food and Drug Administration,FDA)在人工智能医疗器械方面有全新的加速审批通道,我国国家食品药品监督管理总局(China Food and Drug Adminstration,CFDA)更趋向于按照新药或新医疗器械进行审批,比较谨慎。目前药品和器械在国家监管层面的法律法规较为完备,但医疗人工智能是新产品,详细的标准尚未制定。综上,医疗人工智能落地的最大障碍还是来自相关监管法规。此外我国虽然在政策层面对人工智能做出一些响应,但是尚未有专门致力于数字化医疗和人工智能技术审评的新部门,而美国已开始着手成立相关部门。

3 科学立法

3.1 尊重人工智能发展的客观规律

在目前人类可控范围内的弱人工智能阶段,应尊重人工智能发展的客观规律,一方面在立法中最大化呈现人工智能发展的客观趋势和现实情况,用专业化的立法技术和手段规制科技问题,力求所立之法能够应对人工智能技术领域出现的新问题,使立法高效可行。另一方面技术具有创造性和毁灭性的双重属性,只有尊重技术发展的客观规律才能保证技术的可控性。首先要保证技术设计的无害,其次要通过科学立法,寻找被算法掩盖或切断的因果联系,避免算法歧视。

3.2 预留人工智能发展的制度空间

技术的发展具有一定的阶段性和偶然的跨越性,人工智能技术也是如此。法律具有预测和指引的功能,在人工智能相关立法过程中应充分考虑其发展阶段,加强前瞻性预防,预留一定的制度空间。立法者需要在保持法律稳定性的前提下对其从事的立法活动赋予新的结构内容,通过科学立法控制技术风险,约束并引导人工智能技术进步。

4 结语

人工智能可以给人类的未来生活带来光明前景,同时其不确定的威胁也一直存在。为将人工智能限制在利好人类的方向发展,需要在法治、监管、技术、标准等方面做好规范,以迎接全新时代。

猜你喜欢

医疗器械机器人人工智能
北京市医疗器械检验所
北京市医疗器械检验所
2019:人工智能
北京市医疗器械检验所简介
人工智能与就业
数读人工智能
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦