医疗人工智能应用中的伦理困境及对策研究*
2019-02-26谷笑颖
刘 琪 谷笑颖
2017年,李克强总理在政府工作报告中首次提出人工智能(artificial intelligence,AI),这让我们深深感受到了AI时代的到来。作为人们生活的重要领域,医疗领域也会因为AI技术的广泛应用给人们带来更多的福利。AI对于改善医疗资源配置不均、降低医疗成本、提高医疗效率问题发挥着重要的作用[1]。随着AI在医疗实践和医学研究中的广泛使用,人们将会面临许多需要关注的问题和挑战。医疗卫生保健从业者和生物医学研究人员已经逐渐认识到了AI技术的巨大潜力,但同时必须重新审视长期存在的医学伦理原则,以及是否会提出新的伦理、社会等问题。
1 医疗AI概述
AI概念由美国计算机科学家约翰·麦卡锡于1956年在美国达特茅斯学院召开的学术研讨会上提出,“让机器达到这样的行为,即与人类做同样的行为”可以被称之为AI。AI作为一门新的技术科学,它是用来研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统[2]。
医疗AI是AI技术在医疗领域的运用与发展。AI在医疗领域已广泛应用于医疗影像、医学统计、虚拟助手、疾病诊断与预测等领域。2014年,电脑医生Watson正式登上了医疗的舞台,它通过与病人沟通来了解病人的病情,之后会在较短的时间内诊断出病人所患的疾病并开出药方;Watson曾用10分钟的时间为一名60岁的女患者诊断出白血病,并提出了治疗方案[3]。2015年,Atomwise发现了该公司AI技术预测的两种药物可以在不到一天的时间内,而不是几年的时间里,显著降低埃博拉病毒的传染性。2016年9月,谷歌旗下的AI公司Deepmind与Moorfield眼科医院NHS(National Health Service)信托基金合作,通过在CT和核磁扫描成像上运用智能分隔技术,利用深度学习提高分割准确率和速度,在不降低准确率的前提下,提高分割的效率。在荷兰,分析公司Zorgprisma Publiek通过IBM Watson的云端服务分析从保险公司获得的数字发票,使得患者能够避免不必要的住院治疗。在加拿大,Deep Genomics公司将深度学习技术应用于基因组学中,从而揭示了疾病的遗传根源,确定了疾病的遗传决定因素[4]。
AI在我国医疗领域的应用尚处于起步阶段,但是我国医疗AI技术拥有广阔的发展前景。2016年国务院在印发的《“健康中国2030”规划纲要》中明确提出要大力推动“互联网+健康医疗”服务,之后又相继出台《“十三五”卫生与健康科技创新专项规划》《新一代人工智能发展规划》等政策。2018年6月,国内首个肺癌临床科研智能病种库和肺癌多学科智能诊断系统由四川大学华西医院等单位研发成功,这套系统对小于5毫米的肺部结节检出率可达到98%以上。AI与医疗的结合被认为是最有发展前景的领域,因为AI在医疗上的运用不仅可以提高医疗生产力[5],而且可以造福于人类。
2 医疗AI应用带来的伦理困境
由于AI在医疗领域所起的作用越来越显著,使其在医疗领域的应用范围也在不断扩大,一些伦理困境也随之摆在了我们面前。例如,AI会泄露患者的信息吗?是否应该给予AI主体地位?如何处理由AI引发的医疗事故?AI的算法是由人类设定的,出现算法“歧视”怎么办?谁将在计算机提供的临床决策中拥有最终决定权?全知机器将会关闭循环,还是聪明的临床医生仍将发挥作用?保险公司或托管医院会配置算法吗?病人还有发言权吗?这些问题都不得不使我们深思。
2.1 医疗共情难以实现
2.1.1 人机互动仍存困难
Byron Reeves和Clifford Nass都曾认为人类与机器的相互作用和人与人的关系应该是一样的。他们认为人机互动应具有基本的社交性和自然性,就像现实生活中人与人的互动一样[6]。但在当前的技术条件下,AI仍然不具有像自然人一样的意识。医疗AI需要接受准确的数据输入才能产生正确的诊断结果,而病人的症状并不是总能用正确的医学术语来描述,症状和疾病之间的关系不总是简单的,有许多症状和疾病重叠的情况,在这种情况下,对某一特定疾病的诊断,医生们都会产生意见的分歧,病人可以完全信任一台“智能机器”吗?而且病人会因为害怕和恐惧隐瞒真实的病情,报告不准确或不相关的信息,而一个经验丰富的医生是能够从病人的神态中读出病人未诉诸于口的信息,这样一个能够倾听和理解自己的医生更容易得到病人的信任,从而使医生做出正确的诊疗判断。聊天机器人正在兴起,在将来如果AI算法可以通过应用程序或聊天机器人来模拟同理心,那病人会愿意将信息全部分享给机器吗?对于病人来说,同理心、有效的沟通和安慰十分重要。
2.1.2 临床共情沟通存在障碍
医疗服务提供者和医疗需求者之间的关系是治疗关系,所以医疗提供者在医患关系中往往处于有利地位,不可避免地在一定情况下有可能对病患方造成伤害和压力。那么,专业医护人员与患者之间的关系就不仅仅表现为一种普通的社会关系,更有着重要的法律和道德关系。治疗关系的核心是信任,因为信任是医疗提供者与患者关系的基础。为了做出准确的诊断并提供最佳的治疗方案,医疗提供者有必要与患者交流所有相关的临床信息,这就需要进行有效的临床共情沟通。医患临床共情交流中,患者告知医生关于自身不适症状及内心顾虑,医生在收集患者更多的相关信息资料后,根据对病情的判断和病患的个人需求,进行准确的诊断和心理感知,从而提供更多的专业治疗和心理安慰。与此同时,通过有效的医患沟通,患者感受被倾听,进而感受个人价值被理解和尊重,在心理上不再孤独,从而接收和配合医生的治疗方案,这样医疗共情的沟通过程可以在一定程度上提高短期和远期疗效[7]。而AI技术在临床中的物理应用,目前更多的是关注诊断程序、用药指导及辅助医疗手段等,医疗AI模拟技术虽然具有令人难以置信的交互性和类人的移情关怀的外观,但当患者有意识地意识到医疗服务提供者是一台机器时,仍然缺乏良好的沟通和信任。
2.1.3 医疗AI主体地位欠缺
医疗AI在某种意义上只能根据预设程序,被动地根据已知的选项对疾病进行检测和诊断预测,而不能从病人的角度进行有效的情感交流,医疗AI能够代替医生完成一些重复性、技术含量低的工作,但是面对病情复杂的病人,医生需要花费时间与病人沟通来了解病情。而这些冰冷的机器是非人性化的,它们无法完成医生和病人之间的沟通。例如,如果病人的病情和手术的复杂程度会影响到手术的质量,医生就需要提前告知病人手术存在的风险,让病人及其家属决定是否选择AI进行手术。如果病人在手术前产生担忧、反感甚至抵触的心理,作为医生,要及时地疏导病人的不良情绪以免影响到手术的质量。可见医生和病人之间的互动是无法通过算法来复制的,人类医生的主体角色地位是必须的,而AI只能充当医生的助手,执行一些日常的和算法设定的任务。
2.2 保密问题仍存风险
2.2.1 医疗大数据的隐私泄露
AI在医疗上的应用,有很大部分都集中在虚拟数据处理上,即主要基于云计算和大数据的采集、处理和归纳。医疗大数据不仅包括病人的姓名、年龄、婚姻状况、身份证号、职业等基本信息,还包括了病人大量的敏感信息,如现病史、遗传史、身体缺陷、治疗方案、治疗情况、各种化验检查结果、各种辅助检查报告等更多的信息,这些内容都涉及到了病人的隐私。含有病人隐私的数据保存于云端或存储器,一旦医院的网络服务器遭到黑客或网络病毒的攻击,病人的信息就会泄露,如果这些信息被不法分子用到不正当的途径,病人的隐私权就会遭到侵犯。2016年,全国30个省275例艾滋病感染者表示,他们收到了自称是政府工作人员的诈骗电话,被要求提供数百元乃至上千元的手续费才能获得政府的补助。这就意味着一些艾滋病病人的个人信息已经遭到了泄露[8]。可以看出,在医疗数据大时代下,病人的隐私权很容易受到侵害,并且一旦泄露,将呈规模大、范围广的趋势。
2.2.2 数据挖掘中的隐私安全问题
任何医疗数据挖掘工作的首要任务是确保病人的机密性。尊重隐私和信任反映了自主权和尊严的权利,被视为个人幸福的必要条件。由于侵犯隐私或未经授权滥用信息将会导致对信任的背离,进而损害了对医疗服务提供者及其卫生健康职业的信任。
当前,医疗AI技术中利用数据挖掘技术从大量的病历数据中通过算法搜索隐藏于其中信息的过程被广泛应用,这种方法能够有效地构建合理的疾病诊断相关分组,目的是使AI适应疾病诊治的复杂性和多样性,并且客观、公平地进行医疗诊断。但在应用过程中,毫无疑问地会存在隐私泄露、数据库被滥用,甚至会导致伦理和法律问题。例如,一个雇主可以通过访问医疗记录来筛选出那些有糖尿病或者严重心脏病的人,从而意图削减其保险支出[9]。这种数据是收集自特定的个人,那么就会出现一些涉及保密、法律和伦理的问题。又如,在遗传基因的数据研究中,即使这项研究不涉及创建新的实验数据,也会使由于信息相关性挖掘而可能造成许多家庭成员相关疾病隐私的暴露。
2.3 责任认定不清晰
目前的医疗领域,如果没有医生的参与AI是不能独立地对病人做出诊断的。随着医疗AI技术的不断发展,由于机器人较人脑有更多的脑容量和更强大的学习能力,未来在AI技术成熟时,人们也越来越依赖AI技术,机器人完全可以独立自主地做出诊断结果,它的决策分析能力甚至可以超越人类。2017年,由几位科学家共同开发出的诊断乳腺癌的AI与病理学家展开了一场比赛,比赛结果是病理学家准确率为73.3%,AI准确率为88.5%[10]。然而,虽然利用AI诊断的准确率比较高,但是由于AI仍存在着不可预测性,医疗风险仍然不可避免。如果机器人获得了法律上和道德上的主体地位,那么将来会出现依法执业的“机器人医生”吗?如果AI协助做出的医疗决策对病人造成了伤害,AI是作为一种工具(如听诊器)还是作为单个实体来处理呢?
AI技术在医疗领域的不断应用也使得医患关系变得十分复杂。传统的医患关系是指病人与医疗机构和医务人员之间的关系,而如今就多了病人与医疗AI系统或平台之间这层关系。这也意味着AI给原本紧张的医患关系带来了巨大的挑战。所以对于AI在诊疗过程中发生的医疗事故,整个医疗AI供应链中的人,包括机器人设计者、程序员、生产厂商、设备采购员等是否都要承担责任,这是当前医疗AI应用过程中不可避免的伦理和法律问题。
2.4 算法歧视
从表面上看来,算法作为一种数学结构,是很客观的,不像人类那样具有各种情绪和偏见,容易受到外界环境的影响,不会产生歧视。但是,实际情况却并非如此。算法并非完全客观,其中可能也会暗藏歧视。AI算法会出现“歧视”,这其中可能有数据本身的问题,也可能会有算法开发者和设计者的问题,因为AI算法的开发者和设计者会把自己所持有的某种歧视嵌入到算法的设计目的中去,从而被AI所继承。由于算法运作的不可知,AI会把这种歧视进一步放大或固化,从而设计出带有“歧视”的AI。一旦这些带有“歧视”的AI应用到市场中去,可能会给人类带来危害。
如果AI算法的开发者和设计者将违背医学伦理的思想体现在算法上,那么制造出来的AI就会导致一些伦理问题。例如,如果算法开发者对某些群体具有歧视,因医疗数据涉及种族、性别、宗教信仰等信息,就会导致设计出来的医疗AI对这些群体具有诊疗歧视。在医疗保险领域,AI在对投保人特征及其表现行为进行分析,会对那些被识别为特殊疾病或未来发病率极高的投保人收取较多费用,这种情况会对那种健康状况不佳且经济条件差的投保人非常不利。所以带有“歧视”的AI是不利于社会公正的。
3 医疗AI伦理困境的应对策略
AI在医疗领域的快速发展为人类健康保障提供了支撑,虽然医疗AI在应用中存在一些伦理困境,但只要对这些伦理困境进行研究和解决,就能让医疗AI更好地造福人类。
3.1 加强病人的隐私保护
首先,我国《职业医师法》《母婴保护法》等法律都对病人隐私权作出了规定,但这些法律很难具有现实操作性,制定系统完善的专门法是对病人隐私权最有力的保护。美国对隐私权法律制定方面采取的做法十分全面。1996年,美国国会通过了《健康保险转移与责任法案》,该法案对病人的隐私保护规则非常严格,即使是泄露了病人的姓名也属于违反了该法案,在惩罚措施的制定方面也十分的详细。所以在对病人隐私权保护法律的制定上可以借鉴美国的立法经验。其次,加强病人的隐私保护还需结合政府的力量,政府应该重视我国互联网技术与医疗行业的结合,积极推进病人信息保护新技术的开发应用。最后,通过购买网络保险来规避病人隐私泄露的风险。许多发达国家都会购买网络保险来规避商业上的风险,尽量将损失降到最低。所以,医疗大数据行业企业、医疗卫生机构和病人可以考虑购买网络保险来保护病人的隐私。
3.2 构建以人为主体地位的“人-机共同体”
在过去的几十年里,智能机器人的出现在医疗服务中占据了重要的地位,并且在其应用过程中,不仅是开发先进的程序来解决我们的临床问题,而且科学家们试图开发复制机器的心理素质。AI倡导者的主张是大脑和机器之间没有区别,他们认为机器伦理也有可能,就像人类伦理一样。根据AI科学家的说法,机器伦理的最终目标是创造一台本身遵循理想伦理原则或一套原则的机器,也就是说,在作出关于它可能采取的行动路线的决定时,是以这一原则或这些原则为指导的。笔者对这种观点持质疑态度,首先,伦理学不是一种可以计算的东西;其次,如果把思维归因于机器,它就会引发与机器有关的伦理问题,如果不区分思维和机器,这不仅是在重新定义人类思维,而且是在重新定义整个社会;最后,心智的概念是我们伦理思考的核心,有心智就是有能力做出自愿的决定和行动。这是因为人类的心智是自我意识的,而这是机器至今所缺乏的特性[11]。医疗行业除了为病人治疗身体上的疾病,人文关怀也是至关重要的,医生和病人之间存在的医学道德现象和医学道德问题是AI解决不了的,所以仍要坚持人的主体地位,发挥好AI的辅助作用,构建人机共同体,让AI更好地为病人服务。
3.3 建立医疗AI监管机构
我国现有的规范医疗损害的法律主要是《医疗事故处理条例》和《侵权责任法》。现阶段,医疗AI仍不具备产生民事法律关系的主体资格,只是作为辅助医生诊疗的工具,即医疗器械。医疗器械的工具属性可以将其纳入产品的范畴之中,《侵权责任法》中规定由于医疗器械产品缺陷造成的医疗损害,由医疗机构和生产者承担连带赔偿责任。
由于AI是基于复杂的算法和医疗大数据来对病人的病例进行分析得到诊疗方案,在这一过程中,人们无法知道AI是如何操作的,而且目前在医疗领域也没有一个AI技术和安全标准,所以就无法识别AI医疗器械产品存在的瑕疵。一旦发生医疗事故,也就无法知道医疗AI产品是否有缺陷。这就迫切需要成立一个医疗AI监管机构,这个机构要由医疗AI生产者代表、医学专家、伦理学专家等组成,从医疗AI的生产到投入使用都需要医疗AI监管机构审查医疗AI的安全性和伦理性。而且,在审查过程中,还需建立强制登记制度,一旦发生医疗事故可以明确各方责任。医疗AI监管机构必须严格监督和审查医疗AI的生产和应用,只有这样才能降低医疗风险,确保病人的健康权益。
3.4 对算法研发人员进行伦理规范和立法
正确使用算法可以识别和消除许多可避免的错误和不必要的医疗事故。AI要避免出现“歧视”,算法的设计就必须要合乎伦理规范。一方面,不仅要对AI的技术开发人员进行伦理培训,还要加强相关从业人员的道德教育,使AI在开发和设计阶段就接受伦理准则的约束。另一方面,AI程序员要避免将个人的敏感数据写入程序。敏感数据指病人的种族、政治倾向、宗教信仰等。AI的输入和输出之间存在着人们无法洞悉的“隐层”,被称之为“黑箱”,之所以称之为“黑箱”意味着人们不仅不能观察到AI中的算法是如何运作的,而且即使AI向人们解释,也无法得到理解。所以仅仅对AI的开发者和设计者进行监督也不能完全避免AI出现“歧视”。这就需要法律要求AI研发机构履行透明、公开、程序合法等义务,一旦法律提出了相关的要求,那么算法的设计者就会接受社会的监督而变得公正。
4 结语
如今,医疗AI的整体发展趋势已经势不可挡。AI在医疗领域的应用有效提高了人类的整体医疗水平和健康状况,但也不能忽视AI给医疗行业带来的一系列伦理困境,这也再次证明了“科技是一把双刃剑”。从发展程度上看,我们仍处于“弱AI时代”,但从发展趋势上看,“强AI时代”也许离我们并不遥远。医疗AI关乎着人类的健康和生命,但在医疗AI技术方面才刚刚起步,所以更应该加强对医疗AI的掌控能力,积极应对医疗AI给人们带来的伦理问题,使医疗AI技术朝着有利于人类健康的方向发展。