人工智能医疗设备应用的伦理问题分析
2024-06-11杨毅刘卓
杨毅,刘卓
1. 太和县人民医院 科研管理科,安徽 阜阳 236600;2. 北京航空航天大学 医学科学与工程学院,北京 100191
引言
作为一门新兴的研究领域,人工智能通过发展理论、方法、技术和应用系统来模拟、扩展人类智能[1-2]。人工智能医疗设备是人工智能在医疗领域的应用和发展,随着医疗大数据的积累,人工智能在医疗领域的可实施性越来越强,目前可应用于医学诊断(医学图像分析、疾病筛查与预测)、手术机器人、康复机器人等多个临床诊疗领域[3-6]。人工智能医疗设备在多个层面给传统医学带来革命性突破的同时,一些伦理问题也在使用中随之出现,给人工智能的临床应用带来了不确定的风险。当前,国内对人工智能医疗设备应用伦理相关领域的研究处于起步阶段[7],2022 年3 月20 日,我国出台了《关于加强科技伦理治理的意见》[8],在法规上明确了科技伦理的治理需求,要求重视人工智能医疗设备应用的伦理问题,促进科技创新与应用的风险防控相统一。本文阐述了人工智能医疗设备应用的积极影响,就其应用的伦理问题与应对措施进行分析,对促进人工智能医疗设备的发展和应用具有一定意义。
1 人工智能医疗设备应用的积极影响
1.1 辅助临床诊断
我国医学影像人才资源供给不足、分布不均、人员技术水平参差不齐,导致医学影像的误诊、漏诊时有发生[9]。在当今医疗领域,每天都会产生大量的医疗数据,整合医疗数据对某种疾病进行预测成为一项难点。人工智能通过对图像的深度学习、识别、分割、分类、重建、分析等,能够整合大量的临床数据,并将观察到的和预测的数据结合起来,对疾病进行预测、诊断。使用人工智能对如CT、超声、MR 等医学图像进行评估,可大大提高疾病的检查效率、诊断效率[10]。在对860 名参与者的肺癌CT 筛查对比研究中,Zhang 等[11]发现,利用人工智能辅助对患者胸部CT 检测实性结节、非实性结节的诊断准确度和灵敏度都远高于放射科医师。在传统的医学图像分析过程中,需要有经验的医生,但长时间对着屏幕工作,会使医师的工作效率降低[12]。有了人工智能技术,不仅可以提高疾病筛查准确度,缩短分析时间,还可以使医生从繁琐和重复的工作中抽出身来,去处理其他需要更多创造力的任务。人工智能医学诊断辅助模型可根据患者的发病情况或症状、既往病史等信息,判断患者潜在疾病并提供合适的治疗康复方案[13]。
1.2 提高患者治疗质量
手术机器人在外科手术的应用很大程度上能提升手术操作的灵活性、精确性和平稳性,减少手术创伤。手术机器人的使用彻底改变了微创手术,克服了传统腹腔镜技术的局限性。借助放大的三维和高分辨率可视化,机器人辅助扩大了在更精细和复杂的微创手术中的适应性,提高了手术操作的灵巧性、震颤过滤和运动精度,可避免外科医生在手术过程中因长期工作劳累或其他原因引起手部颤抖而造成手术风险,使外科医生能取得更好的手术效果[14-16]。通过应用手术机器人,外科医生可实现在坐姿状态下完成时间长且复杂的手术,减轻手术工作量。
1.3 缓解康复治疗资源不足
康复机器人是以康复医学理论为基础,结合生物力学、机械力学、计算机科学等学科,用于辅助性治疗的机器人设备[17-18],康复机器人在脑卒中患者运动障碍的康复治疗训练中应用广泛。康复机器人可代替康复治疗师,引导患者重复进行机械运动动作,增加其主动运动意识,协助患者进行肢体训练,不仅能有效帮助患者实现运动功能的康复,还能降低医护人员的康复治疗护理压力[19]。随着肢体运动障碍患者数量增多,康复医疗的需求日益凸显,但现有康复治疗师人员不足、专业水平能力不一,康复医疗水平与不断递增的康复需求存在较大差距[20-21]。康复机器人的应用可有效缓解这一情况,优化康复治疗资源。
1.4 减少不必要的随访
植介入式智能医疗设备是一种植入体内的电子设备,用于监测、改善或治疗患者某些身体部位的功能,或者仅为患者提供以前没有的能力。该类设备具有更多的计算、决策和通信能力,主要包括用于监测和治疗心脏疾病的起搏器、除颤器,用于癫痫或帕金森等脑部疾病的深部脑刺激器,用来获取和处理不同的生物信号的各种生物传感器。一些新的植介入式医疗设备已经开始整合大量的通信和网络功能,拥有遥测系统,以及越来越复杂的计算能力。这为植入物提供了更多的智能化,使医疗人员可以远程访问数据并重新配置植入物,遥测和计算功能还能够持续监测患者的病情,并基于医疗设备的体内网络开发新的诊断技术[22-23],来提升临床疾病诊疗水平。具有遥测功能的植介入式智能医疗设备的应用,可减少一些无效治疗或不必要的常规门诊随访,避免医疗资源和时间的浪费,一定程度上也降低了患者的经济负担。
2 人工智能医疗设备应用存在的伦理问题
2.1 给传统医患关系带来难题
随着人工智能医疗设备参与临床诊疗过程,医患关系开始变得复杂,由原来的医疗机构、医务人员和患者之间的关系转化为医疗机构、医务人员、人工智能设备和患者之间的关系。在传统的诊疗过程中,医患双方的利益平衡会被考虑,医务人员会根据患者的心理现状、病情甚至经济状况等实际情况给出最优的诊疗方案;而人工智能设备在诊疗过程中不会考虑患者的任何其他利益,只会针对患者的病情做出科学诊断[24]。医生不仅要解决患者就诊时的病理因素,还要解决治疗过程中一些患者特殊的社会心理和情绪压力,虽然患者可以通过医生操控手术机器人享受到优质的诊疗服务。但现阶段的人工智能设备还无法感受到患者的紧张情绪,不能与患者进行带有情感的沟通,容易使医患之间在心理上产生隔阂。
2.2 易造成患者隐私泄露
医疗行业区别于其他服务行业的一个重要特点是患者对医护人员的无条件信任,尊重患者的隐私,并保护就诊隐私信息,一直是诊疗活动中较为关注的重要话题。人工智能医疗设备的诊疗能力基于所获取的医疗大数据,这些数据信息包含患者多方面的隐私内容,受制于与自主、仁慈、正义、无害和尊重等有关的基本伦理复杂性,且其大多数算法都是在“黑盒”环境中运行的,分析过程并不透明,且解释性差[25]。在缺乏适当的数据存储访问权限或共享机制时,数据信息的转移或者分析可能会造成患者隐私信息的泄露[26],一旦泄露将造成严重的后果,给医疗单位和患者带来损失。例如,如果第三方远程操纵深部脑刺激器刺激参数[22],患者的自主性可能会受到损害。当黑客对植入设备施加恶意控制时,就会发生盲目或有针对性的“脑劫持”。虽然“脑劫持”对自主性的真正影响取决于第三方及其攻击的效果,但患者自主性仍然受到损害,甚至是致命伤害。
2.3 算法偏见造成诊疗偏差
算法偏见是指在数据信息处理与输出过程中算法程序失去客观中立的立场,发生输出结果带有偏见性的情况,包括人为偏见和数据偏见[5]。人为偏见是开发者的偏见或因开发者的局限性有意无意地编写出来的,由于个体或多或少受到自身道德观念或相关利益的影响,将偏见设计到算法中,使算法不仅继承了设计者的偏见,而且随着数据的积累和算法的迭代,这种偏见也可能被强化放大,从而对弱势群体产生不利的输出结果。数据偏见是指训练数据不具有代表性或不充分时影响算法模型的偏见。基于大量数据的预测分析模型和由此产生的治疗建议可能能够改善特定患者群体的治疗结果,但可能不一定对单个患者有益。因此,这些情况可能会与医生为每个患者的最佳利益行事的义务相冲突。例如,根据主要涉及西方人的训练数据开发的算法在诊断亚洲人时可能不太准确。同样,基于中医经典方剂大数据开发的算法可能并不完全适用于西方人。并且,算法的输出结果与输入数据存在不可解释性,这使得算法偏见很难被发现。这些偏见可能会在算法中不断被复制和放大,导致预测结果存在偏差,从而可能导致某些患者在诊疗过程中受到歧视待遇,甚至造成医疗安全事故[3]。
2.4 责任主体较难确认
目前,人工智能医疗设备的应用还没有统一规范的质量标准、评价体系、准入制度和保障体系,相关政策法规体系尚未完全建立。此外,医疗人工智能的算法是基于已有的人类经验,而医学本身具有潜在的风险和不确定性。因此,无论人工智能多么科学,都存在出差错的可能性。随着医学数字化程度的提高,越来越多的参与者进入医疗人工智能产品的设计中,在开发、培训和测试设备系统方面发挥着重要作用。现有的人工智能医疗设备还不具有主观意识,应用上主要还是靠医务人员操作,而其内部的算法程序则为生产研发相关人员编写、测试。如果因人工智能医疗设备应用导致误诊或出现治疗错误而引发医疗事故,这将引发谁负责的新问题[27]。
3 应对措施
3.1 重视对患者人文关怀
当前的临床诊疗活动中,人工智能设备还不具有自主意识及情感思维,医务人员应保持主体地位,坚持以人为本的原则,注重对患者的人文关怀。在人工智能医疗设备应用中,患者福利至上的规范原则不仅包括根据客观可测量的医疗参数和患者的主观经验提供尽可能合适的治疗,还要考虑到患者对治疗环境的偏好和患者对治疗的满意度。医务人员应发挥能与患者进行情感交流沟通的优势,重视对患者的人文关怀,不断提升医德职业素养,完善知识结构,保持良好的人际沟通交流能力,弥补人工智能的不足。特别是在手术或者急救过程中,医患之间的人文交流与关怀是至关重要的,不仅可以有效帮助患者克服内心的焦虑、恐惧心理,积极配合医务人员的指示,在一定程度上,医患之间的共情沟通还可以提高短期和远期疗效[1]。
3.2 加强医疗数据安全管理,保障患者隐私及安全
在设备使用层面,建立并落实医疗数据责任承担与溯源机制,统一医疗数据管理方法,严控数据访问权限,提高数据访问检查频率,提高相关人员对医疗数据安全保护的观念意识,建立并完善对医疗数据信息保密和监管的实施机制和处罚措施,确保医疗数据存储及访问的安全可控性。在设备研发使用的技术层面,在对患者进行数据收集或存储时,采用去身份化或匿名化的方式来降低患者隐私信息外泄的风险[28-30],同时配备强大的机制来保证设备使用的基本安全属性,如机密性、完整性和可用性。例如,人工智能医疗设备和医务人员之间的相互认证是必不可少的,因为双方必须确信另一端就是声称的那个人,设备应该只考虑来自认证方的命令。保持存储在人工智能医疗设备中并由人工智能医疗设备传输的信息的机密性,限制哪些实体可以重新配置人工智能医疗设备或访问存储在其中的信息,确保只有授权的操作才能执行,保护通过不安全的无线通道交换的消息内容。添加进一步的高级安全功能以防止黑客攻击,降低设备被第三方恶意远程控制操作的可能性。
3.3 减少算法偏见,增加测试人员范围
减少人工智能算法偏见对于促进提供更好和更公平的医疗服务是必要的。人工智能医疗设备制造商必须意识到医疗人工智能中的偏见类型,并尝试在产品开发过程的早期减轻偏见,例如,识别和最大限度地减少有偏见的训练数据的下游影响,以及培养技术开发人员的道德素养,需要多用户或基于大数据的分析判断来识别和评估算法中设计师主观性的价值。因此,数据的代表性和多样性至关重要,因为医疗人工智能必须具有普遍性和可转移性,而且应该能客观地适用于不同地域、种族、性别和医疗水平的患者。这些问题可以通过更多样化的数据训练算法来解决。与此同时,在人工智能医疗设备的使用过程中,医生还需意识到患者数据化的潜在动态,持续关注个体患者,保证人工智能系统所支持的诊断、治疗或预后建议不违背医疗技术水平及其专业判断。
3.4 完善人工智能伦理相关法律法规,明确责任认定
人工智能相关伦理法律法规的完善,是实施医疗人工智能伦理重塑的根本保障。只有在法律层面明确责任并提供规范,才能使人工智能医疗设备的伦理约束变得切实可行,完善适用于医疗人工智能引发的医疗纠纷责任归属的法律法规[29]。现有的人工智能医疗设备不是道德的推动者,不具备独立思考和决策的能力,不能被视为责任的承担者。若医务人员在使用人工智能医疗设备时操作失误或决策错误造成的诊疗伤害,使用者和医疗机构应承担相应的责任。医务人员应该对人工智能医疗设备提供的诊断结果或诊疗方案进行仔细核对。如果是设备本身有缺陷,在这种情况下,人工智能医疗设备设计人员和制造商的责任应该根据人工智能的问题方面进行划分[31]。如果相关人员尽职尽责,但仍然无法避免人工智能医疗设备的使用对患者造成伤害,没有明确的证据表明谁应该对此负责,或者不能将责任归咎于任何个人,这意味着可能会有一个空白的责任领域。研究人员可以借鉴欧美的经验,在人工智能设备的销售价格中增加特定的责任费用,并尝试建立政府或行业主导的强制性保险和储备制度,由制造商、医疗机构、销售方等多方支付费用,建立独立的资金池,专门用于承担医疗人工智能的法律责任,使患者的权益得到有效保护,防止相关主体因巨大的责任风险而失去开发和使用该技术的动力。
4 总结与展望
现阶段,虽然人工智能医疗设备临床应用的伦理研究取得了一定成果,但当前所面临的一些伦理问题在根本上还没有得到解决,而且随着人工智能技术的不断发展和人工智能医疗设备的更新换代,其在临床的应用会带来新的伦理问题,需要不断推进对人工智能医疗设备临床应用的伦理研究,确保其使用安全有效,提升科技伦理风险防控能力。针对具有高风险应用环境的人工智能医疗设备(如手术机器人、植介入医疗设备),可通过提高其中关键技术应用的伦理风险防控水平,从技术层面规范伦理风险要点,如制定从业人员行为准则与伦理规范等,加强人工智能医疗设备应用伦理风险防控的可操作性和规范性。
随着科学技术不断更新发展,人工智能医疗设备应用带来的优势将会增加,需要全面认识其带来的伦理问题,积极寻找解决对策,减轻潜在风险。在人工智能医疗设备的研发及使用中,要始终坚持以人为本的原则,充分保护患者的权益,不断促进技术提升,提高医疗服务质量。