APP下载

人工智能医疗器械临床研究伦理审查要素研究*

2023-01-26耿雯倩

中国医学伦理学 2022年12期
关键词:医疗器械受试者伦理

耿雯倩,朱 万,马 磊

(上海市第一人民医院科研处,上海 200080)

1 人工智能医疗器械的定义、分类

人工智能是研究、开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门技术科学,而人工智能医疗器械是采用人工智能技术实现医疗用途的医疗器械[1-2]。在用途的分类方面,如通过人工智能技术能够实现接收、传输、显示、存储医学数据和信息供临床诊疗使用或通过人工智能技术应用于某些心理疾病的辅助诊疗等都属于医疗用途,而如一些智能手表和运动健康软件仅显示人体健康数据,不进行辅助诊断治疗则不属于医疗用途,因此也不属于人工智能医疗器械。人工智能医疗器械从不同角度存在多种分类。从医疗器械软件角度,可分为人工智能独立软件和人工智能软件组件;从用途角度分类,又分为辅助决策类和非辅助决策类;从功能角度可分为处理功能、控制功能、安全功能;从监管角度出发,管理类别主要基于风险水平进行判定,根据算法在医疗应用中的成熟度的高低及用途来决定按照第二类还是第三类医疗器械管理[3]。

2 人工智能医疗器械临床研究的法规及伦理审查现状

2.1 国内现状

国内人工智能医疗器械市场规模从2019年的1.25亿元增长至2020年的2.92亿元,同比增长134%,预计2022年将继续大幅增长,达到11.56亿元[4]。临床试验是验证医疗器械上市前安全性和有效性的核心方法之一,也是影响注册审批速度的关键环节,临床试验的高质量和规范化进展是人工智能医疗器械能否成功注册上市的重要前提。除申办方发起的人工智能医疗的临床试验以外,研究者发起的人工智能医疗器械的临床研究同样也是构建开放协同共享的人工智能医疗器械创新体系的重要环节之一。2017年7月,国务院发布的《新一代人工智能发展规划》指出,到2025年,我国要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,到2030年要建成更加完善的人工智能法律法规、伦理规范和政策体系。2019年,我国成立人工智能医疗器械创新合作平台,加强对人工智能医疗器械的监管,同时不断完善相关法律制度建设,为人工智能医疗器械上市前临床研究和最终顺利注册上市保驾护航。国家药监局医疗器械技术审评中心在2019年、2021年和2022年分别颁布《深度学习辅助决策医疗器械软件审评要点》《人工智能医用软件产品分类界定指导原则》和《人工智能医疗器械注册审查指导原则》以进一步加强人工智能医用软件类产品监督管理,推动产业高质量发展。在人工智能医疗器械伦理审查方面,我国暂未出台专门的审查指导原则,但在2019年,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

2.2 国外现状

美国、英国、日本、欧盟等在内的多个国家和地区都在国家战略层面提出人工智能的伦理原则和审查规范及指南。美国出台《国家人工智能研究和发展战略计划》,其中就包含理解并解决人工智能的伦理问题;欧盟出台《欧盟人工智能》,将确立合适的伦理和法律框架作为三大战略重点之一,同时发布《人工智能伦理:问题和倡议》,探讨人工智能应用引发的主要伦理困境和道德问题并提出新兴伦理倡议;英国也成立了数据伦理和创新中心,确保数据的安全、创新性应用及符合伦理规范;日本起草了人工智能伦理纲要。建立科学、完善、规范以及全流程覆盖的伦理审查对于规范人工智能产品管理、保障其临床试验及未来上市后产品的诊疗治疗、维护受试者权益具有重要意义[5-7]。这些国家和地区对人工智能的伦理原则和审查规范及指南制定较为完善,具有借鉴价值。

3 人工智能医疗器械临床研究的特征要素

人工智能医疗器械临床研究作为前沿的临床研究方向,对其伦理审查的根本目的就是为了保护受试者权益。关注临床研究的科学性和伦理性,是伦理审查主要考虑的两个角度。

3.1 临床研究的科学性

3.1.1 临床研究目的

一项临床研究的目的决定了临床研究各设计要素,包括主要评价指标、试验设计类型、对照试验的比较类型及临床研究样本量。人工智能医疗器械临床研究的科学开展不仅需要研究前的研发成本,也要大量的临床数据收集和支撑,是否具有开展的重大意义需要设定明确、具体的研究目的。在具体的伦理审查过程中,需要关注此项临床研究是否有实际临床应用意义,针对注册类的临床试验更要关注在未来此项产品上市后是否可满足临床使用的需要,能否实现降低医疗负担,提升医疗质量。

3.1.2 临床研究方法

人工智能医疗器械临床研究方法是否科学决定了这项临床研究能否取得可信、准确的研究结果。在伦理审查中,需要关注研究设计是否合理,是否根据医疗器械的预期用途、适用人群、使用场景和核心功能来设计入选标准、排除标准及主要评价指标。

3.1.3 临床研究的风险与获益

目前已经批准上市的人工智能医疗器械具有准确、快速、高效、安全等优点,但无论是研究者发起的涉及人工智能医疗器械的观察研究,利用已上市的人工智能医疗器械开展的干预研究,还是未上市的人工智能医疗器械注册类临床试验,其受试者仍然需要承担一定的风险。因此,当受试者承担风险的同时能有哪方面的获益以及获益的程度尤为重要,获益/风险比也是伦理审查的核心要素。人工智能医疗器械临床研究的风险包括专业技术风险和信息保护风险。当人工智能诊断类软件评判出假阳性和假阴性的结果导致受试者出现病情漏诊或误诊,由于算法偏见和算法歧视导致人工智能医疗器械诊断或者治疗出现偏差,由于算法更新、软件迭代导致受试者不能及时得知疾病诊断或治疗的最新进展,这些都属于专业技术风险。而受试者参加人工智能医疗器械临床研究后,相关的医疗信息、健康数据以及受试者个人的隐私泄露则属于信息保护风险。伦理审查过程中需关注人工智能医疗器械所依据的医疗数据库是否具有代表性以及是否符合相应要求。来源于单中心的数据鲁棒性(普遍适用性)一直受到质疑,因此,数据库来源于多中心并具有广泛代表性的人工智能医疗器械才可能具备较高的普适性。另外,数据库建设时是否建立数据库采集操作规范,采集设备、采集过程、数据脱敏是否符合质控要求[8-9],数据处理过程中数据清洗和预处理是否符合质控要求,有无明确的规则方法,数据标准中有无标准操作规范;筛选数据时保持前后的一致性来避免选择偏移导致未来算法的偏见,算法设计是否合理及具有可解释性,是否有完善的网络安全防护体系和隐私保护的关键技术,如访问控制技术、数据显示限制技术、数据加密技术、数据使用共享限制技术来保护受试者隐私,是否有明确的数据脱敏工具及使用规则[10-11],这些都需要伦理委员会的关注。在试验获益方面,受试者因参加临床研究得到更为精准的诊断,避免检测差异及主观差异,提高诊断及筛查的敏感性,或因参加临床研究可能会更快发现异常情况,为疾病的及时治疗争取时间,或者可得到更为精准和个性化的治疗,这都是受试者可能的临床获益。伦理审查过程中不仅关注受试者因参加临床研究可能的获益和风险,还要关注这样的获益/风险比例是否恰当,是否在受试者可接受的范围内。

3.1.4 软件更新

人工智能是指机器表现出与人类智能相关行为的能力,通常是指通过感知周围环境作出合理行动以达到预期目标的计算机软件或系统,因此人工智能医疗器械的软件更新是伦理审查需要重点关注的要素。软件更新是指在软件生存周期全过程对软件所做的任一修改,从结果角度看,可分为“重大更新”和“轻微更新”;从内容角度看,可分为“增强类更新”和“纠正类更新”。针对注册类的临床研究,无论哪种更新,一旦划分为重大更新,即影响到人工智能医疗器械安全性或有效性的更新,需要申请变更注册。而从伦理审查的角度,无论是否是注册类的研究,都需要对研究方案中软件更新的范围、内容以及流程(尤其是重大更新)有无明确的规定及规范的程序进行重点关注和审查。

3.1.5 研究人员资质和研究基础设施

在人工智能医疗器械临床研究的伦理审查中,需要关注研究人员是否有资质开展临床研究,是否有人工智能医疗器械相关的实践经验,研究团队是否稳定,技术和操作水平一致,以保证试验结果的稳定性和可重复性。

3.2 临床研究的伦理性

3.2.1 知情同意的语言、方式和程序

由于人工智能医疗器械较为专业,知情同意书是否能够用通俗易懂的语言告知受试者医疗器械和试验程序的相关内容。不同类型的人工智能医疗器械临床研究有不同的知情同意的方式和程序。传统意义上的知情同意的形式以书面签署纸质版知情同意书为主;而随着信息化的不断推进,采用多元化电子媒体的电子系统和程序进行电子知情同意也在快速发展中。目前,电子知情同意在国外以其便携的获取方式和可靠的存储、追踪随访途径等优势获得了很多良性反馈。将来,电子知情同意在人工智能医疗器械临床研究中凭借其快速进行知情信息交互与共享的优点可以助力临床研究的顺利进展[12]。有特定科研目的的人工智能医疗器械临床研究必须有具体知情同意,在没有具体项目支撑,仅是前期非特定科研目的收集临床数据和信息的,则需要获得受试者的具体知情同意或者泛知情同意,针对数据未来可能二次或多次挖掘时是否需要二次知情同意以及知情同意的撤回程序等,都是伦理审查过程中需要重点关注的要点。

3.2.2 人工智能医疗器械的透明度和可解释性

在联合国《人工智能伦理问题建议书》中将人工智能的可解释性界定为“让人工智能系统的结果可以理解并提供阐释什么”,因此在人工智能医疗器械的临床研究中,伦理审查需要关注是否将此项医疗器械的透明度和可解释性阐述清楚,让人工智能医疗器械及其系统的预测和行为更易于被人们理解,明确人工智能医疗器械的临床研究向谁解释,为什么解释,何时解释,如何解释以及解释的方法。在2019年和2021年欧盟委员会和欧洲议会和理事会发布的《人工智能道德准则》和《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》中明确了透明度是建立和维持公民对人工智能系统开发者和人工智能系统本身信任的关键,并规定高风险AI系统的设计和开发方式应足够透明。伦理委员会需重点关注如果产品更新迭代后,对受试者本身病情的决策和治疗是否有影响,是否有相应的告知程序[13]。

3.2.3 受损害后的处理及赔偿

受试者参加人工智能医疗器械的临床研究,受到损害如疾病漏诊或误诊,或治疗产生偏差或失误,如一些手术系统使外科手术未达到理想的手术效果,或者人工智能机器人导致手术失败,有无明确的处理措施以及赔偿方案,都需要重点关注。

3.2.4 受试者保护

在人工智能医疗器械临床研究的伦理审查中,需要关注一些特殊情况及有无相应的处理措施,如研究方案中有无说明可随时中途退出;研究是否纳入弱势群体以及对弱势群体的保护。目前人工智能医疗器械临床研究的适应证中有一些是针对部分弱势群体,如罕见病患者、有精神疾病或心理疾病的患者,受试者因参加临床研究受到损害时,是否有相应的保护措施,这些都需要伦理审查时重点关注。

4 提升伦理审查质量的策略和建议

通过以上对人工智能医疗器械临床研究伦理审查难点的分析,伦理审查过程中存在很多关键点,其不仅影响临床研究质量,而且影响受试者的安全和权益。如何提升伦理审查质量,为此类临床研究的受试者保驾护航,是每一位伦理从业人员需要认真考量的。笔者认为从以下几个方面着手,包括加强立法建设和监管,加强伦理委员会能力建设,完善伦理审查制度和体系建设,拓展平台建设,加强区域联动,可在一定程度上提升人工智能医疗器械伦理审查质量。

4.1 加强立法建设和监管

目前,我国科技行业的伦理实现机制还有待完善,缺少健全的伦理审查、自律规范、行业标准等机制的约束,关于人工智能的伦理规范,仅有2021年国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,旨在将伦理理念融入人工智能全生命周期,为从事人工智能相关活动的个人、组织和其他相关机构提供伦理指引。关于人工智能医疗器械临床研究仍然缺少相应的法律法规,以及伦理审查专门的伦理审查指南和管理条例来应对人工智能给人类带来的挑战和风险。因此,应加强立法建设,让法律规范成为人工智能医疗器械研发的底线,让审查指南和管理条例为伦理委员会的审查工作提供参照标准;行政部门应加强人工智能医疗器械的监管,促进其规范、高效开展。

4.2 提升委员会专业审查能力

各医疗机构可根据本机构的情况建立人工智能伦理审查专业委员会,包含人工智能、大数据、信息安全保护、法学领域的委员和独立顾问,或者在原本伦理委员会的架构基础之上,聘请人工智能领域的独立顾问,以保证审查的专业性,确保人工智能医疗器械临床研究的科学性和伦理性,在后续的跟踪审查中也能监督此项研究在大数据和信息保护等多个维度是否规范化实施。由于人工智能技术更新迭代较快,因此不定期对委员会进行培训,更新委员会和工作人员的人工智能知识结构,提升审查能力,也将为人工智能医疗器械流程研究的平稳发展奠定稳固的根基。

4.3 完善伦理审查制度

人工智能医疗器械的临床研究与其他人体临床研究有联系也有区别,各医疗机构的伦理委员会在本身已有的伦理审查制度中应增加人工智能章节指引,为涉及人工智能临床研究提供流程指引及问题答疑汇总,尤其对于研究者发起的人工智能的研究,包括科学的方案设计、合理的知情同意方式和程序的选择,后续产品更新迭代后的最新消息告知等提出规范要求。

4.4 拓展平台建设,加强区域联动

人工智能医疗器械临床研究往往需要大量数据作为“思考”和“决策”的基础,当产品处于临床研究阶段时更需要大量数据进行“训练”和“验证”,从而保障运行的可靠性和稳定性。因此,从人工智能临床前至临床研究阶段就加强伦理委员会的区域联动,从筛选中心阶段就开始加强联系和互动,能在一定程度上加快整体的流程效率。

5 总结

目前医疗器械已进入高速发展的阶段,发展人工智能医疗器械已经成为国家战略行为,作为人工智能医疗器械临床研究的重要参与方,伦理委员会要针对人工智能的特点和要素规范伦理审查过程,提高伦理审查能力,强化伦理委员会建设,进行高效率、高质量的审查,以促进人工智能医疗器械临床研究高效高速发展,促进医院为患者提供更为安全和便捷的医疗卫生服务。

猜你喜欢

医疗器械受试者伦理
涉及人的生物医学研究应遵循的伦理原则
涉及人的生物医学研究应遵循的伦理原则
《心之死》的趣味与伦理焦虑
医院医疗器械维修中存在的问题及维修管理策略
灵长类生物医学前沿探索中的伦理思考
欧盟医疗器械法规MDR正式执行
涉及人的生物医学研究应遵循的伦理原则
护生眼中的伦理修养
北京市医疗器械检验所
涉及人的生物医学研究应遵循的伦理原则