医疗人工智能临床应用的伦理思考
2025-02-21崔芳芳李中琳何贤英王文超初云天石小兵赵杰
〔摘要〕医疗人工智能是机器学习、计算机视觉、自然语言处理等技术与临床医疗结合形成的一类新型应用,随着相关技术不断迭代、发展,医疗人工智能在提高诊疗效率、服务质量方面展现出巨大潜力,但同时也增加了引发伦理问题的可能性。分析了医疗人工智能临床应用可能导致的伦理问题,包括医疗人工智能的算法可解释性和透明度不足,导致信息不对称和认知差异;医疗数据的安全性和隐私保护状况堪忧;由于医疗人工智能在临床应用中的多主体协同参与,责任划分复杂、不明确,导致医疗事故鉴定和责任厘清的难度增加等,提出应遵循的不伤害患者利益原则、医生主体原则、公正包容原则和快速响应原则,并从多个角度探讨了应对医疗人工智能伦理问题的策略及实现路径,包括规范环境与流程、明确责任归属,持续进行数据保护影响评估、保障数据安全性,确保模型透明与可解释性、开展多主体协作,以及以伦理价值为驱动、坚持“以人的健康为中心”的原则等,旨在为医疗人工智能的健康发展提供指导,确保技术进步同时,能够有效管理和缓解伴随的伦理风险,从而推动医疗人工智能技术的良性发展,更好地服务于医患双方。
〔关键词〕医疗人工智能;临床应用;伦理原则;科技伦理治理
〔中图分类号〕R-052 〔文献标志码〕A 〔文章编号〕1001-8565(2025)02-0159-07
DOI: 10. 12026/j. issn. 1001-8565. 2025. 02. 03
【基金项目】 科技创新2030-(浦江国家实验室)新一代人工智能重大专项子课题“自适应智能辅助诊疗开放平台”(2022ZD0160704);国家超级计算郑州中心创新生态系统建设科技专项“基于多模态数据的肺癌智能诊疗关键技术研究与示范应用”(201400210400);河南省医学科技攻关计划省部共建重点项目“基于多模态特征融合的乳腺癌超声智能筛查技术研究”(SBGJ202402097)
Ethical reflections on the clinical application of medical artificial intelligence
CUI Fangfang1,2, LI Zhonglin3, HE Xianying1,2, WANG Wenchao1,2, CHU Yuntian1,2, SHI Xiaobing1,2, ZHAO Jie1,2,4
(1. National Engineering Laboratory for Internet Medical Systems and Application, the First Affiliated Hospital of Zhengzhou University, Zhengzhou 450052, China;2. Institute of Intelligent Medicine, Henan Academy of Medical Sciences, Zhengzhou 451162, China;3. Research Center for Medical Humanities Education, Zhengzhou University, Zhengzhou 450001, China;4. Shanghai Artificial Intelligence Laboratory, Shanghai 200030, China)
Abstract: Medical artificial intelligence( AI) is a new type of application formed by the combination of machine learning, computer vision, natural language processing, and other technologies with clinical medical treatment. With the continuous iteration and development of relevant technologies, medical AI has shown great potential in improving the efficiency of diagnosis and treatment, and service quality, but it also increases the possibility of triggering ethical issues. Ethical issues resulting from the clinical application of medical AI were analyzed, including the lack of algorithmic interpretability and transparency of medical AI, leading to information asymmetry and cognitive discrepancies; the concerning status of security and privacy protection of medical data; and the complex and unclear division of responsibilities due to the collaborative participation of multiple subjects in the clinical application of medical AI, resulting in increased difficulty in the identification of medical accidents and clarification of responsibilities. The paper proposed the principles of not harming patients’interests, physician’s subjectivity, fairness and inclusiveness, and rapid response. It also explored the strategies and implementation paths for responding to the ethical issues of medical AI from multiple perspectives,including standardizing the environment and processes, clarifying responsibility attribution, continuously assessing the impact of data protection, guaranteeing data security, ensuring model transparency and interpretability, carrying out multi-subject collaboration, as well as the principles of being driven by ethical values and adhering to the “human health-centeredness.” It aimed to provide guidance for the healthy development of medical AI, ensuring technological progress while effectively managing and mitigating accompanying ethical risks, thereby promoting the benign development of medical AI technology and better serving the healthcare industry and patients.
Keywords: medical artificial intelligence; clinical application; ethical principle; ethical governance of science and technology
0 引言
近年来,人工智能技术快速发展,为医疗行业的信息化、智能化提供了新的发展机遇。2023年3月,国务院办公厅发布的《关于进一步完善医疗卫生服务体系的意见》中明确指出,要积极运用人工智能技术完善医疗服务流程。然而,医疗人工智能技术的快速发展也伴随着算法不透明、患者隐私易泄露、服务主体不明确等伦理问题[1-3],若不加以伦理约束,放任技术的自由发展,可能会导致社会出现负面事件,破坏人工智能赋能医疗提高诊治效率、服务质量的初衷。
目前,中国关于医疗人工智能的伦理规范也进行了一定的探索。2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》。其中明确规定了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险以及保持公开透明五大科技伦理原则。此外,2023年中国医药教育协会数字影像与智能医疗分会与中国医药教育协会智能医学专业委员会联合发表了《眼科人工智能临床应用伦理专家共识》,其中明确指出了眼科AI模型应用于临床应遵循的若干伦理细则要求,包括数据来源的安全管控、临床应用的医疗责任、临床应用的安全无害性等多个方面。虽然目前已经建设了一些医疗人工智能的伦理规范,但是这些规范多是针对具体医学学科的规范(如眼科),而关于医疗人工智能的总体规范还未曾明确。
本文针对医疗人工智能面临的伦理问题,提出应遵循的伦理原则,应实施的应对策略及实现路径,为制定医疗人工智能伦理风险管控政策提供参考。
1 医疗人工智能的发展与应用
“人工智能”(artificial intelligence,AI)一词最早出现在1955年达特茅斯学院的一次会议提案中,并在20世纪70年代左右应用在医疗领域[4]。到1976年,反向连锁专家系统应用了人工智能技术,用于识别引起严重感染的细菌,例如导致菌血症和脑膜炎的病原体,并提出相应的抗生素治疗建议。1978年,北京中医医院关幼波教授与计算机科学领域的专家合作开发了“关幼波肝病诊疗程序”,第一次将医学专家系统应用到中国传统中医领域[5]。随着计算机硬件的改进,AI在医疗领域的应用从20世纪80年代起取得了显著进展。1989年,雪松-西奈医疗中心(Cedars-Sinai Medical Center)的心脏病专家推出了一种结合了人工智能和统计技术的临床工具CorSage[6],旨在帮助医生识别最有可能再次患冠状动脉疾病的心脏病患者。
21世纪,随着大数据、云计算和深度学习等技术的发展,医疗人工智能迎来了新的发展机遇。2007年,IBM创建了开放域问答系统“沃森”,该系统从众多病例中筛选出合适的患者记录,为医生提供可选择的循证治疗方案。2016年10月,百度正式发布百度人工智能在医疗领域内的最新成果——百度医疗大脑,对标谷歌和IBM的同类产品,其通过海量医疗数据、专业文献的采集与分析,模拟医生问诊流程,依据用户的症状,提供最终诊疗建议。人工智能逐步从辅助疾病诊断向辅助疾病治疗进行发展与探索应用。
近年来,随着机器学习、自然语言处理、计算机视觉、大数据技术的不断发展,人工智能在医疗领域的应用得到了快速发展,其中以医药研发、医疗大语言模型、慢病管理几项最具代表性。以药物研发为例,引入人工智能后,利用算法模型自主学习的特性,高效处理多行业非结构化的研究内容,降低研究人员的工作量,缩短医药研发周期[7]。此外,医疗大语言模型是近期医疗人工智能研究的热点。与通用大语言模型不同,医疗大语言模型的训练数据集中于医疗文献、电子病历、影像等内容,模型通过不断学习,辅助完成用药建议、诊疗知识问答、影像诊断、生成电子病历等场景的工作。例如,谷歌发布的Med-PaLM M模型[8],具备回答医学问题、医学影像分类、X光报告生成、基因组变体调用等多种能力。中国医疗大语言模型的探索也在同步进行,澳门理工大学的XrayGLM可以根据输入的X光影像生成诊疗报告,并提供治疗建议[9]。在慢性病管理方面,人工智能主要用于给患者制定康复方案,引导患者坚持治疗。Kilbride等[10]结合人工智能、虚拟现实技术为中风患者设计了一款游戏,监测手、手臂的活动并根据运动数据分析患者的恢复情况。也有研究团队通过设置AI辅助医生阅片组(试验组)、医生独立阅片组(对照组)和AI阅片组(AI组)等不同组别进行对照实验[11],得出了“在AI的辅助下,低年资医师读图诊断能力可提高约12%”的结论,论证了该技术对低年资医师的辅助识别作用,及其在临床应用中的有效性,为AI技术从概念真正向临床转化提供了依据。综合以上情况,人工智能在医疗领域的应用正在从理论探索走向实际应用阶段,因此,人工智能临床应用面临的伦理问题是我们应该思考的关键,也是未来推动医疗人工智能发展的重要环节。
2 医疗人工智能临床应用面临的伦理问题
2. 1 算法可解释性、透明度问题
医疗人工智能主要依赖算法模型来进行计算、决策,AI算法往往在模型结构、参数、时间、空间等维度表现出较高的技术复杂度,可解释性、透明度较低。算法模型的设计、测试、验证、迭代等环节内部工作机制抽象,很难以简洁直观的形式来阐述原始数据到模型的映射过程、决策逻辑和预测结果。可解释性、透明度的不充分,不仅阻碍了对医疗人工智能产品的客观评价、准入、审查,使相关实践应用的质量控制、监管难度增加,而且扩大了医生、患者、开发者等视角的信息不对称和认知差异。在患者方面,无法理解模型基本原理和决策的可靠性、合理性,很难保障患者充分告知、知情同意,不利于赢得患者的信任和认可;在医生方面,缺乏人工智能专业知识,无法清晰地获知决策背后的科学依据,当传统经验判断和AI决策意见不一致时可能会产生怀疑态度,很难达到人机友好交互和有序协同的效果;在开发者方面,不具备医学常识的情况下,对数据选择和模型开发的过程受限于自身的主观概念、价值倾向和文化偏好[1],可能会出现算法偏见。同时由于开发过程的不透明,这些问题无法被及时识别、解决,削弱了模型在技术上的中立性和在医学领域的适用性。
2. 2 数据安全及隐私保护问题
数据是人工智能发展的基础和核心要素之一,医疗人工智能需要基于海量医疗数据来训练模型、挖掘数据价值。医疗人工智能的开发、利用,涉及数据的采集、传输、处理、标注、存储、建模、使用等一系列流程,大量患者个人信息如体征数据、就诊记录、影像数据、检查检验报告、遗传检测数据等经医疗机构、企业相关工作人员及软硬件载体交互、流转。在医疗数据交互及流转过程中,一方面存在敏感信息泄露的风险,如家族病史、既往史等,患者可能会因隐私信息遭遇他人言语攻击、社会歧视,影响身心健康;另一方面,如果安全防护措施不到位,可能会发生黑客攻击、软件入侵事件,导致数据被篡改、窃取,降低数据的真实性、完整性、可用性,对医疗人工智能算法模型的精准度产生本质性的破坏。此外,人类基因组数据等敏感信息关乎国家机密、社会公共利益,在使用过程中一旦出现遗失或失控,将会造成严重的后果,影响人类生命健康。
2. 3 临床应用责任划分问题
当前,医疗人工智能领域临床应用非常丰富[12],在产品形态层面分为软件类(智能影像诊断软件、智能用药咨询软件、临床辅助决策软件等)、终端器械类(手术机器人、移动查房机器人等);在功能层面主要包括诊断、治疗、药物研发、移动监护与生命支持、远程操控等,并融合不同的疾病类型和专科场景,逐步形成多元化的应用生态,推动了医疗服务模式的转变。医疗人工智能是多领域融合、多学科交叉的结果,在临床应用中呈现出多主体协同参与、潜在风险与收益并行的特点,服务主体不仅包含医疗机构和医护人员,还涉及医疗AI硬件制造企业、软件系统开发企业、云服务企业、运维服务企业、通信运营企业等,共同承载医疗AI设计、开发、生产、使用、维护、更新等环节工作。
服务模式和服务主体的变化[3],在提升医疗服务效率的同时,改变了原有的业务逻辑和责任边界;应用中的潜在风险,给医疗行业的运行带来了新挑战;如果发生纠纷或者意外事件,很难清晰划分责任。如何鉴定医疗事故、厘清产品层面是否存在系统漏洞、算法错误、设计缺陷,医疗机构层面使用是否合理规范,运维层面是否存在操作不当,网络通信层面是否存在性能不足,辨识各主体对约定和法定义务的履行程度、对患者的赔偿责任,具有较高的评估、审核门槛,需要运用法律、信息技术、医学知识综合研判,如果处置不妥当,将对医学伦理以及从业人员的道德感、价值观产生冲击,挑战医疗服务的现有秩序。
3 医疗人工智能应用应遵循的伦理原则
3. 1 不伤害患者利益
涉及患者利益的主要问题表现为由数据隐私安全保护措施不到位而给患者带来的个人隐私信息泄露风险。目前人工智能技术的发展取得了长足的进步,但对于大多数人来说,人工智能技术的工作原理是复杂难以理解的,当诸如患者隐私泄露等问题出现时,就会引发患者对人工智能可靠性的担忧。隐私权对于保护人的尊严、自主权和能动性不可或缺,在人工智能系统的整个生命周期内必须予以尊重、保护和促进。重要的是,人工智能系统所用数据的收集、使用、共享、归档和删除方式,必须符合国际法,并遵守中国相关的法律法规和政策规定,维护患者利益。
3. 2 医生主体
人工智能应用在诊疗决策中存在算法偏见的问题,主要由“数据驱动造成的偏见”“人为造成的偏见”与“机器自我学习造成的偏见”三方面的偏见导致的人工智能结果性偏见,进而在临床决策中对患者的利益造成伤害。此外,医疗人工智能不能和患者进行情感的交流,在诊疗过程中缺乏人文关怀,存在天然劣势。医疗人工智能所作出的诊疗决策,归根到底还是需要医生根据专业知识储备和患者个体情况提供综合性指导意见。应发挥医疗人工智能在辅助诊断、辅助影像、辅助疾病预测等方面的优势,坚持医生在诊疗过程中的主体地位,避免以人工智能代替医生诊疗的行为出现。
3. 3 公正包容
为了解决人工智能技术层面所带来的数据鸿沟及卫生资源分配、发展不平衡不充分所带来的公平问题,医疗人工智能的设计和共享应尽可能广泛、公正地使用和获取。无论性别、种族、社会经济地位如何,相应的伦理应尊重多样的价值观、社会需求等,不仅可以用于发达国家,也可用于发展中国家,并最大幅度减少不可避免的差距。此外,医疗人工智能的设计和应用应尊重公众对算法的知情权。在法律法规不到位或者失能的状态下,医疗人工智能的设计和发展应充分保障公众对于人工智能技术、风险等问题的知情和参与权。
3. 4 快速响应
医疗人工智能作为一项颠覆性的创新技术,其技术复杂性和创新性使其伦理治理具有新颖性和独特性。此外,医疗人工智能伦理不确定性和风险性可能会触发严重的社会问题[13]。据此,快速响应原则应成为医疗人工智能的基本伦理原则,要求医疗人工智能具备快速且精确响应由于技术迅速更新和社会环境不断变化而导致意外产生的新伦理问题的能力。这一原则可以加强医疗人工智能在应对突发伦理问题时的及时性,减少决策成本,提升治理效率,从而降低不必要的损害。
4 医疗人工智能伦理问题的应对策略与实现路径
医疗人工智能可被视为一个或多个参与者在编程和产品开发方面一系列决策的产物。在人工智能价值链的每个阶段作出的决定都可能对下游参与开发、部署和使用医疗人工智能的各方产生直接或间接的影响。其价值链包括设计与开发、提供、部署三个关键阶段,而在每个阶段均需要针对医疗人工智能的伦理问题制定相应的应对策略。
4. 1 规范环境与流程、明确责任归属
由于医疗人工智能价值链的每个阶段的决策都会对下游阶段产生影响,因而在模型的研发、提供、部署各个阶段都应当规范其环境与流程,以明确责任归属。
在开发阶段,首先,从政府的角度,应要求或鼓励开发者在早期阶段对用于卫生保健与药品领域的人工智能算法或系统予以注册。早期注册可以鼓励发表负面结果,防止发表偏见或对结果过于乐观地解释,并促进有利于患者的知识整合。其次,从开发者的角度,可以考虑对程序员进行伦理认证或培训,以确保其知识顾问和编程人员能够识别和规避风险。
在大模型的提供阶段,首先应设置或指定专门的监管机构,负责医药领域的多模态大模型及其应用软件的准入审核与治理评估;其次,应确保能够将提供者或开发者的责任落实到具体的机构或自然人,并制定相应的行政处罚措施。由于人工智能技术性较强且具有“黑箱”特性,相关的争议应采取举证责任倒置,由开发者和提供承担举证责任,证明模型符合国家法律或经修订的法律的要求。同时严格限制未通过准入审核或评估的大模型或支持临床决策应用软件的使用范围,须局限于授权临床试验环境中使用。
在医疗人工智能大模型的部署及临床应用阶段,政府应开展模型发布后的强制性审计和影响评估。审计和影响评估应予以公布,并应包括按用户类型分类的结果和影响模型的部署者负有告知使用者多模态大模型可能导致的风险、既往发生过的危险案例,以及大模型的具体适用范围的义务,并应当在可以预见的危害发生之前采取暂停使用或撤销部署等措施。医疗卫生机构等大模型的使用者,则对相应可能发生的风险与损害负有知情与告知患者等义务。医疗机构及医务人员,须对部署于本地的大模型的功能、适用范围、结果的可解释性、推理与决策逻辑等具有深刻的理解,以减少大模型使用不当带来的误诊、漏诊及其他问题。
4. 2 持续进行“数据保护影响评估”、保障数据安全性
数据的安全保障需要在医疗人工智能开发、提供、部署应用的各个阶段持续进行。虽然人工智能开发者在定性调查中一致认为数据质量“很重要”,需要投入大量时间,但与数据相关的工作往往价值不高,由于医疗领域的人工智能开发需要严格遵守知情同意的法律规定,开发者在训练医疗人工智能时,往往依赖较小的数据集[14]。因此无论数据集的大小,开发者在处理数据之前都应进行“数据保护影响评估”,评估数据处理操作侵害个人权利和自由的风险,以及对个人数据保护的影响。
从临床应用的角度,要确保医疗隐私数据的安全,除了在使用患者数据进行模型训练的过程中,应确保所有训练数据均是经过脱敏处理后的数据之外,还应当保证模型生成的分析或诊断不能包含患者的个人隐私。政府及其有关部门则应制定数据保护法律法规,以有效保护个人的权利,并为个人提供保护自身权利所需的工具,包括获得充分知情同意的权利,以及保障个人对数据应用切实知情的相应工具。
4. 3 确保模型透明与可解释性、开展多主体协作
公开和透明是世界卫生组织的指导原则,也是提高基于人工智能系统的“可解释性”和“可理解性”的措施,对医疗人工智能大模型的准入审核、强制性审计、影响评估等应要求模型公开和透明。在开发阶段,应该对用于训练模型的数据保持透明,以便下游用户,包括对模型进行微调的用户、使用大模型开发医疗应用的用户以及直接使用医疗AI的用户,了解训练数据集的不足或不完整之处。在提供和部署阶段,模型本身及其应用软件的部分内容应该透明,包括源代码、数据输入、模型权重和分析方法,以便监管机构对其安全性和有效性进行监督和评估。此外,还需要制定“开放权重”标准,让监管者、其他开发者、民间团体和提供者了解算法的训练结果,或模型在训练过程中获得的知识。
医疗人工智能技术的应用目的在于为医务人员减轻负担的同时,也为患者提供更高质量的医疗服务。从临床应用的角度,医疗机构所使用的人工智能算法本身应具有一定的可解释性,使临床医生能够理解和验证算法的决策过程。体系化的医疗人工智能伦理治理,要求将更多的医疗人工智能利益相关者纳入治理主体的网络结构当中,强调多元主体参与治理和发挥联动作用,通过医学专家、伦理学家、算法科学家等跨学科团队合作,共同识别和解决医疗人工智能模型算法潜在的算法偏见问题,以保障医疗人工智能模型算法的合理性和公开性。这就要求医疗人工智能大模型的潜在用户及利益相关者,包括医疗机构、医务人员、科学研究人员和患者等,应从人工智能开发的早期阶段就参与到结构化、包容性和透明的设计中来,并应有机会提出伦理问题、表达担忧和为可能采用的人工智能应用提供意见。
通过多主体协作的伦理治理模式,保障临床医生对大模型如何作出决策以及这些决策的局限性能够有足够深刻的认知,识别和了解对合理使用的担忧,掌握避免自动化偏见的方法等,以使医疗人工智能大模型的使用最终符合患者的健康需求。
4. 4 以伦理价值为驱动、坚持“以人的健康为中心”的原则
伦理价值是指在医疗人工智能设计研发、试验应用与产业化过程中,基于特定的医疗适用情景,由医学伦理、社会道德与技术特征协同塑造,赋予技术自身的本体价值[15]。医疗人工智能面向生命健康的应用语境,使得技术理应更加关注医患个体,与之相应的是技术的价值关注开始从客体性价值转向主体性价值,即从传统以医师为主导的诊疗模式下的医疗价值创造,转向一种与人工智能技术、医师等医疗语境下的多元利益相关方协同、以患者本体为中心的价值共创,进而助力和赋能更高层次的社会医疗福祉追求。因此在进行伦理治理的顶层设计时,应始终以人的健康为中心,秉持尊重与自主、不伤害、有利和公正原则。
在技术方面,世界卫生组织先前的指南建议:“设计者和其他利益相关者应确保人工智能系统在设计上能够以必要的准确性和可靠性执行定义明确的任务,以提高医疗卫生系统的能力并促进患者的利益。设计者和其他利益相关者还应能够预测和理解潜在的次生结果”。甚至在开发多模态大模型之前,开发者就可以进行所谓的“事前剖析(pre-mortem)”,以考虑“假设的故障”,或在开发过程中设置“红队”,即对模型或系统进行评估,找出可能导致不良行为(如大模型提供有偏见的意见)的真实世界模拟中的薄弱环节,以有助于开发者修正模型或系统,确保其可靠性和安全性。
5 结语
随着科技的迅猛发展,人工智能已渗透医疗领域的各个环节,其应用极大地提升了诊疗效率,促进了医疗资源的均衡分配,展现出令人瞩目的潜力和远大前景。然而,如同所有技术革新所伴随的那样,人工智能在医疗领域的应用也引发了诸多伦理与道德的深刻思考。本文分析了当前医疗人工智能在临床应用中所面临的伦理挑战,基于此提出医疗人工智能的应用应坚守不伤害患者利益、尊重医生主体、公正包容和快速响应四个原则,确保技术发展与人文关怀并行不悖,同时深入探讨了应对医疗人工智能伦理问题的可能策略与实现路径,以期为医疗人工智能的健康发展提供有益的思考与建议。
〔参考文献〕
[1]王姗姗,翟晓梅.人工智能医学应用的伦理问题[J].中国医学伦理学,2019,32(8):972-976. WANG S S,ZHAI X M. Ethical issues of medical application of artificial intelligence[J]. Chinese Medical Ethics,2019,32(8):972-976.
[2]蔡大顺.智慧医疗民事责任的内容革新与赔偿优化[J].江汉论坛,2023(12):121-126. CAI D S. The content innovation and compensa? tion optimization of intelligent medical civil liabil? ity[J]. Jianghan Tribune,2023(12):121-126.
[3]黄成华.智慧医学的意义解读、风险研判及其防范路径[J].中国医学伦理学,2023,36(12):1313-1322. HUANG C H. The significance interpretation,risk judgment and prevention path of intelligent medicine[J]. Chinese Medical Ethics,2023,36(12):1313-1322.
[4]MILLER R A, POPLE H E, MYERS J D. In? ternist-1, an experimental computer-based diag? nostic consultant for general internal medicine[J]. The New England Journal of Medicine,1982,307(8):468-476.
[5]WEISS S M, KULIKOWSKI C A, AMAREL S, et al. A model-based method for computeraided medical decision-making[J]. Artificial In? telligence, 1978, 11(1-2): 145-172.
[6]JIANG L Y, WANG X J, JIN C L. Application and admittance of artificial intelligence in health service industry[J]. Chinese Journal of Health Policy, 2018, 11(11): 78-82.
[7]刘伯炎,王群,徐俐颖,等.人工智能技术在医药研发中的应用[J].中国新药杂志,2020,29(17):1979-1986. LIU B Y,WANG Q,XU L Y,et al. Application of artificial intelligence technology in pharmaceuti? cal research and development[J]. Chinese Jour? nal of New Drugs,2020,29(17):1979-1986.
[8]TU T, AZIZI S, DRIESS D, et al. Towards generalist biomedical AI[J]. New England Jour? nal of Medicine AI, 2024, 1(3): AIoa2300138.
[9]TANG W, PEI C, YU P, et al. Generating Chinese Radiology Reports from X-Ray Images:a public dataset and an X-ray-to-Reports genera? tion method[C]//International Conference on Medical Image Computing and ComputerAssisted Intervention. Cham: Springer Nature Switzerland, 2023: 79-88.
[10]KILBRIDE C, WARLAND A, STEWART V, et al. Rehabilitation using virtual gaming for hospital and home-Based training for the Upper limb post Stroke (RHOMBUS Ⅱ): protocol of a feasibility randomised controlled trial[J]. BMJ open, 2022, 12(6): e058905.
[11]LI B, CHEN H, YU W H, et al. The perfor? mance of a deep learning system in assisting ju? nior ophthalmologists in diagnosing 13 major fun? dus diseases: a prospective multi-center clinical trial[J]. NPJ Digital Medicine,2024,7(1):8.
[12]邱英鹏,吴迪,肖月,等.我国人工智能医疗技术定义和分类思考[J].医学信息学杂志,2023,44(10):11-15. QIU Y P, WU D, XIAO Y, et al. Definition and classification of artificial intelligence medical technology in China [J]. Journal of Medical Infor? matics, 2023,44 (10): 11-15.
[13]汪琛.基于价值嵌入的医疗人工智能伦理治理研究[D].合肥:中国科学技术大学,2023. WANG C. Research on ethical governance of medical artificial intelligence based on value em? bedding[D]. Hefei:University of Science and Technology of China,2023.
[14]HARRER S. Attention is not all you need: the complicated case of ethically using large language models in healthcare and medicine[J]. EBioMedi? cine, 2023: 90.
[15]汪琛, 孙启贵, 徐飞. 基于价值嵌入的医疗人工智能伦理规制研究[J]. 中国科技论坛, 2022(8):172-180. WANG C,SUN Q G,XU F. Research on ethical regulation of medical artificial intelligence based on value embedding[J]. Forum on Science and Technology in China, 2022(8):172-180.