APP下载

《全科医学服务中的人工智能:务实的、谨慎的、乐观的观点》摘译

2024-08-06杨辉

中国全科医学 2024年32期

【关键词】 人工智能;全科医学;英国;医疗服务

◆ 务实的观点

过去一年,人工智能(artificial intelligence,AI)突飞猛进地发展,人们既兴奋又发愁。全科医生对这种“闯入者”并不特别的陌生,毕竟“谷歌医生”已经在全科诊室存在了20多年。不过医生可能想知道AI的最新发展将如何影响他们及其病人。

AI的开发者通常是医学外行人,但他们特别关注AI在医疗保健领域的潜在应用前景。在医疗卫生技术人员日趋缺乏的当下,他们暗示“以AI替换医生”的愿景似乎并不遥远。这的确让人兴奋不已,因为AI开发者宣称他们可以为“无力支付医疗费用的人提供AI的医疗顾问”。政府也在饶有兴致地揣摩AI的助攻能力,是不是能通过数据和AI技术,让政府雇用更少的医疗保健专业人员,并同时给广大民众提供更公平的医疗服务?

早在50多年前,英国全科医生朱利安·哈特(Julian Hart),根据与理查德·多尔(Richard Doll)和阿奇·科克伦(Archie Cochrane)共同完成的流行病学研究,提出了著名的“反向服务定律”——优质医疗和社会服务的可获得性往往与服务人群的需求成反比。AI的发展很可能进一步地证实这个定律的存在。目前AI的学习材料和过程通常缺乏对社会背景的考量,因此有可能忽视服务不足群体(弱势群体、少数群体)的需求。

在全科医生看来,高质量的全科医学服务显然很难通过自动化/计算机化来提供。全科医学服务中的人文主义、沟通互动、伦理道德、公平无偏、社区归属、情感连接、同理关怀等,需要真实的人的情商和智能。正如爱因斯坦所说,可以运算的并非都是重要的,重要的事情可能是无法运算的。然而,AI科技行业不太可能完全意识到这一点,他们甚至以AI可以取代医生服务为业内荣耀(类似于萝卜快跑替换网约出租)。

我们已经到了一个关键时刻,医疗服务专业人员应该带头讨论AI并提出建议。AI应该是医学和健康服务的支持手段,而不是相反。AI不是全科医生的竞争者,而是让AI更像全科医生的助手。医护人员应该告诉AI开发者,好的医疗服务可以而且应该是什么样子。

AI取决于巨大的算力和庞大的数据。在后疫情时代,我们每天都能感受到COVID-19对健康的影响,特别是这次疫情推动了数字医疗及应用程序的迅速发展。在疫情高峰期推动决策的那些数据驱动方法,已融入到当下的医疗服务中,在许多情况下为人们带来了便利并改善了医疗服务。不过我们也注意到,这些数字医疗服务也存在设计选择不当和数据缺口问题,可能会造成或加剧病人使用服务的不平等。

数字和AI技术可以实现诸如越来越准确的风险评分和精准医疗等可能性。但是同时,数字和AI技术也带来了道德和经济挑战。例如,AI在基因组预测和精准医疗方面有潜在用途,这些用途本身并不涉及提供医疗服务,但可能需要新的临床基础设施才能实现更多好处。数字和AI可能会产生新的健康状态的观察结果,这些观察可以在不知不觉中进行,病人或居民可能对此知之甚少,甚至一无所知,他们很有限地或根本不能提供知情同意。

我们还看到更多病人生成的数据(例如来自智能手表的数据),这改变了追踪的方式,也改变了可跟踪的内容。这改变了病人与机构之间的关系,将大型科技设计的数据产品带入了诊室。我们医生不一定准备好了使用病人生成的这些数据,管理者也并不总是与病人建立足够的信任,探讨怎样使用病人生成的数据。

目前,围绕数字和AI技术的讨论大多集中在生成式AI上(generative AI),它可以生成各种各样的输出,例如图像、视频、音频或文本。在医学领域,尤其大语言模型(LLM),如果设计合理和使用得当的话,LLM可能为医疗服务专业人员带来实际好处。LLM是一种基于文本数据训练的生成式AI,可以对输入或提示生成自然语言响应。著名的例子包括Open AI的Chat GPT-4和谷歌的PaLM-E等工具。LLM非常擅长根据提示生成流畅的文本,它们可用于协助标准化任务,例如生成信件或总结现有的医疗记录。

◆ 谨慎的观点

然而,数字和AI新技术仍然受制于数据来源、数据质量和基础设施等方面的“老”问题。而且它们还能制造出具有自身问题的新的“麻烦”数据。特别是LLM,它通常接受大量来自互联网的文本训练,虽然LLM输出的文本可能非常流畅且令人信服,但LLM并不“知晓事理”,如果训练它的数据有偏见和误解或失德,那么它制造出来的漂亮文本也会美妙地呈现出错误,以及缺乏伦理道德的表达。我们都知道,互联网上鱼龙混杂,良莠不齐,在优质医学信息传播的同时,也充斥了大量伪医学、假医生、错误信息、偏见和误解,甚至无中生有的编造。通过这些“学习材料”的训练而生成的“医学”建议和诊断,我们需要谨慎使用,因为医疗服务环境是高风险的、需要高度信任的、依据严谨科学证据的。

在全科医学诊所,病人可能会拿着ChatGPT等工具生成的诊断,来找全科医生看病。在全科首诊的地方,全科医生可能是最先看到病人用ChatGPT生成医学报告的第一人。此类工具会正式警告不要用其生成的文本当作医疗建议。不过全科医生要意识到AI可以生成流畅的文本,但漂亮的文本并非可信和有说服力,警惕它可能包含的潜在偏见或错误。

全科医生给病人提供数字健康素养教育,在与病人交流时,承认AI可以给病人提供的支持,并有即时的参与感,同时要告诉病人保持警惕,让病人了解源数据的局限性,并理解AI的输出可取和不可取的地方。虽然AI模型可以针对特定目的进行“微调”,或者在回答问题时指出引用的特定来源,但AI可能以“天然智能”不会(或至少不应该)的方式提供虚假信息,或制造幻觉。

◆ 乐观的观点

理想状态下,从长期的愿景看,AI技术将增强全科医生的服务。数字和AI技术将支持对病人基本观察结果和重要数据的整合,并将其与最新的疾病治疗证据、实际的实时证据联系起来。数字和AI技术还将生成处方、提供病人教育信息资源、设计服务路径,以及安排临床辅助检查。这会让全科医生有更多时间与病人相处,提供更连续的护理,使医生与病人之间的互动更加有意义和有效,为看诊过程中身体、心理、社会和精神因素的微妙、敏感的相互作用留出空间。此外,至关重要的是,对于那些无法与AI技术互动,或可能需要更密集的真人互动的人来说,医生将有更多时间和能力为他们提供所需的个性化关注和支持。

要实现这一目标,我们还有很长的路要走。不过,由数字和AI技术支持的更高质量的全科医学服务是完全有可能实现的。要实现这一目标,显然需要先迈出第一步。在技术方面,我们已经反复地得到教训:我们首先要充分了解要解决的问题,而不是把新技术视为灵丹妙药。AI本身并不解决公平问题。

对于医疗数字和AI技术,可能要从更简单的问题入手,比如那些不依赖临床数据的,或者对病人影响不大的文书工作。让医护摆脱文书工作,以便让医护人员能腾出更多时间与病人沟通互动,还可以让全科医生和团队致力于了解和满足不同人群的需求和服务。从这个角度看,数字和AI技术是可以助力全科医学服务的,它能帮助医护回归到与更多真实的人(而非与电脑和文书)的关系阶段,这对于实现高效的、安全的、可及的全科医学服务愿景是至关重要的。全科医学的愿景是公平和公正地分配医疗资源和健康收益,而不是扩大“反向服务定律”。为了实现这一目标,全科医生要对新技术进行微妙地调整,以纠正数字和AI带来的潜在偏差。

当AI还不能疗愈“垃圾进、垃圾出”的痼疾时,关键的还是要清洁、修复和维护高质量的医学信息。建设良好的数据基础设施、持续关注数据质量和完整性,对数字无法捕获的必要内容的采集,都是新信息技术有效支持全科医学服务的必不可少的基础,没有这些,其余的事情就无法实现。

除此之外,还有许多悬而未决的问题和值得关注的领域。只要有适当的资源和医疗服务的正确领导,就可以让数字和AI发挥真正的潜力,改善医疗服务工作,也改善医护人员的工作和生活满意程度。

(摘自:STOKES-LAMPARD H,MACHIRORI M,BENNETT F. AI in general practice:a tale of pragmatism,caution,and optimism[J]. Br J Gen Pract,2024,74(744):295-296. DOI:10.3399/bjgp24X738525.)

(摘译:杨辉,澳大利亚Monash 大学)