APP下载

ChatGPT应用于医学伦理教育的前景及建议*

2023-11-27李晓洁

中国医学伦理学 2023年10期
关键词:伦理学伦理医学

李晓洁

(对外经济贸易大学马克思主义学院,北京 100105)

20世纪50年代以来,自然语言模型持续发展,但直到近十年,深度学习技术和大数据技术的发展才取得明显进步。自然语言处理技术的发展延续了Gartner技术成熟度曲线:在技术萌芽期(innovation trigger)因其崭新的概念会引来不少媒体和业界的关注,到期望膨胀期(peak of inflated expectations)多种多样的聊天机器人产品纷纷涌现。2020年,聊天机器人进入低谷期,甚至有人将其称为“人工智障”。而2022年11月ChatGPT面世,聊天机器人相关技术进入稳步爬升复苏期,被视为人类进入“AIGC”(artificial intelligence generated content,生成式人工智能)时代的标志。

ChatGPT是OpenAI 开发的自然语言处理模型,它使用大型数据集生成对查询、反馈和提示的文本响应。ChatGPT在教育领域中可应用于辅助教学设计、课后辅导、精准解答学生疑问等。ChatGPT代表着奇点的临近,既为医学教育、医学伦理教育等带来了契机,但也同样会受制于技术逻辑导致的不公平、歧视、自主性丧失等问题。基于此,本文尝试探讨ChatGPT应用于医学伦理学教育中的前景及其存在的挑战与建议。

1 ChatGPT在医学伦理学教育领域的应用

ChatGPT发布以后,从GPT-1到GPT-4,从语言输出到视频、图像、文本等复合输出方式,ChatGPT脱离了传统技术的线形发展模式,嵌入到教育的系统生态中,形成新的人-技术关系。传统的以教师单方面传授课程内容的学习模式,转变为学生主动获取知识和自主解决问题。学生提出问题,与ChatGPT对话,问题能够随时获得反馈,在此过程中提高对课程材料的兴趣,增强对课程内容的主动性和信心。

医学生的学业繁重,需要兼顾医学理论学习和临床实际训练,尤其进入医院实习后,写病历是非常重要的任务,往往占据较长时间。ChatGPT可用于生成患者病史摘要,使医疗记录保存流程更加简化。医学生可以利用 ChatGPT 自动总结关键细节,例如症状、诊断和治疗,并从患者记录中提取相关信息。需要指出的是,病历是对患者个体疾病和综合状况的描述,ChatGPT的自动生成功能无法识别患者疾病中的个性化部分,继而可能影响到患者的治疗。ChatGPT可以通过提供提醒、剂量说明以及有关潜在副作用、药物相互作用和其他重要考虑因素的信息来帮助管理患者药物[1]。它还可以分析大量患者数据来识别符合试验资格标准的个体,从而帮助临床试验招募。

教师可以在ChatGPT的协助下完成课程大纲编写、制作教学PPT、推进差异化教学,提高和改进教学效率。拉希姆扎德等[2]在《美国生命伦理学》杂志发表的一篇文章中,通过输入问题和对话的方式展现了ChatGPT在对医学伦理学案例中的核心伦理学观点和概念总结的优势,在对剖宫产涉及的孕妇及胎儿权益进行权衡的同时,学生们从中可以感受到如何避免片面维护一方利益,协调不同的伦理学原则,发现其中隐含的价值冲突。教师可以将ChatGPT作为虚拟教学助手,评估医学生临床技能[3],为学生提供全天候指导咨询,减少教师课程辅导工作量,使其能够将时间和精力集中在学生实践技能的培训等重要方面。

ChatGPT与教育主体(教师、学生)之间建立起一种交互关系,技术隐居到背景层面,教育主体不是将ChatGPT作为一个客体去关心它,而是将其看作是感知世界的工具。正如球拍扩展了人击打球的角度和范围,ChatGPT在医学教育中也扩展了学生感知和认识知识的范围,作为技术的ChatGPT成为身体的一部分,人们通过技术获得对世界的知觉。在此过程中,人与技术成为一个整体,人在改造客观世界的同时,技术也对人进行了改造和技术化,与马克思主义哲学中的异化理论类似,技术不知不觉通过“内化方式”改造人们认知。

2 ChatGPT在医学伦理教育中的应用和伦理挑战

ChatGPT给医学伦理教育带来风险的根源在于医学伦理学涉及我们对待生命方式的道德层面思考,所以与人性尤其相关,教师不仅是专业知识的传授者,也是充盈着人文精神的育人者。而ChatGPT本质上是一种算法,而非一个道德实体,其对决策结果的伦理判断能力不足,缺乏伦理意义上的算法描述,因而它无法带领学生进行人类和文化本质的生命伦理学讨论。

2.1 学生独立思考能力可能被降低

ChatGPT具有快速和全面的搜索能力,可以在学生检索医学伦理学文献方面提供协助,还可以基于不同算法整合数据回答学生的学术疑问。科技的进步给学生提供了强大的行动力,于是,学生可能形成“ChatGPT万能”的错误认知,将ChatGPT赋予神圣地位,一切医学伦理学问题都能够从ChatGPT那里得到解答,工具理性无限膨胀的后果就是人的本性被压制,人失去了对工具批判反思的能力。

一方面,伦理问题的识别需要辨别能力和批判性思维能力。如果医学伦理教育的目的在于让学生学习医学伦理学基本概念知识,并掌握在实践中分析伦理学问题的工具,那么ChatGPT可以随时随地帮助他们分析医学伦理学难题,然而,分析这些难题的前提在于学生有发现问题的能力,因为ChatGPT本身不具备独立思考和批判思维的能力。如果学生过于依赖机器学习给出的结果,那么只能是陈词滥调和老生常谈,分析和批判性思维得不到发展。

另一方面,对ChatGPT的依赖也会助长学术不端和作弊。在一项研究中,ChatGPT被要求使用发表在 JAMA、《新英格兰医学杂志》、BMJ、《柳叶刀》等著名期刊上的部分文章来生成 50 份医学研究摘要。由此产生的文章随后接受了抄袭检测软件、人工智能输出检测器和一组医学研究人员的审查,结果发现,ChatGPT 生成的摘要通过抄袭检测软件的检查,原创性得分中位数为 100%,表明未检测到抄袭,而 AI 输出检查器仅识别出 66% 的生成摘要[4]。

大多数人更愿意选择捷径,学生如果使用ChatGPT来完成医学伦理学论文或其他书面作业,知识和能力并不会得到相应增长。富克斯[5]提到了医学教育中能力发展的重要性,并讨论了学生获得高阶思维技能(例如批判性思维或解决问题)的必要性。在将ChatGPT“拿来”使用的同时,如果缺乏必要的反思精神,那么将背离了医学伦理教育的初衷——“理性”的智慧力量。

2.2 ChatGPT无法教会学生前瞻性和创新性思考

医学伦理学往往需要研究某一技术(如基因编辑技术、克隆技术等)的发展给人类社会产生的影响,而这些技术是在相当广泛的文化背景中实现的,通过医学伦理教育,医学生了解未来生物医学技术的可能性和不确定性,探讨不同社会文化如何看待这些可能性,作为一名医生和研究人员具有哪些道德责任和义务,并且学会对道德判断的原则和基础进行思考。对技术伦理合法性的讨论必须具有前瞻性,并且要适应多样化的文化语境,而这些能力是ChatGPT所不具备的,因而也无法教授给学生。ChatGPT可以针对特定问题提供相关和基本的医学伦理学分析框架,但缺乏评估和批判性讨论这些理论和框架的能力。虽然学生可以通过与其互动产生创新性观点,但这种思考能力本身,还是需要学生通过医学伦理学课堂获得。

ChatGPT系统的准确性在很大程度上取决于训练数据的质量、多样性和复杂性,以及学生提供的输入问题的质量。ChatGPT建立在海量数据之上,从不同角度解答问题显然存在不足,可能传播误导性和不准确的内容从而引发制造错误信息的担忧。比如医疗出版中错误信息的潜在传播可能对社会带来重大危害[6]。

拉希姆扎德等[2]与ChatGPT的互动表明:ChatGPT医学伦理案例分析的框架基于的是比彻姆和邱卓斯的四原则理论和美国的《田纳西健康和安全法典》,而没有涵盖其他文化语境中特有的医学伦理学分析框架和相关政策、法律,如儒家思想为代表的美德主义理论和中国相关政策与法律。如果我们将ChatGPT应用于医学伦理学教育,将可能导致学生对于医学伦理学中相关理论和法律认知缺乏本土认识和理解。ChatGPT为学生提供的个性化推送可能会产生“信息茧房”效应,学生所获得的知识会局限在一定范围内,被智能遮蔽。

2.3 技术对人规训,使医学生成为单向度的人

在医学伦理学教育活动中,师生关系至关重要。正如列维纳斯指出:“在道德中,关系是先在的;道德不是实体,而是体现在一种优先的关系中。”[7]列维纳斯强调了在道德中“关系”的重要性,ChatGPT能快速回答学生提出的问题,其知识储备远远超过教师,然而它不能取代人际互动在医学研究和医疗服务中的价值。当真实世界“在场”等人之间的互动变为“虚拟”与人在数字空间中的互动,人的真实关系被人技之间的关系取代,从而使教育主体之间逐步孤立和隔绝。医学伦理教育需要培养医学生对患者和受试者的共情能力,因为患者需要情感支持或细致入微的解释,需要个人关注、共同探讨和他人反馈,但ChatGPT 缺乏感知人类情感的能力。如果学生过度依赖人机交流,会削弱与患者在社会和心理层面的关联。技术可能将主体奴役为“单向度”(one-dimensionality)的人,“单向度的人”是指工业社会压制了人的批判性和自主性,产品操控了人们的思想,给人们带来固定的习惯和态度,导致单向度思想和行为模式的出现[8]40。最终可能如科林格里奇困境(Collingridge dilemma)[9]一样,技术成为教育的一部分,以至于对它的控制十分困难。

2.4 可能产生对医学伦理问题分析的偏见和歧视

ChatGPT应用于医学伦理教育需要有大量的医学伦理学文献作为数据源进行训练,然而当前并不可实现,首先是成本的投入问题,大多数医学伦理学杂志的论文需要订阅和购买,并不像是网络资源那样免费可得,这就增加了开发成本;其次是语言问题,需要整合不同国家、不同语言类型的论文进行训练,而人口少的国家和人口多的国家相比发表物数量不占优势,小语种医学伦理学论文与英语的发表物相比数量不占优势,数据上的悬殊不可避免会造成结果的偏差。

如果用于ChatGPT机器学习模型训练的数据存在偏差或者算法本身是以固有偏见的方式设计,那么ChatGPT输出的结果就可能存在偏见。研究表明,人工智能算法所依赖的语言模型(language model)可以在其输出中复制和放大性别与种族偏见[10]。虽然OpenAI公司没有明确公布ChatGPT用于训练的数据来源,但当前大部分Transformer大语言模型依赖于英文数据源,比如Common Crawl的大型数据集,这也意味着英文数据源中所隐藏的偏见和歧视会伴随着与使用者的交互带来歧视。特别是在医学教育领域,可能导致学生接受不准确的或歧视性信息,产生特定的思想、信仰和价值观,无法容许不同观点和经验的表达,进而系统性地危害个人权益。这种“系统性歧视”(institutional discrimination)并不是一种故意行为,而是在ChatGPT数据以及算法的产生过程中内嵌于其中。而学生由于无法对ChatGPT中的数据进行批判性分析,因而也无法挑战和改变歧视性观念[11]。如果仅仅依赖人工智能提供的结果,可能会导致医学伦理学思维的贫乏,降低医学生对医学伦理问题与挑战的识别和鉴别力。

2.5 公平问题

ChatGPT现有程序是面向用户免费提供的,OpenAI已确认免费使用ChatGPT是暂时的,该产品最终将被货币化[12]。技术、知识、资本的深度融合赋予了优势群体更大的权力,正如“琼斯海滩”的案例,弱势群体尤其是黑人因为需要乘坐公交车去海滩,但公交车高于桥梁,导致无法进入海滩[13]。技术的设计者的种族偏见嵌入到技术装置的设计中,表面上所有的人都能从技术进步中受惠,然而实际上掌控技术权力的群体操纵着利益的分配。凯尔纳等[14]认为在教育中信息技术被资本家垄断,因而产生了技术资本主义侵蚀教育的潜在风险。技术与资本内在的勾连,以更加隐蔽的面貌呈现于个体面前。资本的逐利性使企业更容易放任ChatGPT对公众权益的侵害,比如教育公司使用ChatGPT互动收集的数据进行精准营销,从中获取巨大利益。

即使同一主题,ChatGPT 也可能会根据用户提问方式(如措辞)产生不同的结果。学生由于医学伦理学知识水平的差异,在采用ChatGPT作为工具进行学习时可能出现差距。用户与 ChatGPT 的交互方式是有效使用 ChatGPT 的一个组成部分,因此,思考如何获得最有用的输出,重点研究有效使用和管理 ChatGPT 所需的能力是什么,以及这些能力应如何培养等对于推进人工智能时代的学习效率至关重要。

2.6 无法结合具体文化给出道德判断

医学伦理问题的探讨与具体的地域、文化,尤其是具体的卫生保健体制密切相关。比如在西方社会文化中,尊重患者的自主权是不可置疑的,但在中国社会文化中家庭决策具有重要地位,因此个体的自主决定就会以完全不同的方式被评价。ChatGPT通过机器学习数据库中的数据工作机制决定了其无法应对不同文化中多样复杂的道德判断,并对此给出针对性的回应,并且也无法对难以预见的、有潜在长期应用效果的、生理心理和社会意义上的技术发展给出合理的道德判断,这也将影响学生相关方面能力的形成。

3 建议

道德调节是一种基于义务而采取的行为方式。它要求人们对自身和他人承担道德义务。在日常生活中,我们遵循着一系列由特定社会规范所规定的行为准则来指导我们的行为。当一种新技术出现时,伴随新的伦理问题和挑战,而现有的伦理规范,往往无法应对新技术带来的负面影响。但从本质上来说,导致ChatGPT技术在应用过程中的伦理挑战的根源在于技术理性背离了价值理性[15],马尔库塞认为技术理性内在于技术结构的本身,正转变为技术拜物教,作为意识形态控制着人类[8]116。而在价值理性中,人是最终目的,所面对的一切问题都是非工具性的,即什么样的事物有益于实现人类美好的生活。

3.1 基于师生关系的改变探讨不同责任主体的角色划分与建构

ChatGPT应用过程中会出现师生身份感和认同感的缺失。在伦理建构的过程中,教师尊严始终是其中的原点,芒福德指出,对于人的选择和道德自律,现代社会如何强调都不为过[16]。面对技术与教育失衡所带来的困境,教师要具备先行探索的意识,迅速调整自身的角色定位,回归教学主体的主导地位。在ChatGPT的辅助下,教师有了更多自由时间,要将更多的精力投入到智能技术无法企及的价值教育、道德教育以及创新教育中。

3.2 培育学生敢于思考和质疑的能力

在人工智能时代,医学伦理教育应引导学生打破固有思维惯性,激发学生独立思考和质疑的能力。在医学伦理教育中,需要培养学生对于伦理规范性的判断,尤其对于医学生而言,能够针对患者是否应当有自主权、流产是否合法、知情同意的重要程度等提出不同于医学伦理学家的不同角度的判断,因此生命伦理学教育是培育医学生为其所主张的忠于人类价值需求的任何规范性观点进行辩护的能力。所以在人工智能时代,医学伦理学教育职责就是培养学生敢于质疑、思考和进行伦理判断的能力。比如识别ChatGPT对特定人群的歧视或者偏见,避免ChatGPT中嵌入的偏见和歧视增加社会差距并对某些社会群体造成伤害等。

3.3 基于智能教育未来发展探讨前瞻责任

前瞻责任要求人要对其行为导致的未来结果负责,具备及时应对智能技术与教育教学整合的风险与可能性后果的能力至关重要。医学伦理学教师需根据生成式人工智能技术特点,思考与审查智能技术与医学伦理学课程教学、教育评价等方面是否具有特征契合性。医学伦理学教师可以通过为作业提供明确的指导方针和期望,并强调学术作弊的后果来减少作弊的可能性;还可以通过设计结合批判性思维和创造力的评估评价测试方案,对学生的学习效果进行评估。

本文提到的涉及ChatGPT应用于医学伦理教育的伦理挑战虽然多是从国际视角分析的,但可以预期的是,该技术也将很快影响我国,不管是管理者、教师还是学生,都不得不面对以ChatGPT为代表的生成式人工智能带来的教育观念的转变,建立人工智能时代对于医学伦理教育的新的理解。人工智能时代,医学伦理教育的任务不仅是基本伦理学概念、思想的介绍,一个更迫切的任务是引导学生理解实现道德保护所必需的社会的、文化的和政治的前提,评估ChatGPT为代表的智能革命带来的相关张力和风险,以及考虑有效的道德保护的途径。

猜你喜欢

伦理学伦理医学
《心之死》的趣味与伦理焦虑
开拓·前沿·创新与学科建设——简评《中医生命伦理学》
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
医学的进步
预防新型冠状病毒, 你必须知道的事
护生眼中的伦理修养
伦理批评与文学伦理学
医学
医学、生命科学类
医改莫忘构建伦理新机制