APP下载

智慧医学的意义解读、风险研判及其防范路径*

2023-12-15黄成华

中国医学伦理学 2023年12期
关键词:伦理医学人工智能

黄成华

(广东医科大学马克思主义学院,广东 东莞 523808)

“人工智能是以基于大数据的复杂算法为核心,以对人类智能的模拟、延伸和超越为目标的高新科学技术。”[1]表征为“脑机联结”形态的人工智能,作为人类心智的“拟像物”和“倍增器”,实现了人类心智运行过程的延展化、外在化和对象化。人工智能不是悬置在外的技术,而是深度嵌入的技术,其作为人类心智能力的“升级版”,深化了机器替代人的历史进程。基于算力平台的人工智能促进了机器的智能化,与人脑智能在功能上尽管同属于信息加工,但其功效显然已不可同日而语。人工智能发展出的信息加工模式和虚拟化的认知特点,相对于人类心智而言,是一次从实在到虚拟、从分散到集成的质的飞跃。人工智能在技术内容上,混杂了智能算法、自然语言处理技术、虚拟现实仿真技术等;在身体体验上,融合了视觉、听觉、触觉和嗅觉等多重身体体验,再造出全新的沉浸式体验方式。人工智能与新兴人体增强术虽然是不同维度的“人机融合”,但都是立足于克服人的自然身体的局限性,都是对人机协同进化、相互贯通的表征和确证。

伴随着人工智能触角的广泛延伸,人工智能也开启了对医学深度嵌入的进程,在提高临床诊疗时效性的同时,也在不断重塑创新医疗的生态环境。换句话说,医学成为人工智能新的生长点,而人工智能也成为推动信息医学发展成智慧医学、催生医学新兴业态的“催化剂”和“触发器”。尽管说人工智能向医疗领域的扩张过程依然是技术嵌入和赋能强效的过程,但是,人工智能与传统技术相比不在一个等级层次上,而是科技发展从浅度向深度发展时出现的颠覆性技术形态,致力于在医疗领域建构出数据驱动的虚拟世界,俨然不是简单的技术升维。人工智能正在参与打造全新的医学服务网络,强化医学的服务功能,扮演着人类智慧“代言人”的角色。在人工智能基础上生发出的智慧医学,运用数字化平台,使用复杂的精心编写出的算法模型,对从患者身上采集到的可用机器度量的医疗健康信息进行数据加工,并最终通过算法推荐和智能分发临床决策,以提供精准医学服务。其中自动生成的临床诊疗方案,悄然间成为大数据驱动下的智能化决策的结果。

1 智慧医学的意义解读

智慧医学的发展源于人类对疾病的发生、发展、转归等规律的认识欲求。智慧医学具有典型的空间连接功能和数据整合功能等,从真实世界和虚拟仿真世界两个维度来优化医疗实践。人工智能不但开辟出虚拟的隐形空间,充分整合和重组现实空间和虚拟空间,而且要求医生具有赛博格视域,为“微空间”的涌现这一崭新格局提供了技术上的便利。人工智能的系统性特征使得貌似互不相干的数据也具有了高度黏合性,显现出潜隐于数据之下的丰富意义和价值内涵。

1.1 空间连接下的空间嬗变

“随着智能技术对碎片化的虚实空间进行重组,实体空间与虚拟空间重新聚合生成虚实并存的社区,且虚实场域因彼此密切互动与相互交织而形成了新的社会关系。”[2]在智慧医学平台的运作中,医生利用数字化平台拓展数字化空间,开辟出有别于现实物能空间的虚拟信息空间,在打破地理空间壁垒、突破空间阻隔、增强空间弹性的同时,也实现了空间增维。如果说现实物能空间是原生空间,那么虚拟信息空间则是次生空间。智慧医学把实体空间和虚拟空间融合在一起,实现了无缝对接,除了有线下的实体医院,也有线上的互联网医院、数字虚拟医院,如一张大网一样将所有人纳入其中。

建构“微空间”,是人类在智能时代面临空间侵袭而采取的逆势之举。“微空间”作为崭新的空间形态,是对空间上的功能细分,将“物以类聚人以群分”发挥到极致。人工智能对医学的嵌入,不但造就出脱域化的医患交往模式,而且促进了患者之间的联动。智慧医学帮助患者建立集学习、交流和培训等于一体的多功能社区。这一基于某种疾病的虚拟“外挂”空间,为病友及其家属的自然聚合提供了技术上的便利,将处于潜隐和蛰伏状态的患者关系维度利用起来。就此而言,“微空间”是在智能变革的技术滋养下诞生的,表征出个体具有建构自发秩序的内生能力,体现出人类对人工智能的适配能力。基于系列App、微信公众号、医学健康信息数据库等的“微空间”,具有无限的空间伸缩能力。由此可见,智慧医学中的虚实空间的连接和“微空间”的拓展,在不断重塑医学服务形态、促进医学服务主体的多样化的同时,也在重塑医患互动和患患互动,推进医患命运共同体建设。

1.2 数据挖掘下的价值释放

数据驱动下的医疗革新,从经验医学、技术医学发展到智慧医学。相应地,治理类型也发生着从经验治理、技术治理到数据治理的变更。数据是数字环境对实体世界的衍射和“投喂”。在单个个体上萌生的数据貌似没有什么价值,但是,无数个体的天量数据就会成为有待开发的数据“富矿”,其价值非同一般,不容小觑。一旦时机成熟,这些数据的潜在价值就会被释放出来。这就是基于大数据存在样态的信息的价值所在。人工智能作为一种数据装置,利用数字留痕、跟踪和回溯技术,能够把不同个体在不同诊疗时空领域中产生的、处于离散和割据状态的数据信息捕获、整合和串联起来,形成集聚样态的数据流;通过数据分层、数据分类等信息编码手段,建立起便于统计和分析的多种多样的数据库和样本库,从中挖掘和整理蕴藏在数据中的有用信息;不断促进数据容量的扩容增量,保持数据的及时更新,继而促进医学的数字化转型。这就使得数字技术具有“新基建”的韵味。数字化技术的渗透,改变了信息单个存在的孤立样态,使得信息越来越以大数据的形态存在。而数字化技术的使用过程就是数据领地不断扩大、攻城略地的过程。

医学领域的数据流也是重要的数据流之一。智慧医学就是把医学信息通过数字编码整合成医学大数据,并运用人工智能来处理海量的信息数据,提取出蕴藏在医学大数据中的有用信息。智慧医学的发展确认了医学信息的资源秉性。工程师要先收集一些数据作为对人工智能进行训练和预实验的数据集,从中总结出这类疾病的共同特点,并依据这些共同特点确立起相应的筛选标准,进行算法建模。尔后还要开展回顾性叠加前瞻性的临床研究,以进一步验证该算法模型的有效性和准确度。通常来讲,只有数据的量足够大,才能提高算法和智能软件的安全性能。就此而言,人工智能的强大依赖于强大的数据链产业生态体系。基于此,国家正在不遗余力地搜集种类丰富的海量健康医疗大数据,并实现数据在数据库的长期驻留。智慧医学的云服务平台不但解决了数据存取低成本的问题,而且实现了数据的可追溯化,在时间追溯上能够精准到电脑时钟的程度;不但通过数据提炼术把被遮蔽的数据间的关联意义凸显出来,而且利用数据的聚合效应来预测未来。样本数据尽管具有统计学功能,但在预测功能上则显得弱化。而基于大数据的云计算具有预测功能,则日益凸显出其未来向度。显然,基于大数据的人工智能算法,其结果在信度上远甚于样本抽样。这种全样本的量化分析和研究,更加精细入微,能够为医学服务从大众到分众再到分体的转变提供技术上的支撑。这是从有别于基因医学的层面上来诠释精准医学。

2 智慧医学成为典型的风险综合体

智慧医学的兴起固然有利于强化人类信息处理的功能,继而进行医疗资源的高效分配,但是也在医疗领域积蓄新的风险,尤其对完善医学伦理治理体系产生巨大影响。

2.1 对医生去主体化的倾向

传统的医疗领域对医生有较强的依赖。医生直接参与到临床诊疗实践中,不但诊疗环节众多、操作流程繁琐,而且须臾离不开真实世界中的医生。在互联网医院的线上问诊平台上,已经开始大量利用问诊机器人开展问诊服务。这构成了智能机器人诊疗体系的重要一环。“传统医患关系因此正被迅速异化为患者-机器-医生多元关系。”[3]在智慧医学的应用场景中,智慧医学对传统诊疗方式的效仿、增强、替代甚至超越,引发对医生主体性作用的削弱。换句话说,人工智能作为一种新兴技术,很有可能会改变过往人与技术协作共生的关系。随着医学智能化程度的提高,医生甚至会被医疗机器人所取代。医生主体性地位的颠覆,意味着在医疗领域出现了可怕的“机器排挤人”的现象。在医疗领域,随着从经验医学到技术医学的转变,医生的专业化程度越来越高。在医患之间有着非常明显的信息不对称现象,这一横亘在医患之间的沟壑很难被跨越。而所谓的患者“久病成医”,在高新医学时代可能性微乎其微。这使得医生相对于患者的知识优势和技术优势很难撼动。但是,智能体本身所固有的运行规律可能动摇医生的主体性地位,引发更深层面的医疗困境。

传统对医学模式的理解是基于患者维度的,无论是生物医学模式的生物属性,还是多元医学模式的多元属性,而医生的角色则是恒定的;智慧医学对医学模式的理解是基于医生维度的,因为智慧医学的兴起会重塑出“机器主体性”,动摇医生的主体性存在,加速医生的离场。前者受经验、知识和技术的驱动,与真实世界相关联,而后者则受数据驱动,与虚拟现实相关联,大部分操作流程都是被遮蔽在视觉范围之外的。“人工智能的介入,让传统的医患模式逐渐演变成‘医-智能医生-患’新型的医患关系模式。”[4]非但如此,工程师的介入更加强化了诊疗领域的扑朔迷离。

表1 智慧医学的医患模式

智慧医学中服务主体的变化,不但引发了医疗特征从现实到虚拟的变化,而且促使了虚拟化从客体向主体的进发和延伸,甚至把传统的医患共同在场转变成医患的共同离场,变传统医患的直接信息交互为间接信息交互。在智慧医学的应用场景中,由于智能体及其背后的工程师的介入,发生了医生的去主体化倾向。“人工智能的出现使得人类的主体性受到挑战,强人工智能极有可能成长为另一种主体或曰另一个自然的立法者。这就意味着以往单向的存在论有可能变成双向的存在论,甚至是多向的存在论。”[5]主体的多元化和医生的离场化发展趋势,也带来了界定责任主体的困难。处于技术不确定性的人工智能出现了差错,应该由谁来纠正和校对?因误用人工智能引发的事故,由谁来承担?这种医疗差错是由智能算法测试中的数据谬误引发的,还是由智能算法应用中的数据采集谬误引发的,抑或是由算法本身的不科学引发的?在界定引发医疗差错的责任主体时,极有可能存在着相互推诿和扯皮的现象。

2.2 对算法效用的质疑

人工智能使用算法这一典型的云端工具,不但标准严苛、操作精心和程序完整,而且形成了纷繁复杂的学习理论。“云计算则以典型信息及其处理共享的方式,极大地强化了单纯大数据存在的割据状态,为信息文明基础的彻底整体化奠定了基础。”[6]智能算法虽然实现了存储于不同系统中的数据的有机关联,但人们依然对智慧医学怀有担忧之情,聚焦点主要集中在其安全性和有效性之上。算法就是通过资料搜集、参数提炼、代码书写和程序预设,运用大数据建构出一定的算法模型,并以此模型为基础进行不断的参数反演、数据加工、信息筛选和数据同化等,以形成自动化、集成化的数据处理模式,提高医疗决策推荐的自动化程度。算法既可以造福于人,也可以加害于人。对算法的风险评估已上升为行业的痛点和难点。

2.2.1 数据失真引发的算法失准

如何辨识提供给算法进行有效性训练和验证的医疗健康信息的真伪和优劣?医疗健康信息的输入是由分散在众多医疗机构的医务人员完成的。他们很难说是按照完全一致的标准进行数据信息的采集。在药物的多中心临床研究中,申办方往往会指定一家相对科研实力强的医疗机构担任组长单位,进行多中心的协调工作。组长单位的主要研究者(principal investigator,PI)甚至会对其他研究中心的研究推动进行指导。申办者、临床研究现场管理公司(site management organization,SMO)、合同研究组织(contract research organization,CRO)还会向各研究中心派遣临床研究监察员(clinical research associate,CRA)、临床研究协调员(clinical research coordinator,CRC),以保证各中心遵循同一研究方案开展临床研究。而在医疗健康信息的采集中,往往缺乏对低质劣质甚至虚假的信息进行核查把关这一关键性环节,导致同一种疾病的相关信息也很难在不同医疗机构间进行自由切换。医疗健康信息的正确采集是发展智慧医学的原生态。数据获取上的偏倚性会直接影响到后续的算法测试、临床决策推荐等。如果说用于算法验证的数据采集出现谬误,是算法操作中的一次失真,那么,用于算法应用的数据采集出现谬误,则是二次失真。这就要求算法工程师和医疗系统的工作人员携起手来,打破数据屏障,促进数据自由有序的流动,以此提高数据交换在不同系统中的切换能力。

2.2.2 数据单一性难以契合多样性的临床场景

数据的单一性与患者身体状况的多样化之间的矛盾凸显。用单一性来裁剪多样性,本身就意味着采集到的数据不够精准,不具有应用场景的广泛性。如此一来,基于此方式采集的大样本、大数据等发展起来的人工智能如何取信于人、以理服人?同样,将智能算法的推演结果推荐和顺延到医疗场域中,就是把复杂的身体状况简单化,将蕴含多重属性的身体化约为以代码和符号为表征的数字模型。由此可见,无论是用于验证算法的一端,还是用于算法应用的一端,都是表征着“多”的场景,而与数据的“一”有着不同的质的规定性。“医学人工智能应用不同于传统医疗器械,其功能实现不仅依靠既有的软件代码,更需要真实世界数据以及针对实际临床场景设计的算法来实现。”[7]

2.2.3 工程师的局限性导致的算法漏洞

从理论上来讲,算法尽管是工程师匠心研究和设计出来的,也不可能达到理论上绝对完善的程度,而是总会存在着被算法所忽视的特殊情况。这就是因技术限制而引发的算法漏洞。人工智能运用算法对数据进行加工,但不可避免的是也存在着算法偏差甚至是算法偏见。算法是按照研究者的思路和标准设计出来的,但是这种思路和标准不一定契合大众的思路和标准。算法的程序设计人员在价值取向上的偏颇,会引发算法歧视,包括阶层收入歧视、性别歧视、族群歧视等。“医疗领域的算法歧视可能包括:针对低收入人群推荐疗效欠佳但价格较低的治疗方案,诊疗措施受性别影响等。”[8]脱离应用场景、偏离大众认知标准的算法预测固然会出现“测不准”现象。发展到极端,就是人工智能与临床决策的对峙对垒。“人工智能不是万能钥匙,有其自身的机器属性与算法偏见。”[2]夹杂着数据失真、认知偏见和技术谬误的算法一旦被应用,必然会影响到数据的有效性。由算法漏洞、算法黑箱、算法歧视等推演的结果本身带有不稳定性,并不符合临床诊断所要求的精确性,安全隐患突出。即便是微小的数据偏差,也会影响到后续医疗方案的选择。况且算法还极有可能会被隐秘的权力资本操纵和驾驭,算法推荐也容易变质为算法主宰。权力资本通过对数据流的集中控制,来达到对人身的控制。这使得个体貌似在享受数字便利,并成为被医学所架构的存在,却实际上遭遇基于人工智能的算法社会的算计,陷入权力资本精心编织的数字牢笼。智能化的算法在控制能力和控制效率上更胜一筹。如何防范权力资本与算法的共谋?而一旦算法黑箱遭遇操纵,其结果更加匪夷所思。诸如此类的“算法失灵”引发的后果由谁来承担、纠正和追责?

鉴于社会还缺乏算法的性能与安全评价体系,难以保障数据输入和输出等数据处理活动的确定性,医学伦理委员会要督促研究者不能过于迷信式依赖人工智能,如同在对患者的检查中会出现假阳性或假阴性的结果一样,而要结合患者的临床症状进行综合判断,破除叠加在算法之上的盲从心理,防范人工智能的篡位和越权,确保人工智能与临床决策的空间张力。

2.3 对信息安全和个体隐私保护的难度加大

医疗领域每天都会衍生出大量的患者就医数据和医疗健康信息。医院成为汇聚健康信息的重要“节点”,无论是医生,还是患者,都成为信息采集和传输的“端口”。虑及算法的计算能力与所占有的数据容量呈正相关关系,医疗机构热衷于进行基于医学健康信息的高通量测序,筹建数字化云服务平台,打造成重要的“数据港”。这样既可以把数据信息即时提取、存储和分布到分门别类的数据库中,也能够监测分析医院诊疗全过程。

人工智能的研发机构希望数据资源能够始终保持敞开状态。但是,医疗健康信息已经被《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》(2021)界定为敏感信息,而受到重点保护。换句话说,维护患者的信息安全、保护患者隐私,已经成为法律的刚性要求。在算法的测试和应用中,个体的医疗健康信息有遭遇侵犯和泄露的风险。一方面,算法的测试需要涉及诸多患者的医疗健康信息;另一方面,算法的应用也会生成大量的医疗健康信息。所有的这些医疗健康信息都要进行隐私保护。通常,在人工智能的测试论证上,既要有回顾性的研究,也要有前瞻性的研究。在智能医学时代,研究者对患者的信息安全和隐私保护,是伦理审查需重点关注的问题域。如何切实维护好受试者的隐私,规约数据收集和使用的行为,以符合国家的法律法规和规章制度的要求,值得深究。“基于云端或者互联网的人工智能平台很易受到非法入侵和控制。”[9]精心筹建的基础数据库一旦遭遇数据泄密,不但会侵犯数据主体的隐私权,而且其引发的余波会给数据的当事人带来麻烦。尤其是,个体在数字世界的“裸奔”,可能只需要一次数据泄密就足矣。

2.4 对医学人文关怀的淡漠

智慧医学把医患双方的诊疗互动内嵌于人工智能的技术内核上,强化了他们对人工智能的依赖。智慧医学在弱化甚至取代医生主体性的同时,也弱化了医疗服务的人文化特质。看病求医的过程本身是医患互动过程,即对于医生而言,不但有知识和技术的输出,还有情感和价值观的输出。但是,人工智能量化一切的趋势会搅扰医患之间的人际互动,使得人机互动有后来者居上之势。然而,反观人机互动,在场景契合度上远不及医患互动。

医生往往通过在医疗领域的价值抉择来彰显其人文关怀。人工智能在专业性判断、简单性重复上可能会具备优势。而人工智能囿于机械化的操作,其方案推荐过程也缺乏医生的价值权衡和利弊比较的审慎明思,缺乏认知判断上的审时度势。这使得以机器人医生和护士、智能软件等为表征的智慧医学提供的服务,显得人情味不足。人工智能不具有道德认知功能,基于人工智能的医学服务,更多直面的是医学数据,难以彰显医生的临床共情意识和同理心,体现不出医患交往中的人文关怀、心理慰藉和精神抚慰。在生物医学时代,如果说“只见病不见人”的现象,是由于医生“物化”患者的思维方式引起的,那么,在智能医学时代,则是由于人工智能的机器属性引起的。从前者的人与物的关系颠倒为后者的物与人的关系,虽然形式不一,但是殊途同归,都造成对人性的盲视。缺乏个性化的医疗方案推荐,不但使得医学缺乏“温度”,而且使得医学叙事陷入古板、僵化和同质的困境。“在诊疗中大众是愿意接受有情感、有思想、能交流的医务人员还是与之相反的机器人,值得我们进一步深思。”[10]在医患关系紧张的时候,患者重构对医生的信任尚且困难重重,而在智慧医学时代,建构对人工智能的算法推荐系统的信任,更是难上加难。

3 智慧医学的风险防范路径

智慧医学在重新勘定技术与医学的关系维度时,也对医学伦理委员会的伦理审查提出了新的要求,并引发对医学伦理委员会审查能力的质疑和诘问。如何规避人工智能诱发的风险和挑战?“人工智能的风险包括:诊疗失误、产品缺陷、患者接受度低、行业标准缺乏以及监管缺失等。”[8]比如,基于算法黑箱的知情同意也不符合经典的知情同意的要求。个别医用辅助决策软件、智能医疗机器人等的确证性数据还仅仅来源于其他国家和地区,缺乏适用于本土的充足理由。“建立一套符合我国人群基本特征且具有可操作性的辅助诊疗类医学人工智能应用评估体系已成为迫在眉睫的关键需求。”[7]而智慧医学时代的伦理审查,不是对伦理原则进行简单的嫁接、生搬硬套就能够胜任的,也不能沿用传统的道德规范,而要促成传统解释框架的变更,采用与智慧医学相契合的叙事策略,把智慧医学时代医疗领域的鲜活案例与医学伦理学的抽象伦理原则相结合。

3.1 合理界定人工智能与医生的关系

由于人工智能具有机器属性,合理界定人工智能与医生的关系,就是要处理好人机关系。如现在的产前诊断和遗传病筛查,通常会运用医用软件进行辅助筛查。这些医用软件通常包括软件安装光盘和加密狗两个部分。为了验证该医用软件的临床性能,通常会使用患者就诊时留下的染色体图像来进行验证,通过对染色体识别排列进行关键信息的抓取。人工阅片的结果依然是金标准,是评价这些医用软件结果等效的重要参照。“‘人机交互’作为智能流通的重要环节,本质是人与机器之间进行的智能信息交互。”[11]人工智能将医学影像资料、化验单、检查单、生物标志物、治疗方案等汇聚成大数据。而临床诊疗结果则是基于大数据的自动生成。人工智能充其量是一种人工构造物,具有典型的机器属性。尤其是手术机器人之类的智能医疗设备的故障和风险,在没有充分依据能够规避时,医生为主、人工智能为辅的格局依然适用。随着智慧医学的发展,医生要从驾驭自身发展到驾驭人工智能。医院要开展人工智能方面的集训,督促医生提高驾驭人工智能的本领。医生要主动融入智慧医学所构建的技术环境中,与人工智能进行分工协作,将简单的重复性基础动作交给人工智能,将主要精力放在数据源头审核、过程审核、结果审核等复杂动作上。

医生主体性的逐步剥离和人工智能承载的“机器主体性”的渐次嵌入,是同一进程的两个不同的方面,始终伴随着不同主体间力量的失衡与平衡之胶着状态。人工智能也逐步拥有感触系统及深度的自主学习能力,不断提高算法的计算力。这种机器学习式的进阶有利于重构知识图谱,重新打造知识殿堂。而一旦高级人工智能具有运行上的交互性和决策上的独立性,具有自我感知和深度学习的能力,就意味着人工智能从医患之间的媒介性存在摇身一变成为离身性存在,成为医生的“继任者”。智慧医学就发展到利用软件分析身体传感器的无人诊疗阶段,借助于软件代码、算法设计和真实世界数据就能够胜任临床诊疗。伴随着人工智能从低级到高级的发展,人工智能作为机器也开启了从真实世界的模仿人到虚拟世界的替代人之进程,促进了传统医患面对面的互动场景中的医生离场,实现了从人的主体性到“机器主体性”的转变。

科学厘定和界分智慧医学背景下的责任认定,力求公平公正。医疗领域多重决策主体的出现,也带来了责任分配上的困难。因人工智能的瑕疵而引发的不良后果由谁来承担?因人工智能使用不当而引发的责任由谁来承担?“责任原则不仅包括事后追责,更关注前置性的风险管理,包括将风险评估的责任分配给每一个环节的参与者,包括科研人员、研究机构、相关企业、医院和医生个人。”[12]因为用于拓展医生诊疗能力的手术机器人,根据其智能化程度,可以区分为弱人工智能的拟主体、强人工智能的真主体,所以,笔者认为,在责任认定上还可以进一步细化。不同智能化程度的智能体在诊疗中的地位也是迥然有别的。在弱人工智能阶段,按照程序运行的智能机器人,并不具有自由意志及承担主体责任。此时的人工智能不能消弭医务人员的个人意志和精神思考,其相对于医生而言,还是一种“影子”般的存在。弱人工智能充其量还只能扮演辅助性的角色,只能被界定为辅助性的诊疗工具,而非越权的地位。反过来说,弱人工智能越俎代庖式的发展和应用只会引发灾难性结果。在弱人工智能阶段,医生依然是责任主体。医生还要明确告知患者,尽管在诊疗中有人工智能的参与,但医生还是会进行最终的技术把关,以此消除患者的疑虑。在机器人智能化程度逐步提高的过程中,医生的地位也在发生着由强到弱的衰变,直至医生决策权的完全让渡。在这一渐间性转变中,要保持医生与人工智能之间的动态平衡。到了强人工智能阶段,医生成为一种边缘性的存在,甚至能够被取而代之。机器人医生依据大数据进行把脉问诊、疾病筛查、方案推荐、行医开药、手术操作等,在这一流程操控中确认自身新的主体性的合法性存在。随着强人工智能作为新兴主体的涌现,驾驭把控医疗场景的权力由医生转移到人工智能手里,作为医工融合产物的人工智能就要形成具有约束力的伦理共治和依据适宜性原则进行分配的责任共担。“责任原则绝不仅仅局限在人工智能的研发领域,它同样也是对生产者、所有者、使用者的道德要求。”[1]

3.2 有效防范智能算法的风险

智慧医学时代,数据失真的风险不但会迁移到算法验证中,而且会蔓延到人工智能的方案推荐中。“政府部门需要加强包括医学数据在内的医学数据的监管力度,明确医学数据的使用范围和采集标准,敦促相关研究机构和企业重视医学数据隐私的保护工作。”[13]医学伦理委员会除了要积极呼吁相关管理部门制定医疗健康信息收集和保管的统一标准外,还要对人工智能的算法进行有效性、适用性等审查,以高品质的质量要求来确保人工智能的安全可靠性,防范因算法失效引发的伤害。

医学伦理委员会要对算法的临床研究、准入和应用分别进行评估,实现连续性的动态监管。伦理审查的难点之一就在于,即使算法设置有缺陷,也不是医学伦理委员会的委员所能够发现的。医学伦理委员会对算法的介入充其量是浅层介入、有限介入。算法程序作为一种不公开的黑箱,是由其商业秘密性和专业性等共同决定的。即使算法程序公开了,其专业性程度也让普通民众望而却步。非专业人士缺乏辨别不同算法优劣的能力。即使对于同一种疾病,可能也存在着不同的指南。考虑到智慧医学具有多部门的协作性,医学伦理委员会要审查医院的门诊部、住院部、护理部、信息科、医务处、科研处、临床研究中心等有无进行相应的数字化转换的操作。考虑到医学场景的复杂性,医学伦理委员会在一些项目的伦理审查中不但要求申办者提供医用软件的自检报告和食品药品监督管理机构的检验报告,还会邀请独立顾问。同样地,在对智慧医学的算法评估中,也要聘请权威性的算法专家作为独立顾问,对人工智能的算法设计、建模依据、数据分析和质控等方面进行把关,探讨其是否属于规范性的行业操作标准、算法公开的内容是否符合行业的基本要求等,同时比较不同算法之间的优劣性。同时,要求申办者介绍其有关状况,即对虚假低劣有瑕疵的信息的甄别、过滤和剔除等,提供算法验证有效性的辅助性证明,对算法的测试结果进行自我评价,并形成评价性报告。督促申办者在条件成熟时成立独立的数据监察委员会,要求算法工程师适度公开算法的演算规则和操作流程。医学伦理委员会要督促在算法的程序设计中纳入包括医务人员在内的社会公众的建议和智慧,这是确保算法黑箱不会进一步蜕变为“知识黑箱”的前提条件。同时,医学伦理委员会要认识到算法的局限。算法有其适用性范围,只会在样本数据量大的疾病方面发挥作用,而对于罕见病,依然要靠医生的临床决策和判断。在智慧医学的应用场景中,还要考虑到民众对于人工智能的接受和认可度。故而,人类心智在认知上的高阶性是当前的人工智能所未能企及的。

3.3 加大对患者数据安全和个人隐私的保护力度

智慧医学的发展建立在海量的生物样本和健康信息的基础上,这意味着更大范围的健康信息的采集、研判和使用等。医学数字化操作平台采用分布式的数据采集装置,能够即时获取和分享公民的健康信息。数据驱动下的智慧医学,意味着数据采集的即时化、数据来源的多主体化、数据类型的多样化、数据格式的标准化、数据存储的长久化、数据交换的便利化等。智能技术通过不断的算法试错,减少算法的偏差及提高算法的精准率;通过数据网络化,从深层次上推进疾病分类学,通过个体健康信息的动态变化来预测疾病进展性,锁定疾病标志物来提高诊断的精准度,精准界分特定的患病人群。但是,不仅数据的即时获取会面临数据来源合法性的质疑,而且在数据交换和分享方面,存在着跨主体、跨领域、跨国家等的权限界定。

公民健康信息的获取和分享,以个体愿意将自身的健康信息让渡出去为前提,而不侵害到公民的隐私权。在高度发达的负隐私时代,个体隐私很容易就被窥探到。个体在使用平台获得技术提携和帮助时,也在部分让渡自己的隐私权。同时,在分门别类的生物样本库和健康信息数据库中存储的健康管理资料,稍有不慎就会被泄露出去。在数据操作时,要督促数据操作人员注意遵守相应的法律法规,增强研究者获取医疗健康信息的透明性。《中华人民共和国民法典》规定,要尊重自然人的生命权、身体权、健康权。《中华人民共和国生物安全法》督促研究者不得打着研究的旗号来危害生物安全。《个人信息保护法》将医疗健康信息界定为敏感个人信息。因而医学伦理委员会不但要明确单次研究中采集的生物样本的后续使用问题,还要明确研究者对研究数据的可控性、研究数据分享的规范性以及接触研究数据的人群权限性等。《数据安全法》规定,“任何组织、个人收集数据,应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据。”在国际多中心的大型队列研究中,还存在着知识产权的合理分配及后续研究利益的共享问题。国家已经明确要求,用于处理客观医疗数据的医用辅助决策软件,应按照第三类医疗器械管理。《医疗器械临床试验质量管理规范》(2022)第六条规定:医疗器械临床试验应当获得伦理委员会的同意。列入需进行临床试验审批的第三类医疗器械目录的,还应当获得国家药品监督管理局的批准,并且在符合要求的三级甲等医疗机构实施临床试验。那么,照此类推,在医用辅助决策软件的临床试验中,就要做好受试者的数据安全和个人隐私保护。对医疗健康信息的保管要使用加密技术的协议,堵塞人工智能在数据安全上的漏洞。医用软件的研究会使用到涉及个体的健康、疾病、基因等敏感信息,伦理审查中尤其要审慎把控豁免知情同意的标准和尺度。

对医疗健康信息进行去标识化甚至匿名化处理后,方可进行公开发表。同时,要督促研究者不要过度使用医疗健康信息,而要以达到研究目的为限度。而在基因研究中,即使对医疗健康信息进行匿名化处理,依靠大数据技术,也可以实现对目标人群的锁定。故而,在基因研究中,医学伦理委员会除了要督促研究者遵循一般的研究规范和管理规定,还要遵循国家有关人类遗传资源和《生物安全法》的管理要求。如医学研究人员一定要进行数据跨境传输,那么传输目的地对数据信息的保护力度应该不弱于我国的要求。在对医疗健康信息的使用中,既有公益性的研究,也有商业性的研究。对于基于商业化目的的医疗数据的兜转交易,即使符合豁免知情同意的条件,也要建议申办方在获得注册用研究数据,继而助推药品、诊断试剂和医疗器械成功上市后,从利润中提取一部分设立公益基金。

3.4 在人工智能中厚植人文关怀

以人机交互为特征的智慧医学,既具有技术的新颖性,也秉持“救死扶伤”的人道主义,是技术向度和人文向度的最佳融合体,是真与善的完美结合。一方面,在“以患者为中心”的价值指引下,智慧医学应该将自身的先天禀赋转化成业态优势,切实提高患者的体验感,提高患者个体和群体的认可度;另一方面,智慧医学还要在操作有效性上下功夫,提高医生用户的满意度。真是善的基础,智慧是仁爱的前提。医学需要借助于高新科技来提升工作效率,筑牢仁爱的根基。医生要树立“5G+医学”的思维,不但要学会应用人工智能,把人工智能等新兴信息技术应用到医疗领域,并形成人工智能的医疗团队,而且要参与开发医疗人工智能系统,不断提高医学领域的智能化程度。在智慧医学时代,医生对智慧医学的熟稔程度直接关系到其行善状况,决定了智慧医学从善的可能向现实转化的程度。在当下达·芬奇机器人的操作中,包含机械臂、医生操作台、影像台等三个部分。医生要先将机械臂插入患者体内,医生在操作台上做手术,在不直接接触患者身体的情况下,将操作台上的动作传送给机械臂,过滤掉手术医生的手部抖动,操控机械臂进行360°旋转。同时借助于影像台,身体内各个微小器官组织的病灶甚至可以被放大到十几倍。但是在达·芬奇机器人的操作中,也发生过机器人零部件的脱落等不良事件。在后续手术机器人的设计和完善中,要吸纳临床一线医生的临床操作经验,克服医工“两张皮”的现象。

一般来讲,人患病后往往会有焦虑感,甚至伴随着病耻感。而由人工智能来进行问诊,由于采用的是非接触方式,患者则会坦然得多。但是,人工智能自动生成的临床诊疗方案貌似契合了患者病情的需要,但由于远离临床场景、缺乏价值审度等关键性环节,该方案却不一定符合最优化原则。换句话说,方案的通用性并不意味着都具有社会的适宜性。人工智能要以人类的生命健康福祉为旨归,这理应成为发展和应用人工智能的伦理指引。人工智能接受道德评判和价值指引的过程,也是其接受规训的过程。人工智能的工程师已然从幕后走向台前,而处于全社会的聚焦和凝视下。要把规范性伦理标准转化为更为具体细化的实践性伦理规范,督促设计人工智能的工程师要躬身社会,始终保持与目标群体、社会公众的对话和交流,及时了解他们对人工智能的心理期待和企盼,以消除他们对人工智能的心理顾虑,并在潜移默化中提高社会公众对人工智能的信赖。

“培育用智能技术‘武装’的、具有智能社会特质的‘时代新人’,建构人机协同、人机和谐、共同提升的新型人机关系和人机文明。”[14]为了弥补人工智能不具有“情境特征”的缺憾,医学伦理委员会要督促人工智能研发机构遵循行业发展的规范性原则,借鉴西方国家的管理经验,拟定人工智能方面的伦理指南和行业规范,推动数字技术与科技伦理治理的深度融合,为智慧医学的发展保驾护航;坚守对话和交流的原则,促使人工智能的利益相关者能够达成基准共识,以实现工程师与社会公众的价值对接;遵循适宜性原则,不滥用个体的医疗健康信息,并朝数据使用的透明化方向发展;引导工程师在程序更新中尝试进行数据的意义挖掘,提升人工智能的道德认知功能,以便把数据的形式性要义和方案的实质性内容融合起来,强化临床诊疗决策与病患的契合点,促进数据判断与道德判断的有机衔接,尝试理解医疗信息的意义表征,最终实现智能决策的切身性;坚持底线原则和红线意识,对严重违背伦理原则的人工智能,要通过相应的管理规范,启动对人工智能工程师的问责机制,并同时纳入负面清单的管理机制中。智慧医学不但要增强服务的可及性,而且要提高友好性和社会适应性,协调好数字治理与情感主义的关系,力争界面操作简单可行、群体受惠广等,克服因“数字鸿沟”而引发的人群界分和技术排斥。

3.5 以伦理审查助推科技伦理治理体系的完善

医院对在本院开展的研究负有管理中的主体责任。医学伦理委员会作为医院的分支机构,要通过明晰的价值准则、统一的伦理操作规范和透明的监管程序等,促使医学相关从业人员不忘“以人为本”的医学行善初心,将价值权衡与伦理考量内置于临床抉择和生物医学研究的全过程,进行负责任的临床、研究和创新。研究者的严重违法违规行为会使医院遭受名誉受损、限期整改、摘牌除星等惩罚。医疗机构作为卫生健康部门之一,也要守土有责,守土尽责。基于此,医学伦理委员会要推进以伦理审查为基础的数据约束机制,加强对生物样本和健康信息的采集、获取、保藏、存储、分享等的管理,遵守国家的相关法律法规和道德规范,将风险降到最低,保护好自然人的隐私;确保数据来源的正当性及数据使用的合规性,合理界定数据共享面的广度;保持医院伦理委员会投诉渠道的通畅,加大对研究数据和信息造假行为的惩处力度。医学伦理委员会的委员要具有大数据思维,以了解申办者的研究项目是否遭受其他医疗机构的否定、查询研究者是否因遭受受试者投诉或违规挪用研究资金等,而被相关管理部门纳入医学科研诚信的“黑名单”、通过《临床研究志愿者数据库》等考察受试者过往参与临床医学研究的状况而排除其“职业试药人”的身份等。

国家科技伦理委员会的组建,《关于加强科技伦理治理的意见》的颁布,显示出国家层面对科技伦理的高度重视,以及对建立和完善科技伦理治理体系的强烈诉求。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系,补齐监管短板,更好地保障人民群众的生命健康福祉。具体到医疗领域,就是要建立和完善医学伦理委员会,确保临床抉择和医学研究活动遵守相应的价值准则和伦理规范。加强智慧医学时代的医学伦理审查,促进医疗领域治理能力和治理体系的现代化,发挥医学领域先行先试的特点,在将医疗领域打造成典型样本和“首善之区”的同时,也为完善科技伦理治理体系积累宝贵经验,并在国家治理架构中贡献出医学治理的智慧。

猜你喜欢

伦理医学人工智能
《心之死》的趣味与伦理焦虑
医学的进步
预防新型冠状病毒, 你必须知道的事
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
医学
医学、生命科学类