基于价值嵌入的医疗人工智能伦理规制研究
2022-08-22孙启贵
汪 琛,孙启贵,徐 飞
(1.中国科学技术大学科技哲学系,安徽 合肥 230026;2.中国科学技术大学公共事务学院,安徽 合肥 230026)
0 引言
医疗人工智能伦理问题已经成为学界、产业与政府卫生部门关注的热点领域[1]。医疗人工智能的颠覆性特征不仅体现在技术迭代,也体现在对医疗相关伦理、法律、与社会体制潜藏的破坏性塑造[2]。由于医疗人工智能与人的生命健康密切相关,其潜在的伦理不确定性与日俱显,亟需开发一套有效的道德标准,保障智能医疗技术的社会应用可行性,将技术伦理纳入智能医疗产品的技术构成,评估技术融合可能引发的创新风险,加强医疗人工智能的伦理治理[3-6]。
既有医疗人工智能伦理研究大致分为两类:一是针对医疗人工智能潜藏的伦理问题,如智能医疗的偏见[7]、心理健康中算法的伦理挑战[8],从可解释性[9]、知识鸿沟[10]等视角,分析医疗人工智能伦理问题产生的原因,针对不同的伦理问题提出消解对策;二是引入如利益相关者[11]、负责任创新[12]等分析理论,期望通过技术创新与伦理规范的平行研究,化解医疗智能化转型过程中的伦理风险。价值嵌入作为近年来人工智能伦理规制研究的又一新兴视角[13],为医疗人工智能伦理研究提供了新的理论参考。
现行智能医疗的价值研究多将算法黑箱的透明度与结果的可解释性作为嵌入的关键节点。例如,Durán[14]综合实用主义、客观主义两条解释进路,将价值维度的差异性表征纳入算法模型的结果解释中,提出计算可靠性作为医疗人工智能结果解释的可信条件;Sand[12]等则认为应确保患者的 “可竞争性 (contestability)”,即质询训练数据集可靠性与模型运算透明性的权益;Umbrell[15]从嵌入机制入手,以价值敏感设计为理论框架,意图整合护理、人工智能以及更高层次的价值需求,作为护理机器人设计的价值参照。这些学者意以解释逻辑与治理机制作为价值嵌入的实践路径,但这种认识论层面的源起式治理与机制上的价值规范设置缺乏有效融合,难以应对医疗人工智能研发与应用可能产生的过程性与衍生性伦理挑战。
总的来看,医疗人工智能的伦理治理研究多以单一视角或框架理论切入,缺少全过程的伦理价值关注,缺乏对医疗人工智能伦理困境演化特点的整合审视。医疗人工智能作为一类社会-技术系统,其伦理价值嵌入不仅需要解释层面的价值认知,还需要层级化的嵌套机制作为背靠支撑。有鉴于此,本文在回顾既有研究的基础上,结合社会-技术协同演化视角,尝试回答以下问题:①医疗人工智能伦理价值嵌入的理论基础是什么?②医疗人工智能在不同实操阶段的主要伦理问题是什么?③何为医疗人工智能的伦理价值?④如何在医疗人工智能演进过程中嵌入伦理价值?通过对上述问题的分析,本文尝试建构医疗人工智能伦理价值的嵌入路径,以期为国家医疗人工智能的可持续创新提供理论支撑与政策参考。
1 医疗人工智能伦理价值嵌入思想的提出
在智能医疗技术加速落地的过程中,配套的社会制度、发展政策与伦理规则也在同步制定实施。美国国立卫生研究院、食品药品监督管理局、中国国家药品监督管理局均出台了相应规范准则,其中就包括医疗人工智能的伦理准则,旨在加速智能医疗产品的审批认证。2019年美国国家医学院发布 《医疗人工智能:希望、炒作、承诺、危险》报告,要求优先考虑医疗人工智能的伦理与道德,保障技术的公平与包容性;欧盟2018年在 《可信赖人工智能的伦理准则 (草案)》 《欧洲人工智能战略》等多项战略报告中强调医疗人工智能伦理以人为本的向度目标;中国也多次在相关政策文件中强调要确保智能医疗技术的合伦理性。可见,伦理价值不仅是学理意义上技术发展的方向规引,更是医疗人工智能发展战略的重要组成。医疗人工智能的伦理价值不是简单的规范与原则堆砌,其背后蕴含着社会整体对技术的价值期望与目标愿景。
事实上,新技术的源起、涌现与扩散,在推进技术迭代与社会变革的同时,充斥着有关技术正义与公平的争执,因而有必要探讨转型不同阶段可能面临的道德与伦理问题[16-17],医疗人工智能亦不例外。技术的社会建构论中对技术人工物异化解释的 “诠释可塑性”表明,技术品质与特征是由一些可能的意义嵌入所赋予的[18]。医疗人工智能作为由技术人工物、人类行动者、制度规则、技术规范与人工智能体 (AAs)[13]组成的社会-技术系统[19],加之人工智能独有的技术自主性、交互性与自适应性,说明医疗智能化转型的实质是一种技术与社会共生交互、相互作用的协同演化过程。未来智能医疗的可持续性动态演化,首先取决于技术应用的可靠性,其次离不开非技术的规则与制度支撑。技术蓬勃发展的同时,其伦理风险可能触发的社会危机愈发受到利益相关群体的关注与重视。为了防止技术实践异化,保证技术效益的正向实现,保障智能医疗资源的合理分配,一套自洽的伦理秩序必不可少。
依照社会-技术转型多层级 (MLP)的解构思路,医疗人工智能的演化过程可分为三个层级:微观利基、宏观地景与社会-技术体制[20]。不同层级内部以及层级间的交互作用,都会牵涉众多社会因素对技术的形塑作用,其中伦理要素以多种形式嵌入并影响着技术的物化形态。在利基空间中,相关行动者的技术活动将决定技术目标能否符合社会环境的价值要求[21],而伦理价值作为形塑阶段中重要的规制要素之一,理应在利基的孵化初期,通过行业设计规范、伦理专项审查和伦理素养教育等多重路径,嵌入技术的主导设计之中。同时,地景层面中,不同文化语境、地理区位、意识形态等组成的外层空间,蕴含的伦理观念与道德认知各有差异,通过伦理关切的战略性部署,与既存体制中的医学伦理传统,一同塑造医疗人工智能的伦理价值属性。最后,通过触发 “机会窗口”,医疗人工智能相关的技术创新、市场结构、消费偏好、政策制度与社会文化得以确立,技术匹配的社会-技术系统、社会关系网络与制度规则体系,共同形成医疗人工智能动态稳定的社会-技术体制。
总体看来,医疗人工智能作为一类新兴的社会-技术系统,本质上可看作是技术与社会协同创新演化的社会-技术集成工程,尤其是在既有医学伦理审查无法全面适应医疗人工智能技术特性的情况下,伦理价值必然成为医疗人工智能社会形塑过程中不可或缺的考量维度。
2 蓬勃发展的医疗人工智能及其伦理风险与问题
医疗人工智能的伦理问题,即指人工智能在医疗保健、公共卫生领域应用过程中,技术实践存在违背既行医学伦理规范的僭越风险,可能造成难以逆转的负面社会后果。医疗人工智能伦理问题的有效解决不仅是应对医学伦理审查的应景之举,还是智能医疗技术人本主义的保障前提。医疗人工智能从实验室走向临床与商用,不同演化阶段存在的伦理问题不尽相同。下面按照临床前研发设计、临床应用和产业化两个阶段,分析和探讨医疗人工智能的伦理问题,形成一个较为系统的医疗人工智能伦理反思框架:
第一,临床前研发设计阶段的不确定性与伦理风险。医疗人工智能研发设计阶段的不确定与伦理风险主要表现为:一是数据伦理:模型训练用代表性数据集的普适性难以保证[22],种族、阶层与性别偏见会无意识地通过数据标签嵌入算法黑箱[23]。此外,数据采集过程中,如何保障医疗数据个人隐私信息脱敏的可行性?面对数据孤岛,运用已有医疗信息的道德合理性[24]以及如何确保病患与终端消费者的知情同意权?二是算法伦理:面对人体机理的复杂本质,算法的可解释性饱受质疑[25]。可解释性是消解医疗人工智能高度自动化可能产生非恶性错误后果的技术保证,而增强可解释性的代价往往是准确性的下降[9]。同时,机器学习不以任何理论上可解释的方式运作,而是通过数据之间的统计关联建立规则体系,这种黑箱方法使得智能决策过程缺乏透明性,导致规则间的关联性难以确认[10]。第三则与科研伦理相关:技术作为一种目的性系统[26],荷载着价值属性,医疗人工智能的实践功能与价值形态一定程度上取决于研发或设计者自身的道德观念与目标动机。现行体制中,医师群体有一套成熟、系统的医学伦理规制,而人工智能研究者尚未形成公认可靠的伦理准则。医学相关从业者执证上岗前,都需接受基本的医学伦理教育,而人工智能伦理课程建设刚刚起步[27],研发者的责任意识与道德思维亟待补强。
第二,临床应用与产业化阶段的伦理问题。当医疗人工智能进入应用与产业化阶段,相关伦理问题主要与人文关怀、自主性权利与技术滥用密切相关。一是人文精神的缺位风险:传统医疗场景中,医生的职能价值不仅是治病救人,医者仁心的道德律令要求医生能够与患者有情感交流,实现与病人之间的同理共情,这种人文关怀特质是无情感的人工智能所无法给予的[28]。医疗人工智能减少了医生与患者的直接接触,一定程度上阻碍了医务人员与患者间的情感沟通,患者心理关怀与情感共鸣等隐性需求被压制,可能会触发更为棘手的情感适应性危机。二是家长式决断逻辑:人工智能取代医务主体行使代理决策权,可能会严重损害病人的自主决定权。智能决策模型的训练需要大量疾病诊疗数据的整合归纳,个体独特的身心特征、过往病史、社会因素差异性在模型训练过程中被抹除。由于模型参数有限,给出的诊疗建议很难平衡患者自身的价值目标与自主偏好[29],削弱了患者在诊疗过程中表达真实诉求的自我能动性。三是技术滥用与医疗公平问题:技术的使用方,如保险公司,很有可能借助医疗人工智能,根据算法结果,设定差异化的投保费率与保额, “见人下菜”势必造成对投保人的歧视偏见。智能医疗企业则可能为取得竞争优势,使用非法或灰色手段获取数据,侵害公民的隐私权益。此外,高成本还可能会导致智能医疗资源集中于高收入人群,造成严重的医疗资源分配不均,与医疗人工智能的福祉和公正目标截然相悖。
3 医疗人工智能伦理价值的内涵表征
医疗人工智能的伦理价值即指在医疗人工智能设计研发、试验应用与产业化过程中,基于特定的医疗适用情景,由医学伦理、社会道德与技术特征协同塑造,赋予技术自身的本体价值。伦理价值在医疗人工智能的发展过程中,充当着塑造引导、内生属性与标准研判三类功能特征,成为组成医疗人工智能社会-技术系统重要的非人行动者,作为医师、病患与医疗人工智能的调节媒介,调和异质性主体的价值诉求,保证技术实践可行性的同时,作用技术创新的社会形塑过程。为此,本文从创新正当性、社会文化以及制度调试三个伦理价值作用的主要方面,进一步阐释智能医疗伦理的价值内涵:
第一,技术伦理作为研发设计的价值向标。人工智能的发展逻辑源起于设计[30],技术设计本质上是将主体意愿具象化,以达成特定的价值目标。医疗人工智能作为一类技术人工物,其设计过程必然会牵涉研发者自身的主体价值嵌入,技术形态也会受到社会层面的道德评价。技术史上如避孕、堕胎、生殖辅助等技术,从饱受社会争议到被社会公众接纳,在这些争议型医疗技术演化的过程中,普遍存在技术与伦理价值、道德规范的双向形塑。医疗人工智能的伦理风险使得技术设计必须审慎考量伦理在社会中存在的价值张力[31],医疗人工智能的创新发展也因此需要适当的伦理价值作为设计牵引,以保证医疗人工智能以人为本的驱动内核。
医疗人工智能伦理价值对技术设计的影响主要体现在三个方面:①对设计者价值判断与道德观念的作用,学者在医疗人工智能的研发过程中,要求结合技术伦理反思,如在训练算法黑箱的过程中,注意规避非功能性的价值偏见与种群歧视[32];②作为准则规约,确保智能医疗产品设计的合伦理性,需要立项与试验的伦理审查、可参照的伦理指南以及配套的审查平台建设,如中科院自动化所与北京智源人工智能研究院联合研发的人工智能治理公共服务平台;③价值导向性引领和开创伦理相关的技术研究,一方面指向技术内部,寻求伦理问题的技术解释,以技术路径不断尝试破解和弥合技术的伦理争议,另一方面是技术设计对社会伦理关切的回应,塑造技术负责任创新的价值向度。
医疗人工智能的合伦理设计是技术临床试验和产业化落地的前置条件。在医疗人工智能社会-技术系统的演进过程中,宏观地景层面的社会期望赋予医疗人工智能极高的技术愿景,然而智能医疗的伦理风险可能会导致技术异化的产生。因而,伦理价值应成为医疗人工智能产品开发重要的规则牵引,其践行路径不仅是要求设计主体与行业的责任自律,同时还需要注重实践过程中基于适用者反馈的循环再设计[13]。医疗人工智能的伦理价值嵌入需要这两种路径的共同作用,只有整体性把握社会-技术系统中不同主体伦理诉求的价值表征,以伦理价值作为技术创新的风向标,加强研发共同体的伦理意识,充分发挥伦理价值对医疗人工智能技术的形塑作用,才能保证智能医疗转型福祉性与社会效益的最大实现。
第二,伦理价值与社会文化的融汇互塑。医学史上,伦理自希波克拉底时代起就是医学人文主义精神的体现,我国古代也提出 “医乃仁术”的医德思想,说明伦理是医学超脱技艺之外的价值内核。医疗人工智能的伦理价值不仅是医学人本主义精神的延续,也是医疗人工智能研发团队与创新共同体理应恪守的道德内涵。医疗智能转型不仅是人工智能向医疗保健、公共卫生的技术赋能,还引发了科学文化与工具理性对医学人文与价值理性的介入冲击。医学自身的人本文化要求医疗人工智能不能简单地将技术受众视作流水线式的产品锻造,疾病的诊疗过程也不仅是医师与技术的专业实践,医生与患者的共情同理、医师职业的道德推崇、病患周边的社会情景等软文化因素都与诊疗的有效性紧密相关[33]。
就人工智能对医学人文关怀的冲击可能,学界主要持两类观点:一是认为医疗人工智能会替代医师的主体地位,医疗人工智能的决策逻辑很难体察患者微妙与无形的心理变化,被动型的诊疗过程还可能会导致医学黄金时代的消解,造成的负面影响难以预见[34];二是认为人工智能与医师之间应当是一种负责任的伙伴关系,可靠的智能医疗能将医生从劳杂的医务活动中解放出来,恢复病人与医师之间珍贵的、历史悠久的链接与信任,加强两者间更深层次的交流与共情[35]。两种对立的预见判断,表明医疗人工智能的准道德主体地位尚且存疑,也进一步印证了伦理价值介入医疗人工智能社会-技术系统的必要性。
整体看,人工智能在医疗保健领域的发展将不可避免地导致医学文化与实践形式的巨大转变。医疗智能化转型的过程中会衍生出新的医学文化形态,医疗人工智能的伦理问题一定程度上也可以理解为新的智能医学文化与传统医学文化之间的融合超越。医疗人工智能作为一项颠覆性创新技术,缺少历史经验作为参照。伦理价值作为社会 (医学)文化的具象指代,一方面作为技术演化路径的软性规制,塑造技术内生价值属性的表征形态,另一方面作为价值引导,承接后续法律法规、技术政策等硬性制度的订立补完。
第三,伦理价值成为制度订立与调试的正当性来源。医疗人工智能的颠覆性效应逐步显见,与之相伴的是制度层面,智能医疗政策、伦理与法规的革新演替[36]。医疗是社会民生关注的重要领域,凡涉及医疗制度之革新变化都需审慎对待。2015年,英国首例机器人心脏瓣膜修复手术事故将达·芬奇手术机器人推至舆论风口。这一系列的调查结果和事件说明,医疗人工智能已经进入一个新的演化时期,系统演化中非技术性要素的形塑权重正在增大。
目前,各界就人工智能一般性的伦理原则已基本达成共识[37],伦理治理的关注重心开始向 “AI+”领域延展。2018年,国际电信联盟与世界卫生组织联合成立医疗人工智能专项小组,致力于制定包括技术伦理与监管在内的国际标准解决方案。2019年,澳大利亚皇家与新西兰放射学家学院出台 《医学人工智能的伦理准则》指南文件。2020年,飞利浦发布 《在医疗保健和健康生活中负责任地使用人工智能的五项指导原则》。2021年,世卫组织 《医疗人工智能的伦理与治理》指导文件提出医疗人工智能六条基本伦理准则。科学机构、国际组织、技术企业关于智能医疗的伦理认知与指导意见的陆续出台,补足了医疗人工智能制度体系中关于伦理价值的要义组成,但伦理准则的适用性尚待检验,共识性的医疗人工智能伦理准则离统一尚远。
一般意义上,技术伦理追求的是技术发展的高层次价值,技术政策则为技术发展提供战略支撑,技术法律作为强制性约束,确认伦理规范的法理地位。伦理价值为医疗人工智能提供了一套以善为核心的治理框架,通过与法律法规的双向互动,与技术的创新演化形成协同效应,赋予医疗人工智能更丰富的内生价值,为技术政策的订立提供方向参照,促进医疗人工智能伦理监管与审查的体制确立,进而塑造技术伦理、法规与政策多维度的医疗人工智能制度体系。总的来看,当下各国医疗人工智能的技术政策仍处初阶,人工智能伦理审查机制还在探索阶段,相关针对性的法律法规尚处空白。伦理价值一方面作为 “软约束”强化技术与产业共同体的自我规制,另一方面也为后续技术政策、法规设立与体制建设提供正当性解释。
4 基于价值嵌入的医疗人工智能伦理规制策略
随着人工智能赋能效应的不断深化,医疗人工智能的伦理价值也在同步保持持续性的动态演化。通过上文的分析可以判定,医疗人工智能伦理价值不是一蹴而就的拍板定论,而是一种多元利益相关方彼此协商、交互磨合的过程性概念,需要结合技术发展的前沿进展,在不断的预见评估、临床试验和日常使用中,充分吸纳切身群体的真实伦理诉求,不断检验价值向度的约束效力,才能够整合形成适用性的价值向标。将医疗人工智能视作社会-技术转型的多层级演化过程,为伦理价值分析提供一个综合性、整体性视角,才能由此探索智能医疗技术伦理价值的嵌入路径。
从转型的全局架构看,稳定的医疗人工智能社会-技术体制需要社会-技术系统、社会关系网络以及制度体系的共同加持[20],技术实践的伦理可行性则需要通过技术的社会实验得以检验[38]。从细分视角看 (见图1):①伦理对话机制中,多元化利益攸关方的切身伦理诉求,在对话过程中得以表达、协商并逐步统一,为制度体系提供意见参照,也为社会-技术实验提供外部实践反馈;②多维制度体系能够为对话机制提供规则基础,为社会-技术实验提供体制保障;③社会-技术实验则能提供实证材料,为制度制定提供科学参考,给予对话机制以协商内容。
图1 医疗人工智能伦理价值的嵌入路径
为此,可从对话机制、制度规则与环境调控三个方面入手,将医疗人工智能社会-技术体制中伦理价值的嵌入过程划分为社会关系网络、制度体系建设和社会-技术环境三重维度,结合上文对宏观地景与技术利基的分析研判,建构伦理价值融入医疗人工智能社会-技术体制的嵌入路径。
第一,社会关系网络层面伦理对话机制的建立。医疗人工智能的研发与推广过程,势必会牵涉大量人类与非人类行动者,如生产端的算法实验室、技术企业、设备公司,使用端的消费者、病患、医院与保健中心,以及流通环节的公共卫生部门、医保局以及监管机构,他们共同联结形成围绕医疗人工智能展开的行动者关系网络。医疗人工智能的伦理问题由于技术类型、医疗场景和社会文化等多元要素的存在而呈现复杂的不确定性。不同的医疗人工智能伦理困境会涉及不同的受众群体,为了保证对话伦理机制的有效性与可行性,需要在保证对话效率的基础上,尽可能容纳更多的异质性主体参与到协商对话当中,基于利益相关原则与价值目标一致性,兼顾专业性与代表性,设置对话机制准入门槛,建立高密度社会关系网络[39],让不同主体的伦理诉求能够以最短路径高效传递。
智能化转型已成为医疗体系迭代与整体革新的必然趋势,在智能医疗实践过程中必然充斥着科学主义、工具理性、市场效益与多元文化、价值目标、人文关怀间的碰撞融合。因而,在构建对话网络过程中,为了保障利益攸关方的权力平等,整体网络应当维持适度去中心化,建立各对话主体间的直接联系,鼓励医院与患者、企业与医院、企业与消费者、算法实验室与企业等相关主体优先建立直接对话关系,最小化网络结构洞,均衡对话主体节点的中心权度,确保对话主体直接能够知晓彼此的伦理诉求,对话信息不会因政治级别、社会地位与技术权威等非对话性要素引发主体权力失衡,导致真实价值的信息失真,因此,保证维系网络的动态稳定性尤为重要。
为了保证对话的全面性与时效性,医疗人工智能伦理的对话应当是一个层级机制,一是由政府科技部门主导的代表制正式 “圆桌会议”,制定框架式的医疗人工智能一般性伦理准则;二是技术共同体组织的基于特定智能医疗情景,吸纳定向技术受众的专业性协商,目的为依据不同的技术类别制定针对性的行业伦理规范;三是充分发挥临床试验过程中与病患非正式的沟通对话,将医师、病患对技术试用的情景感知与反馈记录汇总;四是运用现代网络媒体,就智能医疗相关的热议话题作情感分析与动态追踪,了解公众对于医疗人工智能的真实感知。总的来看,多层级、多维度的医疗人工智能伦理对话机制,通过正式与非正式的对话形式,不仅确保不同利益相关群体的诉求表达得以传递,也为后续多维制度的订立决策提供可靠的实证参考。
第二,制度体系层面伦理协同创新的强调。制度与伦理具有内在相同性,伦理与道德是制度的内在属性[40]。制度的实践有效性必然要符合社会发展和技术创新的整体要求,同社会的伦理价值与道德追求协同一致[41]。从体制建设的角度看,医疗人工智能社会-技术体制的制度规则主要包括:规制性 (regulative)、规范性 (normative)与认知性 (cognitive)三大类[20]。规制性规则是指医疗人工智能适用的法律法规、技术标准、框架协议、管理办法等在内的强制性规则体系;规范性要求则是以伦理道德为基础的权责划分、价值观念、行为准则等为主的约束性社会规范;认知性规则更为隐性,受文化环境与个人观念的影响,是公认的感知信念。三种制度规范的创新变革,是塑成未来医疗人工智能新体制的必要条件。
当前,国内外医疗人工智能伦理制度研究多聚焦于医学伦理审查,2017年FDA发布数字健康创新行动计划,并于次年审批通过首款自主型眼病诊疗系统;2019年中国国家药监局发布 《深度学习辅助决策医疗器械软件审评要点》,2020年Airdoc、AI-ECG等第一批辅助诊断软件获得三类医疗注册审批。行业规范方面,欧美部分行业协会已有伦理准则发布,如加拿大放射学协会发布的 《放射学中与人工智能相关的伦理和法律问题白皮书》。2019年、2020年中国发布的两版 《人工智能蓝皮书:中国医疗人工智能发展报告》,均将伦理视为智能医疗制度体系的基本构成要素,专业协会的行业伦理规范亟待加强。此外,国内外认知性制度的建设尚处探索阶段,智库机构的咨询报告时有提及,但缺乏明确具体的推进意见,需要正式政策与实施策略的跟进配套。
由此建议医疗人工智能制度的订立思路可分为两类:①基于技术风险预见与伦理价值分析 “自上而下”的制度订立,立足医疗特殊的领域属性,参照相近技术制度的订立思路,如医疗信息化转型的制度经验,人工智能+多学科的实践对照作为跨域借鉴。但医疗领域的社会敏感性以及医疗人工智能与人切身的技术特质,使得顶层式的制度订立难以充分应对医疗人工智能中微观层面的伦理风险;② “自下而上”的意见供给作为补足,下行的参照基础可以再细分为两个部分:一是设立专项的调研项目,针对存在伦理争议的智能医疗场景,进行持续性的跟踪调查;二是有机凝炼、充分吸纳对话协商的要点内容,订立不同技术功能、受众类别、适用场域,具有可操作性的细分制度。
第三,社会-技术环境层面伦理价值的调控。医疗人工智能主导设计的确立仅凭事前风险预见难以令人信服,需要一系列基于社会-技术环境层面的实践检验[42]作为补充。通过社会-技术实验,将理论层面的伦理价值与应用场景紧密结合,在限定的应用场域,遵循封闭性、可逆性与风险最小化原则,通过持续的外部检验,判断伦理规则的合理性与可靠性。政府部门应根据不同类型的技术使用场景,制定指导性和规范性实施政策,建立健全医疗人工智能伦理审查程序,助力技术企业获取社会-技术环境的多维反馈,并以检验效果为市场准入依据,倒逼企业将伦理价值充分纳入技术学习过程,在实践反馈中调节政策的支持重点和制度的侧重方向。
现有的人工智能社会实验研究明确指出,企业技术示范、政府政策实验与公众社会实验是人工智能社会实验的三类基础维度,不同维度间通过技术的社会研究、政策实践反馈以及技术与政策联结产生的耦合效应[43],依据应用场景、影响维度与观测界面设置多级评价指标体系,构建人工智能社会实验的整合式分析框架[44]。进而,基于人机认知平衡探讨微观层面人工智能实验路径[45]。在社会实验当中,一方面,伦理要素作为审查机制,检验实验实施的合伦理性,为智能医疗社会实验设置道德框架[46];另一方面,伦理有效与可适应性也要求实践作为反馈,进而验证伦理规范对技术引导功能的现实可行性。
医疗人工智能社会-技术实验的稳步推进是智能医疗产业化的前提测试,为了保证实验过程的合伦理性,本文提出以下三点注意事项:①检验方法上,借助心理学方法,测度医疗人工智能被试者的情感变化与情绪表达,通过多样本检验与统计学分析,归纳形成技术伦理适用的可接受阈值区间;②配套专项伦理委员会,伦理委员会需要全过程式的跟踪监察受试者的实验状况,决定社会实验的推进、暂停或终止;③实验推广范围需要依据不同控制变量条件下的多个社会实验结果与偏差综合研判,由高级别的专业委员会决定,是否进一步增加受试者数量与拓展技术适用范围。总体上,医疗人工智能复杂的伦理问题必须经过有限边界内的社会实验检验,优化和补充既行智能医疗伦理准则体系,并以此为依据,继续推进医疗人工智能非封闭性场景的应用过渡。
5 结语
目前,智能化医疗转型仍处于技术利基向日常生活与临床实践的过渡阶段,技术可持续创新亟需的专项伦理规范有待补强。本文聚焦医疗人工智能社会-技术转型中的伦理价值问题,认为复杂的医疗情景与人文特质,使得医疗人工智能伦理的价值设计不能直接套用一般性的智能伦理准则,传统医学伦理约束的适用性存疑,智能医学伦理审查机制需要创新。医疗人工智能的社会福祉性与医学发展所恪守的人本主义精神,使得智能医疗技术的可持续创新应用必须嵌入适当的伦理价值,作为管治标准和规则引导。虽然网络主体间的对话协商、制度体系的协同变革与社会实验的反馈尝试是塑成医疗人工智能社会-技术体制的可用路径,但面对医患关系的特殊性、医疗保健的长周期、智能技术的准主体性以及社会医疗资源分配的公平性等诸多复杂情况,如何开展平等对话并达成一致的伦理意见?怎样确保主体权力均衡?制度建设兼顾人文关怀的同时怎样最大性发挥技术效力?这些都需要更深入的研究加以研判。