医学人工智能威胁论的哲学辨析*
2021-12-01赵亮英
赵亮英
2017年1月4日,在AlphaGo打败世界围棋冠军柯洁前夕,四川成都进行了一场人类与医学人工智能(artificial intelligence,AI)的另一场对战:463名超声医生对战一个名为“安克侦”的甲状腺肿瘤超声辅助侦测软件,结局是“安克侦”与医生们打成平手;但业界认为在效率上,其实AI已经超过了医生。这一结果极大地促进了医学AI的迅猛发展,但同时相关的争论也越来越激烈,例如,AI将会取代人类医生吗?当未来我们面对的医生是AI时,我们该怎么办?它可以信任吗?它会不会只是把我们当成和其他人无差别的“机器”又或者只是一堆“数据”来处理?经过AI改造的人可能成为一种新人类吗?等等。这些问题既是确定当前医学AI发展方向需要解决的问题,同时也是伦理学和哲学争论的焦点。本文将从心灵哲学和道德哲学的角度对相关概念和问题加以厘清。
1 医学AI威胁论的三种论点
近年来,随着人工智能技术的飞跃性发展,大数据时代的医学革命也将随之到来。当前医学AI的运用几乎已经涉及医学的所有领域,包括对疾病进行观察、评估、治疗和护理管理等,甚至有一些私人诊所已经出现了“AI医生”。医学AI的发展有利于共享医疗资源,促进医疗资源大众化、公平化,对于提升人类整体的生命健康和福祉都是极为有利的;但是,通过运用AI增强人类的基因、身体能力,甚至是干预生命发展轨迹,也引起了诸多学者的不安和顾虑,进而激发了关于医学AI威胁的各种论争。厘清此中的种种论点,可以让我们更加理性地理解和把握医学AI的发展现状和未来趋势。
在详细分析医学AI对人类的威胁是否成立又或者在哪种程度上成立前,我们需要先了解关于AI的基本概念。美国哲学家约翰·塞尔(John R.Searle)[1]在20世纪60年代就提出了强AI的概念,并与弱AI相区别。现代生活包括医学领域使用的AI技术,主要是通过算法程序使AI模拟人类的“心灵”系统,让其拥有多层次的复杂推理或学习功能,进而让AI“自主”完成相关行为,这种技术被学界称之为弱AI。社会各界对AI技术发展的担忧,甚至认为AI将是人类社会的“掘墓人”,主要是来自对强AI的担忧。一般而言,强AI是指可能像人类一样具有自主意识和思维能力的AI,从而与弱AI有质的区别。AI威胁论主要就是指这种具备像人类一样具有自我意识和自由意志,又同时拥有了各种“超级能力”的AI会对人类造成怎样的威胁?根据达尔文的生物进化论,强者生存,优胜劣汰,这种强AI会不会对人类取而代之,成为一种新的物种?又或者使人类成为AI的附属品甚至是奴隶等。这种AI威胁论的核心和实质就是对AI具有了自我意识之后一系列问题的思考和担忧,这也是医学AI威胁论的来源之一。例如,会不会出现这种具有自我意识的AI医生?如果出现了,它们是否可以完全替代人类医生?人类能否控制这种全能的AI医生?等等。
如果说具有人类“心灵意识”的AI医生是否可能,是关于强AI的、未来的、“不可知”问题,因而不在一些学者和研究者的讨论范畴内;但现实中各种医学增强计划的出现和相关研究成果地爆出,刺激并引发了新一轮关于医学AI威胁论的争论。例如,这几年声名大噪的特斯拉公司CEO埃隆·马斯克(Elon Musk)的“脑机融合人”计划,试图通过医学AI手段增强人类的各种能力,包括记忆、认知和运算等,不仅要增强人类的身体能力,还包括干预、塑造人类的思想意识。但是,这种“脑机融合人”还是自然人吗?对于AI在这类领域的研究和运用会不会重新改写人类物种的性质?我们该如何对待脑机融合人引发的伦理、法律问题?等等。这是医学AI威胁论的第二个来源,即通过医学AI增强人类所带来的威胁。
此外,在各种政策和世界潮流的刺激下,“AI+医疗”近年来受到了各国科技巨头和企业的青睐,争相涌入医学AI的研究和实践中。但是,当前AI在医学领域的运用和发展还是处在一个低水平和不完善阶段,确切地说,还只是处于弱AI技术发展的起步阶段,业界不仅没有明确医学AI的安全系统评估标准,也没有专门的法律法规规范医生和AI技术人员的权责,从而引发了对医学AI服务的不信任;加上当前因AI技术的不完善、数据偏差、数据泄露造成的隐私泄露和安全事故等问题频频出现,进一步激发了业内外对医学AI发展的担忧。这是关于医学AI威胁论的第三种考量。
需要注意的是,以上三种AI威胁论的争论要点不尽相同,要区别对待。第一种医学AI威胁论的关键点在于:AI医生是否可能具有人类的意识从而对人类造成威胁;这实际上是涉及哲学上的“意识难题”(the hard problem of consciousness )或强AI是否可能的问题,即如何用物理方法或科学方法来说明我们为什么具有主观性的感受性和意向性意识的问题[2]。对这个问题更多的是哲学和科学理论上的论争与碰撞。第二种AI医学增强技术和第三种医学AI运用威胁论,其关注点在于现实医学AI的研究、运用和未来发展趋势,涉及的是我们要如何运用AI技术以及当前医学AI要如何发展、向着哪里发展的问题,是现实的实践问题。接下来,笔者将对这三种威胁论一一给出分析。
2 医学AI威胁与意识难题
前面已经提到,AI可以分为强AI和弱AI,所谓医学AI威胁论首当其冲就是有没有可能出现像人类一样具有自我意识和自由意志的AI医生?随后才有AI医生是否可以信任,它是否会对人类医生取而代之等系列问题。该威胁论的关键点就在于因强AI的出现而引发了对未来医生命运甚至是人类命运的担忧和恐慌。那么,强AI是否可能呢?也即是说,具有意识和自由意志的AI医生可能吗?这不仅是一个关于AI技术发展的科学难题,更是一个哲学问题。AI医生能否产生“意识”,其实就是追问意识的本质,这是关于意识的“难题”;也即是要从哲学和科学的角度解释清楚具有第一人称特点的“意识”是如何产生的、与物理结构(大脑)如何发生关系或作用的问题。倘若能够论证纯粹由物理结构组成的AI医生不可能产生具有第一人称特点、生物性质的感受性“意识”,那么就可以消解第一种医学AI威胁论,具体分析如下。
当今世界知名的心智和语言学家约翰·塞尔在现代物理学和生物进化论的理论基础上,提出了心灵理论的生物自然主义立场(biological naturalism),把意向性(intentionality)看成是人类主要的心灵现象,从意向性的角度展开了对人类心灵意识的研究,进而形成了塞尔关于语言哲学和心灵哲学的意向性理论。对于意识的本质,塞尔[3]提出了两点:首先意识是一种自然的生物现象,是低层神经过程在大脑系统突现的一种特征,这是意识的物理基础。部分物理主义者也正是根据这一点,认为随着科技的发展,AI的物理结构必定能够与人类大脑的神经网络相媲美,进而可以模仿大脑神经功能,以解决AI的“意识难题”。但是他们都忽略了意识本质的第二个特征,即意向性意识与大脑的特殊因果作用。
塞尔[4]的意向性理论中指出,意向性意识与大脑之间存在因果作用,但是这种因果作用并不是传统休谟式的因果关系假定,而是具有自我指称性质(self-referential)的 “意向性因果关系”(intentional causation);正是这种特殊的意向性因果关系使得内在的、主观的心灵意识具有关指外部世界的能力。那么,具体意识是如何在人类的大脑中产生的呢?塞尔谈道:“意向性是心灵借以内在地表征(represent)世界上的物体和事态的特征。但是,我们的心灵与世界处于经常地因果联系之中的。当我们看到某一事物时,我们所看的物体引起我们对它们的视觉经验。当我们回忆过去的事件时,那些过去的事件引起我们现在的回忆。”例如,假设“你看到了一朵鲜花,心情非常好”,如果有人问:“是什么引起你具有关于那朵花的视觉感受?”那么自然而然的回答肯定是:“我看到了那朵花。”在这里,视觉经验,即关于那朵花的感受性意识本身既是产生视觉经验的原因,同时它又表示了视觉经验的结果。
也即是说,意向性因果关系的自我指称性质使得意识既是产生大脑微观神经过程的原因,同时也是大脑微观神经过程产生的结果,原因和结果是意向性意识状态一枚硬币的两面,同时发挥作用[5]。意向性因果关系的特殊性决定了意向性意识的特殊性。塞尔[6]认为,意识是一种主观本体论的存在,是一种主观的、内在的、定性的感知(sentience)或觉识(awareness)状态,只有当意识被“主体”经验到时,它们才是存在的;并且这些感知或觉识的经验本身,就是存在的意识,是第一人称的主观本体存在。此外,塞尔[7]进一步由此断定,人类意识的主观本体论地位和物理世界的客观本体论地位一样,是我们所在的这个唯一的客观世界所存在的两种不同性质的本体论,都是这个世界的原初存在,因而主观本体论不能还原为客观本体论的实在,具有不可还原性。
换言之,一方面,意识的产生与大脑的物理结构密切相关,是整个大脑和人身体相结合在一起、经过上亿年进化而来的生物系统所突现的一个特征;另一方面,意识主观性特征具有特殊性:我们“经验”到意识的同时也是客观神经作用的过程,意识的产生过程同时也是人类具有意识感受的过程,是一枚硬币的两面。此外,笔者认为,相对于人类而言,这种第一人称的主观性特点是意识的“灵魂”所在,即人类的“灵魂”所在。所谓意识的不可还原性,主要就是指意识感受的主观性和私人性,只能以内省的方式被觉知,而不能被任何第三人称的观点加以验证或解释,更不能还原为任何物理的因果关系。正如内格尔[8]所谈到的,我们永远也无法得知“成为一只蝙蝠是什么感受”。物理世界不存在感受性,只有主观的心理世界才存在感受性(意识)。AI作为一种科技成果,仍然是以第三人称视角进行的研究;即使随着科技的发展,出现了全仿真人脑神经结构的AI,也无法产生人类意识,因为物理结构产生的AI无法产生具有自我指称性质的因果力,因而无法产生具有第一人称、主观本体论特征的意识“感受”,当然也无法让AI体验到人类的“意识”感受。
如果说“意识”是AI医生与人类医生的分割线,那么,AI医生就不可能对人类医生的存在构成威胁,因为它终究只是一个技术工具,尽管它很“智能”,可以为我们提供很多数据、策略,给出最优方案,但它只会是医生的最佳助手,人类医生的自我意识和自由意志是不可还原的。也即是说,具有像人类一样具有自由意志和意识的全能AI医生不可能,AI医生也不可能成为一个独立的道德主体和行为主体,如此也就不存在AI医生能否替代人类医生的问题。这样,就消解医学AI的第一个威胁论点。
3 医学AI增强功能威胁与自由意志
前面分析表明,虽然强AI在概念上是完备的,但是由于意识的不可还原性,具有人类意识和自由意志的全能AI医生不可能存在,进而可以消解强AI医生威胁论;因此,如果医学AI的威胁真实存在,那么也应该是来自弱AI,即来自当前医学AI的应用和发展中的威胁。当前医学AI的发展和运用具有两重目的:医学治疗和医学增强。前面提及的第二种和第三种威胁论点主要和医学AI的这两种运用相关。接下来,先来看有关医学增强的威胁论点,笔者认为这才是医学AI发展的真正威胁所在。
随着生命科学和神经科学的发展,医学AI已经不仅仅是用于诊断和治疗疾病,诸多科研团队和公司的直接目标导向是要通过AI技术增强人类的各种能力,即“医学增强”功能。简单地说,所谓“医学增强”或者“生物医学增强”(biomedical enhancement)是指,通过生物医学技术,在分子层面甚至是更微观的层次,对身体和大脑进行深度干预、改造和设计,使之具有超越自然人本身的各种能力[9],如进行基因改造、记忆移植、知识填充等。例如,前面提到的特斯拉公司的CEO马斯克,据说正是基于对前面提到的强AI的焦虑,甚至是恐惧,想要先发制人,强大人类自己,从而创办了Neuralink公司,试图用脑机接口技术(brain-computer interface,BCI)把人类变成超人类。虽然其创办Neuralink公司的动机我们无法求证,但是在2020年8月29日,Neuralink公司发布了他们关于脑机接口的最新成果:将指甲盖大的小芯片植入小猪的大脑,以探测小猪脑神经元活动,读取小猪的脑部信息,已经通过实现脑机接口的融合对于治疗人类的脑部疾病及其他衍生疾病问题,具有划时代意义和价值。2021年4月9日,Neuralink公司又展示了一只9岁的猴子用意念玩电子乒乓球游戏的视频,实现“半机械人”或“脑机融合”的超级人类指日可待。正是类似这种脑机融合的医学增强技术的运用,引发了各界对医学AI的担忧和论争:经过深度脑机融合的人还是自然人吗?脑机融合人与自然人有什么区别?超级人类的出现会不会加剧社会的分化?等等[10]。笔者认为,这是AI医学增强技术的最大威胁所在。
马斯克的“脑机融合人”计划的关键点在于脑机融合技术或者说是脑机接口技术,其大概原理就是要在人脑中植入一个芯片,这个芯片可以实时读取人脑电波,无线对外传输,从而可以代替人类的各种器官,实现与外部世界的互动。例如,在自然人类中,当人早晨起床饿了,大脑会将想要吃早餐的信号传递到我的手和脚,让手去拿面包或走进厨房做早餐;或者传递给声带,说出“我要吃早餐”的语言,通过身体的外部行为或语言表达并实现自己的意图。但通过这个脑机融合技术,当人的大脑发出“我饿了”的信号时,这个信号可以通过芯片连接的超级电脑把人的需求翻译出来,并生成各种指令,让连接的电脑、机器人或其他设备替代人完成以上的各种行为。也即是说,当你感觉累了,不想动了,你都可以通过你的意念控制或连接的机器人(或电脑)帮你完成你想做成的事情。还需要提醒注意的是,用意念控制机器只是Neuralink公司脑机融合技术发展的第一步计划,下一步是要通过芯片达到记忆、知识、技能的移植,甚至在短时间内就可以让脑机融合人获得一般人类无法拥有的各种超能力。倘若第二步计划真能够实现,那么通过芯片改变人类大脑的运行方式,甚至通过芯片给它植入任何“操作者”希望它拥有的道德观念、政治立场、思想意识等,进而改造人类意识,都将是可能的;也即是说,倘若马斯克的“脑机融合人”计划顺利实施,科幻电影中拥有各种超能力的“超人”、武侠电影中的“意念”交流都不再科幻,甚至玄幻小说中的“灵魂替换”也不再是玄幻故事,因为人类记忆、能力、信息的储存和移植,这不就意味人类“灵魂”的移植吗?
2021年5月,Science发表了一篇关于脑机融合技术研究进展的论文《Abrain-computerinterfacethatevokestactilesensationsimprovesroboticarmcontrol》,文章指出:当前的脑机融合技术主要是通过视觉反馈来帮助四肢瘫痪患者进行功能性运动,但是仅仅依靠视觉反馈会使得行动缓慢而且笨重,可以通过双向BCI系统,模拟已知的感觉运动回路的工程方法,在一定程度上实现对触觉的反馈,以提升患者AI肢体的性能[11]。那么,这是否意味着人类的感受性意识可以还原为神经运动呢?笔者认为,答案是否定的。根据文章中对人工触觉系统的说明可以推知,触觉反馈仍然是一种功能结构上的反馈或模拟,或者说就是通过传感器对神经运动的刺激记录人类触摸到各种物体的神经运动过程,再通过BCI系统指引AI肢体行为,以达到类似健全人类的感知-神经-行为效果。但是,这并不意味着四肢瘫痪患者就真的能通过AI“感受”到这个“软软”的物体,从而行为上会小心翼翼,害怕它受到伤害或破坏,而只是通过AI传感器的反馈并从BCI神经数据库辨别了这是个软软的物体、容易被伤害,然后再做出相应的行为反应。
虽然目前对脑机融合技术的研究仍然还只是处于初级阶段,但是其原理基本是一致的;因此,Neuralink公司倘若是想通过医学AI的发展,对人类意识,包括情感、欲望、喜好等感受性意识的直接移植,这是不可能的,因为意识不可还原;但是作为存储的知识输入或移植则是可能的,即把一个自然人的记忆、认知、情感、欲望“说”出来后,存储到“芯片”或其他介质中,再通过医学AI技术接入大脑,就像在大脑中装了一个存储了各种“意识”的数据库,进而对被移植人的“意识内容”进行干扰或诱导,达到改造意识的目的,这是可能的。那么,这个被植入他人记忆、情感、欲望和认知信息的脑机融合人,他是谁?能够被“操作者”随意“修改”,甚至编造记忆,进而影响其行为能力的脑机融合人还是人吗?如果是人,通过医学AI增强的“脑机融合人”对我们这种没有增强过的“自然人”会构成威胁吗?如果不是人,只是另一种有着人类躯体的“AI”,那么我们能够控制它们吗?虽然笔者也认同,作为一种有利于整个人类身体健康福祉的新科技,我们应该以包容和积极的态度去认识它们,但是当这种技术发展显然威胁到人类的生命延续和人类命运时,我们就应该提高警惕,直面以上问题。
究竟什么算作“人”?或者我们更直白一点问,通过记忆移植、拥有超强认知和各种技能的“脑机融合人”是不是人?在直觉上,作为一个正常的、普通的自然人,我们是拒绝承认的,甚至是反感、恐惧的。为什么呢?因为不论是在常识还是在哲学讨论中,一个正常人的核心或者灵魂是拥有“自我意识”或“自由意志”,这也是我们在前面分析并提到的强AI医生与人类医生的分界线,也即是说,“脑机融合人”是不是人就在于确定其是否拥有自我意识或自由意志。
虽然对于什么是“自由意志”在学界有各种解释,但是笔者认为,所谓“自由意志”就是“我”能够完全自主掌握自己的思想和信念,可以根据自己的情感、欲望、偏好和认知,进而做出各种判断和行为方式。虽然这种“自由”在一定程度上会受到现有社会历史条件的限制,但是这种限制是一种非常宽泛的影响或限制,可以看成是整个人类历史文化的积淀作为一个人意识网络的“背景预设”而存在;例如,我们理解并知道面包是用来吃的、手机是智能通讯工具、汽车是交通工具等。除此之外,我们对自己的思想和认知拥有绝对的选择权,对于我是谁?我想做什么,我怎么做,在我的意识认知中都具有自主选择权。
“脑机融合人”通过医学AI增强,可以借助芯片或其他介质间接拥有前辈的知识、信息和记忆,这些知识、信息和记忆当然会可以进一步影响“脑机融合人”的情感、欲望和行为方式等;那么这样的“脑机融合人”还会有“自我意识”吗?这个“脑机融合人”到底是谁?是前辈还是自己?或许有人会说,“脑机融合人”可以把前辈的认知和记忆等当成是一种教科书的知识储存,通过分辨“这是移植给我的记忆、知识和能力……”和“这是我自己的经验和认知……”而拥有自我意识。可能吗?笔者认为答案是否定的,因为这两者是不可分辨的。可以想象一下,我们从小通过学校、家庭教育和生活实践中学习到的知识、经验、价值取向等与自己的欲望、情感、认知能力是可分辨的吗?进入人类思想意识的这些记忆和认知,即使一开始我们能够分清这是在学习“知识”的过程,但是在各种生活实践和社会实践中,这些认知必定会与我们的自我意识相互影响,直到相互融合。也即是说,脑机融合人拥有了不属于自己的各种记忆和认知,必定会与自己的记忆、情感、欲望和认知相融合,进而影响其价值判断和行为方式;在这个意义上,笔者认为脑机融合已经不具有自由意志,其拥有的自我意识已经是融合了“操作者”给它植入的认知信息,不是一个完全意义上的“人”了。
其次,前面我们还提到的Neuralink公司的第二步计划,这一计划一旦实现,就可以根据需要对“脑机融合人”的欲望、情感、认知和行为方式进行干预、修改,甚至是设定,而不仅仅是植入信息;虽然前面分析已经表明意识是不可还原的,但通过其他介质在“脑机融合人”的头脑中植入大量的“设定”信息以干扰其意识,这是可能的。倘若如此,被修改、干预和设计了各种情感、欲望和认知内容的“脑机融合人”实际上就完全失去了“自我意识”和“自由意志”,只是一个有着人类肉体的超级AI。其中所隐含的威胁就更加明确了,例如,操纵这些超级AI的“控制者”会不会凌驾于所有自然人类之上?这些超级AI会不会被不法分子利用?谁将会成为这种“超级AI”?超级AI会不会脱离控制,成为一种“新型物种”进而对自然人取而代之?所有种种,都将成为可能。而且这些威胁一旦成为现实,其对人类命运的毁灭性打击将是不可逆的。或许还有人会说,可以通过各种伦理法规来限制这种脑机融合技术的发展,让自然人和“脑机融合人”和平相处;的确,当前世界各国对AI讨论如此之热烈,就是在找寻最恰当的方式来引导和规范相关的研究和运用;但在真正的威胁来临之前,我们需要理性认识医学AI的发展进度,保持警惕和关注。
4 医学AI治疗中的伦理和安全威胁
此外,还有医学AI在运用过程中所带来的第三种威胁,即在医学诊断和医学治疗过程中的权利和责任、技术安全与医学伦理方面的威胁,那么这些威胁是否存在呢?首先,在医学诊断方面,传统医学诊断,如中医诊断的基本方法是“望闻问切”,在西医中则是借助各种影像医疗技术,基本要求就是需要“看”到病人的症状。现代医学AI在这一领域的发展迅速,人类也从中获益不少,如本文一开始就提到的“安克侦”与463名超声医生的对战。AI通过完备的数据储存和超强的计算能力,可以“看”得更仔细、更深入、更全面,从而得出更加可靠和全面的数据。并且,基于医学AI技术上发展起来的各种“云诊断”“AI医生”等可以使得看病问诊变得更加便捷以及大众化,有利于促进实现医疗资源的公平化,全面提升人类健康水平和生存状态。但是,AI诊断的主要方向就是通过“大数据”和“云计算”来判断疾病的来源及症状,进而“计算”出各种治疗方案及其治疗效果。这一技术的进一步深入发展,必然会涉及“问询”或者直接大数据查阅病人的生活习惯、做过什么事情、去过什么地方、身体基因有什么问题、家族有什么遗传疾病等信息,这便引发了对个人隐私保护及信息安全的问题;包括AI所依据的病例信息从何而来、就诊患者的隐私信息从何而来、由谁保存、谁有权查阅、如何保证这些信息数据不被泄露等,这些都是医学AI发展中必然要面对和解决的现实问题。
其次,我们知道,在中医的“望闻问切”中,有望其精神气,闻其音是怒、喜、清脆还是浑厚,闻其身是香还是酸腐臭等,即便在西医看诊中,也是需要与病人面对面察言观色再辅以仪器;对于这些需要通过医生“感受”的症状AI能够诊断出来吗?我们知道,当前AI医疗诊断的原理是把人体“数字化”,即从大数据平台把患者日常生活中的习惯、方式等可能引发的各种分散问题数字化,然后根据大数据计算出大多数情况患者会有什么症状和后续问题、大多数医生或患者面对此类疾病时会如何选择处理、相应的风险等,进而向患者提出个性化的治疗方案。在这个过程中,AI所提供的“共享”的最优治疗方案都是基于理性的大数据,给出的标准答案;也即是说,患者的自我价值、主观情感或情绪意识等都不在AI的诊断能力范畴内,而只是或至多只能从复杂的数据中推测此类“意识”状态可以接受的最佳治疗方案。但是我们知道,患者的情感、意识对于治疗是非常重要的,最极端的如:是选择有尊严的死去还是活着,这将直接导致不同的治疗方案。但是因为意识的不可还原性,人类的情感意识和感受性也不能还原为数据,所以即使再“智能”的AI也无法通过精密的大数据和运算观察到并理解病人的情感意识,因而其提供的医疗治疗方案只能是“仅供参考”。从这个角度看,对AI的诊断是否可靠提出质疑也是合理的。
最后,在医学治疗方面,在运用AI技术治疗过程中,倘若是因为AI技术程序上的失误而导致的医疗事故,责任应该由谁承担?这里便涉及到医生和AI技术研发人员(部门)的权责以及医生的职业道德等问题。我们知道,医生在成为医生的过程中,经过了长达至少5年~10年的专业训练,其中不仅仅是医学知识和医学技术的学习与训练,还包括医生职业道德的熏陶和塑造,如人道主义精神、尊重病人、严谨求实等。那么,在AI技术转化为医学运用过程前,AI技术的研发是否应该植入专业的医生职业道德,如何植入?医学AI技术的研发可以遵循提升人类生命健康的目标,抛开各种利益因素的影响吗?例如,在传统医学治疗过程中,往往是医生根据自己的经验,甚至是价值偏好,在与患者商量的情况下,采用相应的“保守”或“激进”治疗方案;所以在传统医学治疗中,除去外在技术设备,医生的认知能力、经验和判断非常重要。也即是说,“为一个特定的患者选择最佳的治疗方法需要患者和医生的价值判断”,医生需要根据患者的价值取向,进行相应的选择,所以有不同的医疗决定适合不同的人之说。也即是说,在医学AI的研发中,当然需要植入这种伦理价值;但是该如何植入?我们知道,AI医生即使通过算法和程序具有一定的自主性,能够在程序设定下模仿人类的道德和行为,但是它仍然只是一个代理器;植入的程序是否完善、合理直接影响其判断和行为,那么这是否又意味着我们要对AI的研发人员进行医学伦理价值培养?在当前医学AI技术的研发和使用过程中,我们需要仔细和全面考虑不同患者的情感意识和价值观念以及如何让AI在使用过程中更加“智能”地应对这些问题。
以上已经提及了当前医学AI治疗运用中主要面临的三种问题,但是笔者认为,我们只需要关注两点:其一,像人类一样具有自我意识的AI医生不可能出现,再智能的AI也不可能有自己的情感意识,因而也无法像人类医生和患者之间的交流一样来处理患者的情绪、情感和深层次的价值观抑或是信仰问题;这同时也决定了医学AI只能是人类医生的高级助手,而不可能成为一个独立自主的AI医生,其诊断仅供参考,因而不构成威胁。其二,通过AI医学增强创造的超级人类或“脑机融合人”,存在着消除人类自我意识,把人类变成超级AI的危险,是我们需要真正面对和警惕的威胁。除此之外,以上提及的在医学AI治疗和发展过程中遇到的隐私安全、技术可靠与否、职业道德等各种问题,甚至还有关于医学AI 的其他政治的、社会的、技术的等各方面的问题,我们终将可以通过法律和技术的不断发展和完善,对之一一加以解决。这是一个通过时间和实践可以逐步解决的问题,当前世界各国不定期举行的各种有关人工智能发展的会议也从侧面反应了人类的决心和能力,如此,第三种威胁论点也可以消解了。
5 结语
综上分析,像人类一样具有自我意识和自由意志的AI医生不可能存在,因为人类的意识不可还原,通过纯粹的物理结构不可能制造出具有生物意识功能的AI,因而不构成威胁。但是随着医学AI的发展,AI介入到人类身体、意识、生命过程中的方式越来越多,特别是脑机融合人的出现,存在消除人类自我意识,把人类变成超级AI的威胁,这种技术一旦失控又或者被不法分子利用,将会给人类带来不可逆转的灾难,需要保持警惕。除此之外,随着医学AI技术的发展,其中各种伦理的、技术的、职业的问题,都可以随着法律的完善和技术的发展逐步解决;无论医学AI先进到哪种程度,都将只是人类医生的高智能助手,是人类的福祉而不是威胁。