APP下载

查尔莫斯机器意识观的演变历程

2024-04-05赵小龙

关键词:机器经验大脑

赵小龙

(南京大学 哲学系,江苏 南京 210023)

引言

近年来,随着人类在脑科学与人工智能等领域的不断突破,一系列高新技术的相继问世——如ChatGPT、大数据、脑机接口等——使机器意识(Machine Consciousness)逐渐成为学界、社会共同关注的热点话题之一。所谓机器意识,又称合成意识(Synthetic Consciousness)、人工意识(Artificial Consciousness),是指一种非生物实体,具有主观体验和自我意识的智能系统。涉及哲学、心理学、神经科学、计算机科学等多个学科。其主要关注的问题是机器是否能够拥有类似于人类的主观体验、自我意识、自由意志等心理现象,以及如何判断和实现机器意识。然而,在哲学领域,机器意识是否可能是一个极具争议的话题,不同哲学流派或学者对于机器是否能够拥有意识持有相异观点,主要的观点和理论包括二元论(Dualism)、一元论(Monism)、泛心论(Pan-centrism)、功能主义(Functionalism)等,因此,机器意识仍属一个开放性问题,需要更多学者进行研究和探索。

作为当代最具影响力的哲学家之一,心灵哲学家大卫·查尔莫斯(David Chalmers)很早开始关注“机器意识”问题。他在博士论文中围绕“如何解释主观体验的本质和起源”进行研究,提出了意识的二元论,引起了学界广泛的讨论和争议。他在心灵哲学、语言哲学、形而上学和认识论等领域都有重要的贡献,同时也关注科技、人工智能和虚拟现实等前沿话题,探讨它们对人类意识和社会的影响。目前,查尔莫斯是澳大利亚国立大学脑意识研究中心主任、哲学教授及纽约大学哲学教授。他曾入选由美国教育网站“The Best Schools”评选出的“全球50 位最具影响力的健在哲学家”,其主要代表作包括《有意识的心灵》《意识的特征》《建构世界》等。

目前,关于查尔莫斯的机器意识观的研究文献已有不少,但据笔者检索的资料,目前并没有专门研究查尔莫斯机器意识观演变历程的文献。因此,本研究以查尔莫斯公开发表的著作和论文作为研究对象,并根据这些文本资料将查尔莫斯机器意识观的演变历程划分为三个阶段:早期阶段(1989-1994)、中期阶段(1995-2003)以及后期阶段(2010 至今),继而按时间顺序考察查尔莫斯各阶段的文本内容,系统阐述查尔莫斯不同阶段的机器意识观的基本特征。

一、查尔莫斯的早期机器意识观(1989-1994):机器意识存在实现的可能,计算是实现这一目标的核心基础

查尔莫斯是研究机器意识问题的代表性学者之一,其早期关于机器意识的文献并不多,其中代表性的著作是其于1996 年出版的博士论文《有意识的心灵》①和1994 年发表的《论实现计算》与《认知研究的计算基础》两篇论文。

在《有意识的心灵》中,查尔莫斯明确地问道:“机器是否可以拥有意识?一个经适当编程过的计算机真的能拥有思维(Mind)吗?”[1]313对此,他分析道:

我们可以将抽象的大脑神经描述转换为组合状态自动机(CSA)。②该CSA 对每一个神经元都有一状态矢量元素,对反应每一神经元的相关范围的每一元素有一子状态。CSA 的状态转换规则,反映了每一神经元状态以来其他神经元状态的方式,以及神经元状态联系到输入输出的方式。若大脑的非神经成分是相关联的,我们也能够将那些成分包含在内。任何一个实施了这一CSA的物理系统,将有一个细粒度的功能组织,该组织复制大脑的神经元层次的功能组织。根据组织不变性原理,这个系统所具有的经验与联系到大脑的那些经验并没有什么区别。[1]300

由此可以得出,查尔莫斯赞同机器意识存在实现的可能。他说道:“人工智能理性的实现似乎并不存在原则上的障碍。”[1]309

在《论实现计算》中,查尔莫斯虽未直接使用“机器意识”这个词,但他讨论了计算(Computation)[2]是否可以解释心灵的存在,以及是否存在一个计算使得实现了它的系统就等于具有了思维。他写道:

如果一个物理系统的因果结构反映了计算的形式结构,那么这个物理系统就实现了一个计算。这个描述是为组合状态自动机的类而发展的,但它足够一般化,可以涵盖所有其他离散的计算形式。实施(Implementation)关系是非空洞的,所以塞尔(John Searle)和其他人的批评是失败的。这个关于计算的描述可以扩展到证明计算在人工智能和认知科学中的基础作用。[2]391

这就意味着,在查尔莫斯看来,“计算为描述因果组织提供了一种完美的语言。用计算术语对系统的描述实际上是对其因果组织的描述,因此恰恰是对与解释其认知能力最相关的系统方面的描述。”[2]401这进一步说明,实现了某些类型的计算就足以拥有意识。

在《认知研究的计算基础》中,查尔莫斯进一步明确了计算在机器意识中的地位。他提出,计算提供了一个描述和确定因果组织模式的一般框架,而思维则根植于这样的模式,即思维的因果结构能够被计算所模拟。他写道:

这个观点(是指如果一个系统的因果结构反映了计算的形式结构,那么该系统就实现了计算)可以用来证明人工智能和计算认知科学的核心承诺:计算充分性的论题(Computational Sufficiency),它认为正确类型的计算结构就足以拥有思维。[3]

综合以上文本可以得出,在1989 至1994 年间,查尔莫斯关于机器意识的核心观点处于初级探索阶段。整体而言,查尔莫斯认为机器意识存在实现的可能,其中计算为实现这一目标提供了最佳路径。但“计算”作为实现机器意识的“最佳途径”遭受到了一定反对声音。例如瓜尔蒂罗·皮奇尼尼(Gualtiero Piccinini)就认为,查尔莫斯实际上并没有给出一个明确和可操作的计算的定义,而只是用了一些模糊和直觉的概念,比如“形式结构”“因果结构”等。并且他也没有提供任何证据或理由来支持他的实现标准,而只是基于一种不切实际的假设。因此他说:“计算主义——认为大脑是一种计算机制的观点——是空洞的。”[4]

二、查尔莫斯的中期机器意识观(1995-2003):“难问题”的存在使得实现机器意识变得困难,需要一定非物理形式的解释

如果说查尔莫斯在其早期著作中传递出的机器意识观内含对实现这一目标的积极信心,那么其在1995 年发表的《正视意识问题》这篇论文则正式宣告了达成这一目标存在难以克服的困难。

随着研究的深入,查尔莫斯开始关注意识的本质问题。在《正视意识问题》中,他将意识问题划分为两类:易问题(Easy Problems)与难问题(Hard Problem)。其中,易问题是“那些似乎直接易受认知科学标准方法影响的问题,即用计算或神经机制来解释现象。”[5]200而难问题则直面经验(Experience)的问题,即主观的意识体验为什么以及如何从大脑的某些物理的或神经的特殊构型中产生出来。[6]他写道:

意识的真正难题在于经验问题。当我们思考和感知时,虽有一个“信息处理的杂乱”(Whir of Information-processing),但也有一个主观方面。正如纳格尔(E.Nagel)(1974)所说,作为一类有意识的生物,有一些东西就是这样的。这个主观方面就是经验。例如,当我们看一些事物时,比如红色的东西,我们会有视觉经验:红色的感受质地、黑暗与光明的体验、视野深度的质量等等。其他体验与不同方式的感知相伴而生,比如单簧管的声音、樟脑球的气味等等。此外还有身体感觉,从疼痛到高潮;内部幻化出的精神图像;情感的感觉质量,以及有意识的思想流的体验。统一所有这些状态的是存在于其中的某种东西。所有这些都是经验状态。[5]201

鉴于“难问题的难点和独特之处就在于它超越了功能表现(The Performance of Functions)的问题”[5]203从而导致了在讨论机器意识相关论题时,根本无法回避意识的本质问题,即主观经验方面。因此,查尔莫斯认为,过去多年时间里,认知科学与神经科学的相关研究仍然无法解释为什么会产生主观经验,它们的工作属于“易问题”的范畴。查尔莫斯写道:

在过去的几年里,一些研究工作在认知科学和神经科学的框架内探讨了意识的问题。这可能表明上面的分析(指的是意识的本质具有主观经验方面的内容)是有问题的,但事实上,对相关工作的仔细检查只会使分析得到进一步支持。当我们调查这些研究只是针对意识的哪些方面,以及它们最终解释了哪些方面时,我们发现解释的最终目标总是“易问题”之一。[5]204

所以,从这个意义上来说,在查尔莫斯看来,即使我们可以制造出具有高度智能的机器,但这些机器仍然无法拥有真正的意识体验,它们仍属“哲学僵尸”(Philosophical Zombie)。于是,查尔莫斯提出,探索意识的本质需要某种非物理的内容参与。他写道:

我建议,意识的理论应该以经验为根本。我们知道意识的理论需要在我们的本体论中增加一些基本的东西,因为物理理论中的一切都与意识的缺乏相容。我们可能会添加一些全新的非物理特征,从这些特征中可以得到经验,但很难看出这种特征会是什么样子。[5]210

从以上文本中不难得出,在查尔莫斯看来,意识的本质在于主观经验(Subjective Experience),即一个生物如果具有主观经验,如看到、感受或思考的经验,那么它就是有意识的。当然,查尔莫斯的上述观点在1997 年发表的《在意识问题上向前迈进》和2003 年发表的《意识及其在自然中的地位》等多篇论文中也存在着类似的表述。

在《在意识问题上向前迈进》中,查尔莫斯写道:“鉴于物理领域是一个封闭的因果网络,下一个选择是将经验放在这个网络之外,用心理物理定律(Psychophysical Laws)使经验成为副现象的(Epiphenomenal),或者将经验放在这个网络之内,通过某种罗素一元主义,使物质的内在属性具有原始的经验性。”[7]44这篇论文也是查尔莫斯对那些批评《正视意识问题》所含观点的人的部分回应。查尔莫斯认为,意识具有特殊性,不能简单地用物理或功能性术语解释。因此,解决意识问题更合适的方案应当是一种融合了多学科研究成果的方案,“通过这种方式,我们最终可能会得到一个真正令人满意的意识经验理论。”[7]44

在《意识及其在自然中的地位》中,查尔莫斯将其意识观与某种自然主义相联,他说:“在最常见的自然概念中,自然世界就是物理世界,但在最常见的意识概念中,很难看出它如何能成为物理世界中的一部分。因此,要在自然秩序中找到意识的位置,我们必须要么修正我们对意识的概念,要么修正我们对自然的概念。”[8]102

在1995 年到2003 年间,查尔莫斯弱化了早期阶段所持的机器意识相对容易实现的观点,认为“难问题”的存在使实现机器意识变得困难,需要引入一定非物理形式的解释,即他所认为的意识属性二元论(Property Dualism)观念。查尔莫斯这一阶段的观点遭到诸多学者的反对,例如丹尼特(D.Dennett)、雷(G.Rey)等认为,“一旦人们解决了解释各种认知、行为和环境功能的简单问题,就不再存在解释意识的‘难问题’。”[8]102因此,难问题在根本上应该属于一个虚假问题。布洛克(N.Block)、斯塔尔内克(R.Stalnaker)等认为,“现象状态可以等同于(Identified)某种物理的或功能性状态。”[8]112在这些反对者看来,查尔莫斯将意识分解为“难问题”和“易问题”是没有必要的,因为意识是一种可被还原为某种物理过程,并不需要进一步扩展其本体论范围。而在查尔莫斯的支持者看来,查尔莫斯关于意识的“难易之分”是一种清晰且有力的分析,可以帮助我们理解意识问题的本质和难度。例如,罗森博格(G.Rosenberg)认为,意识是一种不可还原为物理现象的现象,需要我们扩展或重构物理本体论。他说“我通过论证一个纯粹的物理世界不可能包含经验事实来说明物理主义(是指一种纯物理主义的主张)是错误的。”[9]

在此,笔者认为,查尔莫斯在此阶段关于意识本质的研究为机器意识仅仅提供了某种功能性解释,即机器意识或许只能是对人的思维能力或功能的模仿。而真正让机器具备意识的必备条件是它们必须有“主观经验”,也就是说,它们必须拥有特定的感觉和体验。总之,“难问题”的存在为实现真正意义上的机器意识筑起了一条难以逾越的鸿沟。当然,查尔莫斯对意识属性二元式厘定也为其后期持有的“机器意识需要渐进式上传”(Gradual Uploading)③的主张提供了一定动力性基础。

三、查尔莫斯的后期机器意识观(2010 至今):渐进上传可协助实现机器意识,要谨慎对待由机器意识引发的社会伦理问题

如前所述,由于查尔莫斯对意识问题不断深入研究,“难问题”的发现使其关于意识本质的立场逐渐转向了二元主义,但这并不意味着查尔莫斯否认了机器意识的可能性。近些年来,随着人工智能技术与脑科学的快速兴起与发展,查尔莫斯关于机器意识的观点逐步转向了某种“强形式的非物理主义”,主张渐进式上传是目前实现机器意识的最佳路径。与此同时,查尔莫斯认为,应当谨慎对待机器意识可能引起的各种社会伦理问题。

2010 年,查尔莫斯公开发表了他的第一篇主题为“奇点”的论文,即《奇点:哲学分析》。在《奇点:哲学分析》中,查尔莫斯通过对“奇点(Singularity)④是否真的可能存在”这一问题的回答重新表明了“机器意识是可能的,但不是必然的”这一立场。他说:“奇点真的可能存在吗?我认为这当然不是不可能的,主要的障碍很可能是动机方面的障碍而不是能力方面的障碍。”[10]然而这一观点遭到了诸多学者的反对,例如亚历山大(I.Aleksander)提出,“第一,现有人工智能的知识表明我们距离奇点还很遥远。第二,设计一个比人类智能更高的系统需要完整的‘自我知识’(Self-knowledge)和完整的认知心理学。”[11]145因此,可以说奇点的出现是困难的,甚至不可能。但在查尔莫斯看来,亚历山大的反驳是无力的,他写道:

对于第一点,当前的人工智能水平与人类智能的水平之间的差距可能会对几年或几十年内达到人类水平的人工智能的说法产生怀疑,但它并没有对我为几个世纪内出现人工智能的前提提出的论证产生太大的怀疑。对于第二点,真的需要完整的自我知识并不清楚。……通往人工智能的路径,例如人工进化(Artificial Evolution)与机器学习(Machine Learning),有可能采取与人类智能完全不同的路线,因此再次说明不需要自我知识。[11]145

由此,可以看出,查尔莫斯关于机器意识的实现始终怀有积极态度。那么,此阶段的查尔莫斯认为机器意识的实现路径应当归于何处呢?我们可以从其撰写的《现实+:每个虚拟世界都是一个新的现实》《大型语言模型可以是有意识的吗?》等著作中窥得一二。

在《现实+:每个虚拟世界都是一个新的现实》中,查尔莫斯关注一种特殊类型的机器,即“完美模拟大脑的机器”。即人的“每个神经元都被完美地模拟了,就像大脑中的每个神经胶质细胞和其他细胞一样。神经元之间的相互作用也得到了完美模拟。所有的电化学活动都是模拟的,其他活动也是如此,例如血流。如果大脑中有一个物理过程对大脑的功能产生影响,那么它将被模拟。”[12]265查尔莫斯说:“模拟大脑(Brain Simulation)是一个运行在计算机上的数字化系统。如果我们能够确定一个数字化系统是有意识的,那么我们就知道没有普遍的理由说明数字化系统不能有意识,闸门(指的是机器意识)就会打开。”[12]265

那么,如何才能实现这种类型的模拟大脑呢?查尔莫斯认为“渐进式上传”是最佳之选。他说,“成为模拟大脑最安全的方法是分阶段进行。这个过程有时称为渐进上传。”[12]266该过程被查尔莫斯描述为:

对每一个细胞均进行模拟,并安排它通过受体和效应器与邻近的生物细胞相互作用。起初,只有少数原始细胞会被模拟细胞取代。一段时间后,许多细胞将被替换,相邻细胞可以以完全模拟的方式相互作用。最终将模拟大脑的四分之一、一半、四分之三,直到结果是一个完全模拟的大脑。[12]266

查尔莫斯提醒到,在每个模拟阶段,假如模拟足够准确,都会通过向被模拟者询问一些简单问题以验证其是否具有意识。例如有人会问:“你感觉怎么样?”你可能会回答:“我感觉很好”,或者“我感到饥饿”,或者“我感到疼痛”等。最后,当大脑完全被模拟所取代,在被询问类似上述的问题时若依旧能获得确定性回复,那么,“对你来说,这是完全令人信服的证据,表明机器可以有意识。”[12]267也证明了渐进式上传路径的合理性。

在《大型语言模型可以是有意识的吗?》中,查尔莫斯继续围绕机器意识问题进行了相关讨论,他说:“在关于意识的主流假设中,认为目前典型的大型语言模型——比如GPT 系统——具有意识的可能性很低是合理的。”[13]19但“在未来十年内,我们很有可能会拥有具备感知(Senses)、具身化(Embodiment)、世界模型(World Models)和自我模型(Self-models)、循环处理(Recurrent Processing)、全局工作空间(Global Workspace)和统一目标(Unified Goals)的强大系统。”[13]19其中,“通过‘神经人工智能’(Neuro AI)挑战,即在虚拟具身系统(Virtually Embodied Systems)中与各种非人类动物的能力相匹配的方式来解决这个问题是一种方法。”[13]19也就是前面所述的“渐进式上传”的方法。另外,查尔莫斯提醒到,人类应当认真对待大型语言模型在未来具有意识的可能性。因为“不经意地和盲目地追求有意识的人工智能可能是一场灾难”[13]21。因此,“我们应当明确机器意识的可能路径,并小心处理这些问题。”[13]21

从上述的论述中可以得出,自2010 年至今,尽管因关于“意识”本质的研究导致了机器意识的实现再度陷入困境,但查尔莫斯对其实现的信心仍未改变。他在提出渐进式上传能够成为实现机器意识的一种可能方法的同时,也提醒人们需要谨慎对待由机器意识引起的潜在社会伦理问题。

四、结语

通过对查尔莫斯文本的考察,本文将其关于机器意识的思想嬗变历程划分为三个阶段:早期(1989-1994)、中期(1995-2003)以及后期(2010 至今)。在每一个阶段中,查尔莫斯均围绕“机器意识何以可能”而展开了不同方面的思考。在早期阶段,查尔莫斯认为机器意识存在实现的可能,其中计算是实现这一目标的核心基础;在中期,他认为“难问题”的存在使得实现机器意识变得困难,即主观经验的产生不仅仅是物理和计算过程的结果,而且涉及更深层次的意识现象,因此需要一定非物理的方式进行解释;在后期,查尔莫斯认为机器意识的最佳实现路径是渐进式上传,且应当谨慎对待机器意识的发展。总之,查尔莫斯机器意识观的演变历程显示了一个哲学家在面对新兴领域问题时的逐步深化和创新。

注释:

①查尔莫斯于1989 年开始攻读博士学位,因而可以将1989 年看作其机器意识观的开始。

②组合状态自动机(Combinatorial-state automata)是查尔莫斯为解释“一个物理系统如何实现一个计算”所提出的概念,是一种抽象的计算模型,主要由一组状态和一组转移规则组成。

③“渐进式上传”是查尔莫斯针对“难问题”的存在而提出的一种技术主张,指的是将一个人的大脑逐步替换为人工神经元或其他计算设备,从而实现人类意识的转移和保存。

④在这里,查尔莫斯将“奇点”指代为智能爆炸,即每一代机器会依次创造出更智能的机器的过程。

猜你喜欢

机器经验大脑
机器狗
机器狗
2021年第20期“最值得推广的经验”评选
经验
2018年第20期“最值得推广的经验”评选
未来机器城
最强大脑
最强大脑
最强大脑
最强大脑