中文屋论证究竟证明了什么?——由“中文屋论证”引发的计算机思维问题探析
2013-04-06杨小爱魏屹东
杨小爱,魏屹东,2
(1.山西大学 哲学社会学学院,山西太原030006;2.山西大学科学技术哲学研究中心,山西 太原030006)
塞尔(Searle J.)的中文屋论证(Chinese Room Argument)试图通过一个思想实验①中文屋思想实验:塞尔被关在一间充满中文字条的屋子里,通过在窗口传递中文字条与外界发生联系,并靠一本英文指令书将各种中文字条配对而后输出。由于他可以正确回答屋外中国人的提问,因此屋外人认为他懂中文;但在塞尔本人看来,自己仍然对中文一窍不通。证明出:单纯的语法不足以产生语义,单纯的计算不足以产生心灵,从而为“计算机能否思维”这一最具争议性的论题画上一个句号。然而,这个句号画得并不完满,从它产生之日起,就受到了各种各样的非难②比如,哈纳德的“逻辑性非难”、豪瑟的“语言性非难”、丹普尔的“反证法非难”、卡普兰德的“技术性非难”,还有“类比性非难”等。参见 Harnad S.Minds,Machines and Searle 2:Whats Right and Wrong about the Chinese Room Argument[A].Preston J.& Bishop M.Views into the Chinese Room:New Essays on Searle and Artificial Intelligence[C],Oxford:Oxford University Press,2002:294 -307.Hauser L.Searle's Chinese Box:Debunking the Chinese Roan Argument[J].Minds and Machine,1997(7):199 -226.Damper R.The Logic of Searle's Chinese Room Argument[J].Minds and Machine,2006(16):163 - 183.Copeland B.J.The Chinese Room from a Logical Point of View[A].Preston J.& Bishop M.Views into the Chinese Room:New Essays on Searle and Artificial Intelligence[C].Oxford:Oxford University Press,2002:109 -122.魏屹东,杨小爱.“中文屋”论证过程与目的类比关系分析[J].人文杂志,2011(5):27-33。,这些非难将句号扯开了一个缺口,拉成了一个问号——中文屋论证真的能够证明出计算机无法思维么?或者说,中文屋论证究竟证明了什么?
一 计算机计算了什么?
若要对中文屋的内涵和目的有更深入的了解,首先需要为其主体概念正身,即计算机是什么,它到底计算了什么?
尽管,戴维森说过,“试图定义真乃愚蠢的”[1],他是从语言学角度对“定义的不确定性”进行论述的。但是在现实研究中,尤其是进行科学议题时,“试图定义”是不可或缺的,否则我们将会陷入含义模糊的怪圈。比如,在我们通常的观念中,“思维”、“心灵”、“符号”等概念是显而易见的,但实际上,这些概念并未得到充分定义,是含糊不清的,正如克姆皮(Kamppinen M.)所言:“(认知科学和心理学研究者或许还没有认识到)这些概念并不像它们所广泛使用时所显示的那样清楚。”[2]而正是这种概念的模糊性使得我们在一些问题上纠结不清,塞尔说过:“当认知学家将大脑说成是计算机、将心灵说成是程序时,那么这些概念的定义就显得尤为重要了”[3]。“计算”、“计算机”也属于这样看似有所指,但实则并无精确定义的概念。
通常而言,计算机就是能够计算的机器。但是这一定义太为宽泛,当一只松鼠在“计算”来年的食物时,它是计算机么?当人类在进行“1+1=2”的计算时,它是计算机么?当太阳系按照若干算法运行时,它是计算机么?很明显,它们都不能算作我们“概念”中的计算机,那么计算机究竟是什么?它又在计算着什么呢?
在行为主义(Behaviouralism)者眼中,心灵是不存在的,它应当被更加客观的术语重新定义或取代,而这些客观术语仅能包括那些公开可观察的生物活动或环境中的事件。[4]比如行为、计算。如果将这种计算概念带入宽泛的计算机定义中,计算机就是心灵的一种替代物,我们也无需证明计算机“能否思维”或者“能否产生心灵”,因为思维和心灵根本就不存在,计算机仅仅是在“计算”而已。
功能主义(Functionalism)者反对行为主义者将“心灵行为计算化”的做法,在他们看来,计算所表征的是“外部刺激-其他心灵状态-外部行为”之间的一种因果联系[5],也就是说,计算由功能决定,人们可以通过计算主体内容输入和结果输出之间的因果关系来解释它。
而将计算唯一化为心灵表征体的是计算表征主义(Computational Representationalism),它是一种强人工智能,在这种计算定义下,心灵或者思维等非理性因素只不过是一个数字化的程序或者程序系列,“心灵之于大脑,就如程序之于硬件[6]45”。这里的计算机就是一种“计算载体”,它的计算范围包含了“思维和心灵”。
而这个计算或者计算机定义恰是塞尔所反对的,“中文屋论证”就是为反对“强人工智能”而存在的。塞尔所代表的生物学自然主义(Biological Naturalism)流派将计算定义为一种“纯语法的运算”[7]10,但思维具有一种“生物学的本体论特征”,它无法被还原,更不是单纯的计算就能够表征出来的。那么,塞尔眼中的计算机究竟是什么呢?塞尔反对将任何东西都看做是一台数字计算机的观点,譬如,桌上的钢笔可以看做一台数字计算机,因为它正执行一个程序:“待在那里”;人脑也是一台计算机,因为它能执行多种计算程序。在他看来,这是一种全然空泛的观点。[8]显然,塞尔定义的计算机的范围是比较狭小的,他的计算机不包含任何隐喻成分,普通的人造物不是计算机,类人机器不是计算机,人脑更不是计算机,计算机仅仅是指依据冯·诺依曼的“储存程序”概念所制的机器,仅仅是1946年世界上第一台数字电子计算机ENIAC问世之后的通用机器。而这种计算机计算的正是一种排除了生物学特征的、单纯形式化的运算。
据上可知,计算机概念是混乱的,它所计算的内容在不同学者和流派眼中甚至是对立的:它可以计算心灵,但又无法计算心灵。如果依循计算表征主义的观点,心灵只是一系列数字程序,那么计算机本身就已经具备了心灵并且能够思维了。而如果依照塞尔等生物学自然主义的观点,计算机所进行的只是一种“程序操作”,而“单纯的程序又无法产生思维”,那么计算机就永远不可能产生思维了。但是,“单纯的程序真的无法产生思维”么?塞尔的中文屋论证真的证明出了这个观点么?
二 “中文屋”中住着谁?
在认知哲学家和科学家看来,塞尔的中文屋论证之所以会产生如此大的影响力,不仅由于其隐含内容丰富,还因为它的比喻十分精当。在这个论证中,塞尔使用了一种隐喻:“我”无法理解中文来隐喻计算机无法思维。也就是说,如果以计算机代替中文屋中的人,即使计算机通过了图灵测试、可以正确解决或回答人提出的问题,也并不能说明他真的“理解”了人类所提出的问题,因而也就没有意识。但是,塞尔的隐喻真的那么恰当么?
(一)隐喻的原则
在回答这一个问题之前,我们需要对隐喻有一个较为明晰的界定。隐喻几乎是与哲学相伴而生的,它是从古希腊就已经肇始的一种古老传统。也正是因为其历史悠久,所以内涵才愈加丰富,任何一种定义方式都难以完整地展现出隐喻涵义的整个序列。在此,我们只能综合各种隐喻观点来对其进行一个大概的推断,总结出几个隐喻特性:
1.隐喻原则之转换性。泰伦斯·霍克斯将隐喻定义为一套特殊的语言程序,在这套程序的作用下,一个对象的诸方面就会被传送、转换至另一个对象,以便使第二个对象似乎可以被说成是第一个对象。[9]在他看来,隐喻形式的多样性并不能掩盖其“转换”的本质,也就是说,隐喻对象可以是变化多端的,但是转换的程序却是完全相同的。霍克斯的观点向我们阐明了隐喻的一个原则:转换。确实,无论何种隐喻,都一定有隐喻方和被隐喻方,而隐喻正是双方沟通、比较的一种媒介。
2.隐喻原则之层次性。陈嘉映也曾对隐喻进行过界定,在他看来,隐喻就是借用在语言层面上成形的经验对未成形的经验做出的系统描述。[10]这就说明隐喻有一种层次性,而这种层次性正是隐喻目的性的一种体现,隐喻不是凭空的,而是在用一些占有先机的结构来引导和指引那些较弱经验成形的一个过程。
3.隐喻原则之同一性。这里,我们借用肯尼斯·伯克对隐喻的表征来说明隐喻的同一性,“隐喻是一种观照的工具,是从‘彼物’中抽出‘此性’,或从‘此物’中抽出‘彼性’”[11]。伯克并没有明确提出隐喻双方要具有同一性,但是他的理论给了我们一些启示性意义,即“彼物中的此性”和“此物中的彼性”究竟是什么关系?为何它们能够相互观照呢?在笔者看来,二者必须有一种同一性,也就是说,此性和彼性一定是一致的。举例而言,张三是头蠢驴,在这个隐喻中,张三和驴不同类,但二者有着最基本的相似处——蠢,只有这样才能成为被比较的双方;如果我们知道张三极其聪明,但蠢驴极蠢,而论证的目的是说“蠢”(张三),那么这个隐喻根本就不会成立。所以说,我们可以对伯克的隐喻进行一些修正:隐喻的关键是要从“彼物”和“此物”中抽出二者的共同特性——此性。
上述三个原则是隐喻的最基本原则,那么塞尔的中文屋隐喻是否符合隐喻的三原则呢?
(二)住在中文屋中的塞尔
从中文屋论证的目的出发,塞尔是要通过“中文屋中的塞尔无法理解中文”来证明“计算机无法思维”,那么,这个过程就出现了两个类比对象:理解中文-思维,塞尔-计算机。前者不能算作隐喻,因为,理解本就是思维的一种;而后者是不同类的事物,塞尔想要通过“塞尔无法理解中文”推出“计算机无法思维”就已经将二者进行了隐喻,隐喻的双方是:
a 塞尔
b 计算机
首先,塞尔要在“塞尔a”和“计算机b”之间进行隐喻,而这就是一种转换,所以符合隐喻的转换性。
其次,塞尔在用我们熟悉的、可以想象的思想实验来说明“计算机能否思维”这样一个认知难题,就是在用一个占有先机的“‘塞尔 a’无法理解”对“‘计算机b’无法思维”进行一种引导,因此符合隐喻层次性。
第三,塞尔将住在中文屋中的塞尔a与计算机b进行了隐喻比较。塞尔a的特性是:有思想,会思维;而计算机b最主要的、也是论证的目的所在是:没有思维能力。塞尔将这两种特性完全不同的事物进行比较,将这两种在最基本原则上出现抵触的事物进行比较,而且最终是试图证明最基本的抵触特性中的被隐喻方是正确的,即,用一方塞尔a的特性证明与其有相抵触的特性的一方计算机b拥有与它截然相反的特性,这显然不符合隐喻的同一性。
所以说,住在中文屋中的塞尔根本无法同计算机产生隐喻关系,也就是说,隐喻双方本就是无可比较的事物,它们要比较的最基本、最关键的部分——“此性”是完全不同的。而塞尔在他论证的最关键部分用了两个原则特性完全不同的事物来作为隐喻对象,这就是中文屋论证的弊端所在。
(三)住在中文屋中的塞尔操作
在众多质疑声中,塞尔也认识到了中文屋论证的一些问题,于是,他将中文屋论证进行了修正,用他的原话来说:“许多写给《纽约书评》的评论揭示了对该论证的误解,我并不是要证明‘计算机不能进行思维’……而是要反驳‘单纯的程序本身就会导致心灵’这样一种观点”[7]13-14。
就算学者们都误解了塞尔的理论,那么,现在我们用塞尔已经修正过的观点来作为论证基点,看看塞尔通过中文屋论证能否证明出“单纯的程序无法思维”这样的论点。
a 塞尔的行为操作
b 单纯的程序操作
这两个事物可以隐喻么?
第一,“塞尔的行为操作a”同“单纯的计算机程序操作b”之间存在一种相互转换关系,符合隐喻转换性。
第二,塞尔同样在用我们熟悉的“‘塞尔仅进行单纯的行为操作 a’是无法理解中文的”来证明“‘单纯的计算机程序操作b’无法产生思维”,那么前者就是一种占有先机的理论,用前者来引导后者的,符合隐喻的层次性。
第三,也是最重要的,“塞尔的单纯行为操作a”同“单纯的计算机程序操作b”具有同一性么?也就是二者是否存在本质上的类同点呢?我们设想,中文屋中的塞尔进行的仅是“将中文字条按照英文指令书加以对照而后输出”这样的行为操作a,在这个过程中不夹杂任何的非理性因素,而计算机程序进行的也是“将输入信息同计算机本身的程序进行对照而后输出”的程序操作b,二者都是在进行着单纯的“输入-对照-输出”这样的程序,所以具有类同性。
因此,我们可以说,塞尔对中文屋论证结论的修正还是有一定效果的,中文屋中最重要的部分可以进行隐喻了:塞尔的行为操作a-单纯的程序操作b。
但是,一些朋友得知我来北大当保安后,非常不理解,他们说你都大专毕业了,从事与法律相关的工作也不是难事,你怎么反而去当保安了呢?我开玩笑地说,在北大,我做不了学生,当不了授,只好当保安喽!
但是,如果这个隐喻成功了,塞尔就更加不能证明他要证明的结论了。在中文屋论证中,中文修正屋中的隐喻主体是“单纯的行为操作”,而且“仅仅”是单纯的行为操作,那么这种“仅仅的单纯行为操作”如何能够“说成我不理解中文”呢?它根本就无法思维、无法理解,即使是从字条中我们真的看到了这句话,也仅会将其当作一个“翻译字条”而已。
至此,我们发现,中文屋论证存在两个悖论:其一,如果中文屋子中住的是“塞尔”这个有思想的人,那么它就不能同计算机或者计算机程序进行隐喻,因此也就无法证明出计算机不能思维;其二,如果中文屋子中住的是“塞尔的行为操作”,那么这种“单纯的行为操作”就无法“说出我不理解中文”,同样不能说明计算机程序无法思维。
三 计算机如何思维?
据上述分析可知,中文屋论证失败了,它没能够证明出“计算机无法思维”或者“计算机程序无法思维”。那么,中文屋论证就完全没有意义了么?也不尽然。在笔者看来,这个论证的意义正在于,它阐明了“计算机思维的可能性”。这同塞尔的观点是截然相反的。这是否就说明笔者赞同强人工智能的观点呢?如果强人工智能是如塞尔所言的那般“将思维简单数字化”的理论,那么,笔者也不是一个强人工智能者,笔者并不认为我们的感觉是一种数字化的过程,因为它真实地存在着。那么,究竟是什么导致了思维的产生?计算机又是如何产生思维的呢?
回到中文屋思想实验中,塞尔每天在进行着重复的收图片、从英文指令书中寻找相应的内容、输出字条的过程,开始塞尔确实可以说“我不懂中文”。但是,年复一年,当他将“’‘-sun-太阳’-太阳”这个过程重复了上万次之后,他逐渐产生了记忆,“记住”了“-太阳”,当外界再次递入“”时,他无需寻找,自然地递出了“太阳”的字条;而当这种情况越来越多时,当他能够记住越来越多的词汇和语法时,当他能够用中文完整地翻译英文篇章时,他还能说“我不理解中文么”?通过对这个问题的思考,笔者总结出了思维产生的原因:思维是“进化中突现”的过程,并借此来探寻计算机思维的可能性路径。
(一)思维产生的原因
如果中文屋中的不是塞尔,而是“你”;如果不是塞尔在进行“输入-输出”,而是你在学习英语。那么,你是如何学习英语的呢?看到一个英文单词,你要从英汉词典中寻找到它的中文涵义,从而再将中文和英文结合起来,经过多次的反复练习,你终于“记住”了这个单词,仅仅一个单词的记忆并不能够使你说出“我理解英文了”;再经过一段时间的学习,你记住了许多单词,这时你还是能说“我不理解英文”;但经过几年的学习,你终于能够熟练地运用英文,并将一篇中文翻译成英文或者将一篇英文翻译成中文了,那么这时你还能够说“我不理解英文”么?这就如同“秃头悖论”一样,你掉一根头发不是秃子,掉两根也不是,但是当你头上的头发掉完后,你还能说自己不是秃子么?相信大多数人都不会了。
从这里我们可以看出,如果要理解中文英文或者思维,就是要浸润在时间中,当量变达到一定程度时就会发生质变,你就会获得一些你原本不具备的东西或特性,这就是“进化中的突现”。这一理论是对本格(Bunge M.)观点的借鉴,“每一个突现都是某一进化过程中的一个阶段[12]。”而突现就是“在复杂系统的自组织过程中突然涌现出新的、和谐的结构、类型和功能,它是在宏观层面上出现的现象。”[13]
其实,很多学者都将认知同进化和突现联系在了一起。进化-涉身认知理论(Theory of evolutionary -embodied cognition)[14]就是在研究时间和突现在心灵等非理性因素产生过程中所起作用的一门理论。塞尔也曾指出过,人类心灵的产生因归功于“强大的进化论优势”[6]135。克里克在《惊人的假设》一书中更是明确提过:“我们所有的意识经验都是由神经元的行为来解释的,它们是神经元系统突现的结果”。[15]
(二)计算机思维进路
思维是进化中突现的结果,那么计算机要产生思维,也需要遵循这种方式,也就是说,计算机需要进化,只有在不断进化的过程中才可能突现出思维来。
我们知道,计算机是通过规则程序进行运算操作的,不论它所处环境如何,只要运算就都是遵循指定的规则进行的,而人类却能够在各种各样不完全指明的环境中成功运用规则,计算机如果要模仿人类的这项能力,就必须将所有的“不完全指明”规则编成“完全指明”的。然而这是极其困难的,这个模拟真实人类认知的难点被称为“框架①早在1975年,明斯基(Minsky M.)就提出了一个类似框架的定义,指出一个框架便是一个等级结构。参见:Minsky M.A framework for representing knowledge[A].Winston P.The psychology of computer vision[C].New York:McGraw - Hill,1975:297。问题”:一个人无论决定什么框架规则,一些事先预料不到的“意外”情况总有可能出现,致使这个框架不完整不适当。也就是说,计算机若要思维,就一定要解决它的框架问题,而计算机框架扩大的过程也就是计算机逐渐进化的过程。
然而,如何扩大语境框架却成为摆在人工智能者和认知学者面前的难解之题。在尝试调和强人工智能和弱人工智能矛盾的道路上、在试图研制一种能表现人心灵特征机器的路途上、在解决“语境框架”的探索之路上,人类一直在进行着不懈的努力。
早在两百年前,德国哲学家、数学家莱布尼茨就曾进行过突破计算机固有模式的尝试,但由于当时的人工智能水平仍处于极低的状态,这一实验并未获得成功。上世纪60年代的“心理治疗专家系统”是计算机学者柯比为了通过图灵测试而设计的一个计算机软件,而图灵测试所表征出来的就是一种计算机语境框架扩大趋向,虽然这个软件通过了部分图灵检验,但在学者们看来,它离计算机思维仍然相距甚远。
直到80年代以后,随着认知科学的高速发展,计算机领域发生了一场“人工神经网络革命”,其标志性事件是“联结主义范式取代了符号主义范式”。“联结主义”之所以被称为革命,是因为它触动了“认知可计算主义”的核心,将认知科学研究从“离散符号研究范式”向“亚符号研究范式”进行了转化,也正是这次转化使人们看到了“语境框架”问题解决的曙光。
事实上,从1943年美国科学家麦卡洛克研制出第一个被称为“NP模型”的人工神经细胞模型开始,科学界就已经在向着联结主义网络方向迈进了,但受当时条件所限,研究和应用都未成气候。直到大规模集成电路出现以后,联结主义的研究才逐渐步入正轨,多层感知机、具有良好自适应特性的神经网络等方面的长足进步更使联结主义成为研究计算机思维的核心议题。
联结主义网络最重要的特征之一是叠加的可能性,也就是说,能够在一个网络上使用相同的权重组合来执行多种工作。美国科学家韦曾对这个问题进行过深入探讨[16]:
(1)因为叠加是可能的,所以一个网络能够存储某人遇到范例的所有信息,这类似于人类所能遇到的各种各样事件的集合,这样信息就会通过“1+1>2”的模式进行无限累积。
(2)相同权重组合将会使网络调整到所追踪概念及其关系的最佳状态,这样网络的重复性和相似性问题就有可能消失。
(3)网络联合真实特征将有可能保存所有共发属性,不需要在本质和特性间进行取舍。
联结主义的叠加可能性在一定程度上破坏了计算机的框架,使计算机在一定的规则下有可能产生更多的结果,为“语境框架”的解决提供了一条可能路径。或许某一天,计算机的语境框架扩大到了“突现”的程度,那么“计算机思维”也就不只是一种科幻电影和小说中才有的场景了。
四 结语
当然,联结主义也有很多不完善之处,我们无法确定“联结主义网络”就真的可以解决“语境框架”问题,而且它也并不能那么轻易地冲破分类心理学的防线,在使分类认知心理学实现为混合心理学之前,我们仍有足够的保留意见。正如斯梅尔所述[17],人工智能极限问题的解答,除了与哥德尔定理有关外,还需要对大脑和计算机模型做更深入的研究,探索其最本质的东西,这些都不是能一蹴而就的,计算机思维研究仍然任重而道远。
[1]D.H.戴维森.试图定义真乃愚蠢的[J].王 路,译.世界哲学,2006(3):90.
[2]Kamppinen M.Consciousness,Cognitive Schemata,and Relativism:Multidisiciplinary Explorations in Cognitive Science[M].Dordrecht:Kluwer Acaclmil Publishers,1993:17.
[3]Searle J.The Rediscovery of the Mind[M].Cambridge:The MIT Press,1992:15.
[4]Braddon - Mitchell D.Jackson F.Philosophy of Mind and Cognition[M].London:Blackwell Publisher Ltd,2000:29 -37.
[5]Place U.T.Is Consciousness a brain process? [J].British Journal of Psychology,1956(1):44 -50.Smart J.Sensations and Brain[M]//Rosenthal D.The Nature of Mind.New York:Oxford University Press,1991:169 -171.
[6]Searle J.Mind:A Brief Introduction[M].Oxford:Oxford U-niversity Press,2004.
[7]Searle J.The Mystery of Consciousness[M].New York:NYREV,1997.
[8]Searle J.Minds,Brains,and Science[M].New York:Harvard University Press,1984:31 -38.
[9]泰伦斯·霍克斯.隐喻[M].高丙中,译.北京:昆仑出版社,1992:1.
[10]陈嘉映.语言哲学[M].北京:北京大学出版社,2003:378.
[11]Radman Z.Metaphors:Figures of Mind[M].Kluwer:Kluwer Academic Publishers,1997:117.
[12]本 格.科学的唯物主义[M].上海:上海译文出版社,1989:31.
[13]Goldstein J.Emergence as a Construct:History and Issues[J].Emergence,1999(1):287.
[14]Anderson L.,Rosenberg G.Content and action:the guidance theory of representation[J].The Journal of mind and Behavior,2008(1):59 -60.
[15]Crick F.The Astonishing Hypothesis:The Scientific Search for the Soul[M].New York:Charles Scribner’s Sons,1994:11.
[16]Way E.C.Connectionism and conceptual structure[J].A-merican Behavioral Scientist,1997(40):729 -753.
[17]史蒂夫·巴特森.突破维数障碍[M].邝仲平,译.上海:上海科技教育出版社,2002:280-291.