人工理性批判:对德雷福斯的人工智能哲学的现象学反思
2019-01-10张昌盛
张昌盛
(中国社会科学院 哲学研究所, 北京 100732)
近年来,借助深度学习算法的突破,以人工神经网络为典范的联结主义的人工智能范式取得了重大技术成功。这新一波的人工智能进展有可能使新的人工智能摆脱前三次人工智能发展遭遇的由高峰到低谷的轮回宿命;尤其体现在这次人工智能的重大技术突破,拉开了人类第四次产业革命——人工智能文明时代的大幕。可以预期,人工智能将会成为即将到来的新产业革命的引擎。
在新产业革命即将来临之际,亟需对人工智能进行理论反思。这种反思不限于或者主要不是对人工智能的行业规范和伦理问题的反思,而是要深入到其最根本的理念层面,反思人工智能的极限;套用康德式的说法,真正的哲学反思应该是一种人工智能理性批判(简称“人工理性批判”①“人工理性批判”这个表达来源于德雷福斯,1992年德雷福斯发表的一篇文章的副标题就是“人工理性批判”[1]。),或者说从哲学上为人工智能划界。
本文主要是以德雷福斯从现象学角度对人工智能极限问题的探讨入手,通过引入塞尔的分析哲学和生物自然主义的视野作为参照背景,以塞尔对德雷福斯相关思想的批评为对照,重新思考现象学如何反思人工智能的限度。
一、人工智能的极限:几种代表性的观念
目前,科学界和哲学界的主流看法是,从理论层面看强人工智能是可能的,出现类人智能从而彻底超越人类的时代很快会到来;甚至很多人认为技术层面的突破将在本世纪不久的将来实现。因此,著名科学家霍金就不断警告,人工智能有可能导致人类文明的灭绝。但也有一些哲学家和科学家持不同意见,认为逐渐逼近人类某些智能的弱人工智能是可行的,但这种模拟逼近人脑的程度是有限的,原则上不能达到人类的智能水平。
哲学家德雷福斯、科学家彭罗斯等人于20世纪六七十年代就展开对人工智能的限度的哲学反思,他们的研究具有典范的意义,对后续的人工智能哲学影响很大。
彭罗斯以哥德尔不完全性定理为根据对意识的独特性、不可替代性进行了辩护。根据哥德尔不完全性定理,对于像算术系统这样复杂的系统,一个真的命题,并不一定能在系统内得到证明。也就是说,我们知道某一命题为真,但它在形式系统里得不到证明。彭罗斯由此论证,计算机所体现的是形式化计算的智能,受哥德尔不完全性定理的限定,但我们的意识则能够确认一个不能在系统内证明的真命题,因此意识所具有的智能超出了形式化系统所受的限制,意识不可被归约为形式化系统,也不能被形式化地刻画。从这种角度看,以形式化计算为基础的人工智能不能完全具有意识所具有的智能水平。
这两位学者都主张强人工智能不可能,原因是计算机无法充分、完整地模拟人的意识的功能。他们的区别在于,德雷福斯用了现象学的理论资源来论证计算机智能的局限性,而彭罗斯则从计算的形式化特征及其局限来阐述计算机无法与人的意识匹敌的原因。
他们的研究对于当代科学家、哲学家们进一步理解人工智能的本质,探索人工智能的极限都很有意义。但德雷福斯对于现象学的阐释尤其是他对胡塞尔思想的定位存在严重的问题,这使得他对于意识、身体和认知的关系的阐释有些偏颇,导致他从现象学角度对表征主义的批评并不具有足够的说服力,遭到许多学者的批评。而彭罗斯借助哥德尔定理对计算机的局限性的论证也存在一些根本的缺陷,导致其受到塞尔等生物自然主义者的批评。
塞尔不同意德雷福斯对人工智能的限度的看法。塞尔认为德雷福斯的人工智能哲学是基于现象学理论而得出的,而后者是一种对世界的视角主义的看法;这种视角主义的世界观有其合理性,但还有一种关于世界的更基础性的、客观性的看法,即基础本体论的看法被现象学忽略了。
基于生物自然主义,塞尔认为,既然人的意识是大脑产生的生物现象,人类的智能可以归结为一种生物算法,或者更严格地说是基于生物大脑神经元结构的生物算法,并非基于生物全身整体结构的算法;退一步说,即便是身体整体参与人的智能活动,身体的相应的智能因素也是神经元和感知器官,这些生物的智能因素也是一种生物算法或者生物算法系统,也能够通过对相应的生物算法的揭示来描述。
塞尔一方面批评功能主义,认为计算机算法无法实现类似于人的智能;但另一方面不同意彭罗斯认为人的意识无法形式化而导致智能无法用算法来模拟的看法,认为算法不仅仅限于形式化计算。大脑神经元结构的运行是广义上的计算。因此,如果对算法的界定不限于形式化证明,那么自然界中有很多种非形式化的算法,基于生物的大脑的算法系统可以实现强大的智能,而人类大脑的可以实现的智能就是生物算法系统所产生的。
二、德雷福斯对计算机人工智能的划界
(一)德雷福斯对人工智能的基本看法
基于计算机模型的功能主语和基于神经科学的联结主义,人工智能建立了两种基本的研究范式:问题求解的人工智能范式和机器的智能学习范式。如果用德雷福斯的概括,这两种范式分别基于操作思想符号系统的进路和建立大脑模型的进路。前一个范式认为心灵和计算机都是物理符号系统,所谓人工智能就是操作思想符号系统;“AI就是试图找到主体(人或计算机)中这些本原元素和逻辑关系,该主体映射出构成世界的本原客体和它们之间的关系。纽厄尔和西蒙的物理符号系统假设事实上是把维特根斯坦的看法(它本身就是经典的理性主义哲学传统的定点)转换成一个经验主义的主张,并以此为基础形成研究纲领”[4]421。后一个范式主要模拟大脑神经元结构建立人工神经网络,“我们应当以建立大脑模型,而不是建立心灵关于世界的符号表述的模型的方式来创造人工智能”[4]421。
德雷福斯认为,这两种研究纲领可以区别为基于符号表述的形式结构解决问题的模式和形成自我学习能力的模式。“指出这两个研究纲领的不同之处的另一方法是:寻求符号表述方式的人们是想找出一个形式结构,以使计算机具备解决某一类问题或是区分某些类型的模式的能力;而另一方面,罗森布拉特想要建造一个物理装置,或是在数字计算机上模拟这一装置,然后由该装置生成自己的能力。”[4]422
德雷福斯认为,前一种操作符号系统的范式即计算机功能主义是退化的研究纲领,而基于分布式计算的人工神经网络范式即联结主义是进步的研究纲领。他把这里的功能主义对应于由苏格拉底、柏拉图、笛卡尔一直到胡塞尔的哲学传统,把联结主义对应于接近海德格尔哲学的新研究纲领。
(二)德雷福斯对胡塞尔现象学、表征主义、认知主义的批判
德雷福斯的分析从计算机的形式化计算所依据的表征主义开始。德雷福斯认为,传统的功能主义计算机是基于表征主义的理论,把对象乃至整个世界进行系统化、框架性的符号表征,以此形式化的整全框架为基础,展开一种对具体问题的形式化表征和计算。德雷福斯对这种功能主义的人工智能范式从哲学理论层面追根溯源,认为这种功能主义计算机基于表征主义,以对世界的符号化的整体表征为基础,才能解决具体问题。这种表征主义基于传统西方哲学,即从柏拉图开始的抽象化、形式化;这种表征主义在近代的代表为笛卡尔、康德的认知主义;它的最新的代表为胡塞尔的意识现象学。德雷福斯对胡塞尔的意识现象学持强烈的批判态度,认为这一最新形态的表征主义的理论是传统表征主义、认知主义的延续。德雷福斯一直认为胡塞尔的意向性理论、认知模式乃至生活世界理论,都是认知主义、表征主义的模式,它们忽略了具身的、非对象性、非表征性的更原初的认知层面。因而,德雷福斯把胡塞尔归结为人工智能的功能主义范式的鼻祖,认为这种模式的人工智能具有极大的局限性,无法达到人类的认知水平,20世纪80年代以前的人工智能的失败就是这种表征主义的认识论的局限性的最好证明。
德雷福斯认为,实际上,人类的智能不仅仅依赖于符号表征方式,更多地是基于具身主体性的智能以及与周围世界的关联关系而实现的。后者是非对象性的、非表征的,也是不可形式化的,因此形式化计算不可能实现这样的智能。因此,德雷福斯认为,计算机的非身体性,使得它只具有形式化计算的智能,而不具有具身性主体的智能;另外,计算机也不是此在,不具有与世界之间的非对象性的内在关联关系,因此计算机的智能局限于形式系统计算,不能达到类似于人的对存在者的理解把握,更谈不上对存在本身的认知。反过来可以说,如果具有类似于海德格尔的此在模式的计算机,那么这种计算机是可以追问存在本身的。
(三)德雷福斯对所谓海德格尔主义的人工智能的看法
以上提到的种种“海氏人工智能”模型,都是基于计算机对人的认知方式的模拟;按照德雷福斯的思想,机器不具备类似于人的身体,也不具有此在“在世界之中”的存在模式,也达不到类似于人的、对周围世界的有意义的理解,所谓人所具有的非表征的、具身的、与语境相关联的认知是计算机无法模拟的。因此,所谓“海氏人工智能”归根结底是没有办法实现的。
三、从生物自然主义对德雷福斯的现象学和人工智能哲学的反驳
塞尔认为所谓现象学对世界的理论,是一种视角主义的看法,这种对世界的认知与人、主体具有相关性,有其合理性,但还有一种关于世界的基础本体论的看法,即世界本身如何具有其客观性;相比而言,基础性本体论比视角主义的看法更具有基础性、真理性,而现象学的视角主义的看法是一种派生性的看法。
基于塞尔的生物自然主义假设,更进一步讲,类人主体或类此在也是可以由人工智能工程实现的。在塞尔看来,意识是大脑或者说神经元结构的生物属性或机能,就像胆汁属于胆囊的分泌物一样。塞尔认为既然人的意识是大脑产生的生物现象,人类的智能可以归结为一种生物算法,或者更严格地说是基于生物大脑神经元结构的生物算法,并非基于生物全身整体结构的算法。
退一步说,即便是身体整体参与人的智能活动,身体的相应的智能因素也是神经元和感知器官,这些生物的智能因素也是一种生物算法或者生物算法系统,也能够通过对相应的生物算法的揭示来描述。
因此,如果某种生物或非生物的功能性组织具备适合的条件,不但能产生比拟于人的智能,而且能够产生类似于人类的意识,即借助于具备某些生物的功能性组织,意识也可以由硬件的运作和功能产生;那么,在可以自我复制的信息系统的意义上,人工智能也是一种类主体的“生命”,或者说人工智能也可以类似于此在的方式与世界打交道。
按照塞尔对算法的广义定义,算法是与人相关的,即基于人的视角对事物的看法,那么,如果从计算机的算法视角外推,不仅计算机的运算基于软件程序的算法,一切生物的存在和繁衍也是基于生物的算法,乃至宇宙中的运行也是广义算法。按照塞尔等人的自然主义的思路,一切认知和智能,无非是基于计算机或者生物的算法,凡是算法,大都可以用计算机模拟,凡是可由算法刻画的智能,皆可由人工智能实现。如果这些具身的、动态意向性、“在世界之中”是认知的重要参与因素,那它们是在包含脑、身体以及主体与世界互动关系的主体智能的整体功能性组织中发挥作用,那它们也属于广义的算法的范畴;如果这些因素、关系和运作是可以刻画的,那么相应就可以对主体的整体功能性组织的智能的整体性算法进行模拟。进一步说,如果这种整体性算法可以实现,那就意味着所谓海德格尔人工智能在理论上是可行的;或者说,德雷福斯一直区分的计算机智能、人工智能与人的智能之间的天堑消失了。
这是因为,虽然从具身的知觉层面看,主体与世界之间有一种原初的、非对象性的关联,从海德格尔的存在论角度看,主体与世界打交道的方式比认知关系更本源,但诉诸具身主体就需要处理身体问题。主体的身体始终是存在于世界之中的、空间性的,与世界中其他部分处于一种相互外在的关系中,在最基础的层面属于自然界的存在,身体某种意义上属于自然存在,遵循自然因果性关系。自然主义的视角,是把身体和其他自然对象齐一地看待,生物自然主义则认为宇宙间一切对象都遵循基本的量子理论揭示的物理规律;一切生命都遵循达尔文的生物进化论;一切认知和意识都是大脑的功能。基于这样的自然主义基本假设,那么由计算机的算法推广到生物算法,乃至宇宙的算法,都是顺理成章的。进而我们可以认为一切人类的智能是生物算法,甚至意识也是大脑的神经元结构的功能,乃至情感都是生物算法的产物。
四、人工智能与意识的关系问题
对于人工智能问题的反思,绕不开意识问题。因此,人工智能的哲学研究应该与意识的哲学研究结合起来。
从意识的角度考察人工智能,人工智能的极限则变为:意识是不是智能的必要条件?意识是哪些智能的必要条件?意识是智能的什么性质的必要条件?也就是说,如果智能(或某一部分智能)依赖于意识,那么哪些人类的智能是依赖于大脑和身体的,哪些是必须依赖于意识的?
人工智能与意识问题尤其是现象学的意识研究的交集在哪里?国内现象学家倪梁康教授认为,对现象学而言,所谓人工智能哲学问题的核心是人工意识问题。倪梁康认为:“人类的毁灭很可能并不是间接地通过对人类赖以生存的自然的毁灭,而首先和主要是直接通过自己创造的科技文化:人工智能战胜人类智能,人工意识取代人类意识。……最后的结果是人造智能取代人类智能,或者更确切地说:人工意识取代人类意识。世界进入一个后人类的、后生物的时代。人类由智人发展为智神。”[7]14而且,他认为,即便人工意识是可能的,但如果人工智能仅限于认知方面,而人类的情感和价值系统不能被人工意识取代,那么人类的独特地位就不会受到威胁。从这些论述可见,倪梁康对于人工智能的基本判断是属于所谓强人工智能的立场,即认为人工智能将能够产生类似于人的智能,甚至能够产生基于物理硬件和算法的人工意识。
倪梁康的这种看法具有代表性,其中涉及到几个基本而相互关联的问题:首先是人工智能的限度,即人工智能是否能够具备类似于人类乃至超越人类的智能;第二,人工智能和意识的关系,即意识对于人工智能是必要条件,还是人工智能与意识没有必然关联,或者智能与意识是同一件事的两个方面?第三,人工意识是否可能,其局限性是什么?人工意识是否具有类似于人的情感?第四,假设人工意识是可能的,情感是否是人类优越于人工智能的关键之处?倪梁康的提问和论述方式,预设了关于上述几个问题的一系列的前提假设。
首先,有必要对人工智能和意识进行区分。一般而言,人工智能并不等同于人工意识。人工意识这个概念中的意识是什么意义上的意识?如果肯定人工意识,一般意义上意味着肯定功能主义的基本设定,认为智能乃至意识可以在生命或非生命的平台上多重实现。在倪梁康的相关文章中,貌似把人工智能问题等同于人工意识问题。应该说人工智能问题和意识问题密切关联,但智能和意识是两个独立主体,也就是说,智能并不一定要基于意识。对于物理主义者而言,包括功能主义的强人工智能,意识并不是智能的必要条件,智能硬件反而是意识现象的充分条件,意识是物理硬件的随附现象,在智能中并不起作用,因此人工智能和人工意识问题合一了。按照功能主义的多重实现原则,只要硬件具备相应的功能性组织的条件,则人工意识必然产生,而且只要条件具备,人工智能不仅能够具备类似于人类的智能(甚至具备超越于人类的智能),也能够具备类似于人的情感、欲望。对于弱人工智能立场而言,智能并不需要意识为前提和基础,而且智能硬件也不是意识产生的充分条件,因此人工智能并不意味着人工意识。因此,人工智能无论如何也就不能具备主体的感受性、情感和欲望。显然,倪梁康似乎预先接受了强人工智能关于智能和意识关系的观点,认为人工智能意味着人工意识。
目前,强人工智能仍然只是功能主义者的一种理论假设或者更准确地说是一种信念,这种主张尚缺乏有力的科学和哲学论证。人类的认知有多种层面,在目前的人工智能中,在认知的高级层面,如在计算、推理等方面,计算机超越人类指日可待,或者说已经部分超越了;但在基础的感知层面,我们很难说计算机已经具备或者在可见的将来具备类似的能力,人工智能的所谓认知并不意味着包含相应的主观体验。另外,主体的行动方面,对计算机模拟而言是一个非常困难的方面。计算机可以模仿科学家的推理和计算,但却很难模拟儿童的日常行为,更不用说成年人的更为复杂的社会行为。
功能主义者的最主要困难在于其核心假说,他们认为智能可以由计算机的硬件加软件的算法实现,认为意识是物理硬件的功能性组织的属性或产物。这个根本主张仍然停留在一种信念层面,而非得到逻辑和经验的严格证成的观念,本身面临种种困难:物理主义无法解决人类的意识所具有的感受性问题,其物理主义一元论和认识论层面承认二元论在逻辑上不一贯,而且在认知科学研究的方法论层面,无论是物理主义、涌现论还是二元论,都是预设了大脑神经元的活动和主体心理现象具有对应性,都是以第三人称的客观研究和第一人称的主观心理报告相结合为基础的。
其次,认为即便人工的认知和意识可以实现,所谓人的情感、欲望等仍然是维持人的主体性地位和尊严的保障,这是严重低估了如果强人工智能实现可能会带来的问题的严重程度。事实上,哲学家、伦理学家们标榜人类具有的情感和价值是人类相对于基因改造的超人、人工智能而言的优胜之处的辩护,历来一直并不怎么成功。
例如,佛朗西斯·福山在其《后人类未来》之中,认为情感是人类之为人类的根本特质,“而正是人类所独有的全部情感,让人产生了生存意义、目标、方向、渴望、需求、欲望、困局、厌恶等意识,因此,这些才是人类价值的来源”[8]208。但是,他预先接受了达尔文进化论所谓人性是自然进化的产物,因此他不得不接受人性是生物的偶然的产物,也承认基因科技可以改变人性。最后,他只能诉诸伦理和政策规范来避免基因科技改变人性。
但按照自然主义的思路,则会认为情感是生物进化产生的心理适应器,为的是适应环境、延续生命和繁衍,与生理层面的进化配套。但自然进化过程是低效的、滞后的,人类的生理结构决定了人类具有众多缺陷。从生存和繁衍的角度看,基因优化在促进人类完善方面要优越于自然进化。情感在生存竞争中并不一定是有利的因素,反而可能是人类的缺陷;因此有些激进的基因科技的支持者认为,未来的基因改良,可以通过改造人类基因,去除很多给人类带来负面情绪的情感适应器,使人类更为强大、更为快乐。
与此类似,强人工智能主义者则会认为人工智能是宇宙生命的新阶段,硅基的智能体比碳基的智能体更优越、更少缺陷,因此他们把人工智能看作比人类更高级的生命形态。迈克斯·泰格马克说:“我们人类身为智人(Homo Sapiens),乃是周遭最聪明的存在。当我们做好准备,谦卑地迎接更加智慧的机器时,我建议咱们给自己起个新名字——意人(Homo sentiens)!”[9]364他认为人工智能发展模式是比自然进化更为高效的智能乃至生命的进化方式。
再次,如果承认人工意识,同时认为人工意识只是在认知方面超过人类,但却确信在情感和价值方面无法赶上人类,因此不需要担忧,这种看法也是过于乐观。如果认为人的智能乃至意识是可以由硬件加算法实现,那就意味着承认人的智能和意识可以形式化,人工智能到人类智能的根本鸿沟就被克服了。假设如此,若人类的认知意识可以由人工智能实现,那么人类的情感和价值方面也不会是阻碍人工智能的科技天堑。按照自然主义的观点,既然人类的一切意识现象都是大脑或者人的大脑加身体的产物,乃至是主体与环境互动的产物,那么人类的情感乃至价值等主观的现象或者说主观的事情,都是基于基本主体的身体和环境的基本事实基础上的产物,因此也属于塞尔意义上的广义的算法的产物,终究可以用计算机的人工智能模拟。
五、从先验现象学的视角看人工智能的极限问题
(一)反思德雷福斯对胡塞尔的误解
这里的问题的复杂性在于德雷福斯基于现象学对人工智能的理解是基于对胡塞尔的误读和偏见之上的。首先,胡塞尔现象学中既有德雷福斯所谓的表征主义、认知主义的层面的阐释,也有对前谓词的、非对象化、非表征的原初认知层面的阐释;对于具身性主体性以及具身认知也有明确的阐释,只是胡塞尔认为具身主体是奠基于先验主体性的、派生的主体性层面;甚至胡塞尔对于海德格尔所谓此在在世界之中的存在模式也不否认,在世界中存在属于生活世界现象学的范畴,是在具身化主体性层面的基础上被进一步奠基的层面。因此,按照胡塞尔的先验现象学,诉诸于具身主体在生活世界之中存在的模式去探求非对象化、非表征的原初认知层面仍然是不够的,还需要回溯到前谓词的认知层面,而这些层面必须回到现象学的先验还原才能被揭示。
其次,从克服自然主义的角度看,必须回到先验现象学。从胡塞尔现象学的角度看,身体问题始终是与自然物的问题关联在一起的。因此,现象学要克服自然主义的困扰,首先是要阐明身体的双重属性及其关系:自然属性和精神属性。身体不能仅仅看作世界中的一个客观对象,更应该看成具身主体的组成部分。主体不应仅仅被看作世界之中的,因为那样必然会导致对主体的对象化理解;主体首先应该被看作先验主体,不是在世界之中,不是世界的组成部分;如果一方面断言主体在世界之中,另一方面又说主体与世界处于非对象性的关系之中,这本身就是矛盾的表述,或者要避免这种双重表述导致的矛盾,那么二者不应该看作同一个维度的表述。
最后,如果要探求认知的本质,必须回到先验自我意识的层面去阐明。在胡塞尔看来,先验自我意识是主体性的领域,是非世界之内的、非对象性的,是一切认知之可能的根据和基础。一切认知,具身主体性的认知、具体的经验主体的认知,都是奠基于先验自我意识的,在历史的、具体化的生活世界中构成的,因此探求一切认知的最终根据和基础,必须回溯到先验自我意识。只有先验现象学的先验还原方式,才能使现象学真正地、彻底地克服自然主义。
从先验现象学视角看,使主体之为主体的最终根据在于先验自我,而非对象化或非对象化、表征或非表征的经验世界的方式或者说认知方式。因此,在人工智能问题上,要有力地回应塞尔等的自然主义观念的挑战,只有转向先验现象学才有可能。
(二)现象学的视角主义:塞尔的批评与先验现象学的自我辩护
塞尔对现象学的批判以及关于人工智能的基本观念都基于其自然主义立场。要反驳塞尔及其所代表的自然主义观点,就需要重新检视自然主义的基本观念。
如回到先验现象学的视角,也许问题的解决会有新的思路。从先验现象学的角度看,先验自我并不是世界的一部分,也不是世界之中的对象;先验主体的对应有精神、心灵、身体、世界4个层面的存在,都是先验自我的生活的组成部分;身、心都是主体性的层面,身体是主体的“自然端”,世界作为主体的周围世界,是主体意向的构成物。根据胡塞尔的观点,具身主体性是主体性的重要层面,对应于一切关于世界的经验的意向构成行为;但具身主体性并不是先验主体性的最原初的组成部分,是被原初意识之流的层面奠基的层面,甚至身体并不是主体性的必要条件。
从先验主体性的原初层面看,自然主义视角或许勉强可以被看作与具身主体的现象学视角对立的视角,或者可以比较的视角,但并不是与先验主体性视角同一层面的视角;因为一切身、心、世界都是在先验主义的视角之内;如果说现象学的方法是视角主义的,那么最彻底的视角主义就是原初的先验视角,是无对的(就是没有相对者),也就是绝对的,没有与原初的先验视角同一层面的、对等的或在其之外的视角,自然主义的第三人称视角只不过是基于原初先验视角的、具身主体的在生活世界之中,基于自然态度的一种派生样式的视角。因此,塞尔所谓无视角的看法是不存在的,主体的一切经验都在先验主体性的视角之中,这是先验现象学所揭示的最原初的“实事本身”。因此,塞尔的反驳的意义在于提示我们现象学的视角主义具有多种类型或者说层次,先验现象学最为彻底地揭示了这些视角。
(三)如何从先验现象学视角思考人工智能的极限
塞尔基于自然主义立场,将世界内的事物区分为基本事实和主观事实,认为现象学只是局限于主观性事实层面。在塞尔看来,一切世间的事物,可以分为基本事实和主观性事实,基本事实就是例如山川大地等自然对象、自然现象和事物,即自然世界;而主观性事实是指与人相关的世界,例如语言、文化、思想以及我们的知识,乃至建筑、电脑、汽车等一切人造物。塞尔基于自然主义立场,认为基本事实是不依赖于我们的认知的、客观的事实,这是世间一切事物的基础的、根本的、奠基性的层面,一切与语言、文化和思想有关的事实,都是基于基本事实而建构起来的,是派生性的。
在塞尔看来,我们关于世界的基本观念中,有3个具有真理性的基础命题:(1)物理学中的真理,即以量子理论揭示的宇宙间基本微粒的规律;(2)生物学中的真理,达尔文的生物进化论;(3)认知与意识的真理,即意识是大脑的产物,是生物现象[6]318。
塞尔的自然主义观念并无特别的新意,但却是当代文化中的主流观念,从根本来说,是自然主义裹挟着当代科技乃至整个自然科学对现象学的观念论思想的挑战。沿着自然主义思路,从微观的量子理论到宏观的基于基因学说的新的达尔文进化论,再到基于认知神经科学的意识学说,内在逻辑是一贯的。
如何回应塞尔或者自然主义对现象学的视角主义的批评是当今科技时代现象学面临的最为严峻的挑战。因为一旦接受了上述塞尔所谓的关于世界的3个基本原则性的基本判断,那么就等于接受了自然主义的一个很强的版本,对自然主义的回应和对现象学的辩护将变得很困难,甚至基本不可能。
事实上,塞尔上述关于科学揭示了自然规律和宇宙真理的看法,仍然有传统科学实在论的观念烙印。其实,20世纪以来,随着量子理论的建立和科学哲学的发展,科学家们已经放弃了传统的实在论观念。例如,霍金基于实证主义哲学观,秉持一种依赖于模型的实在论:“一个物理理论或世界图景就是一个模型(通常具有数学性质)和一组将模型元素与观测联系起来的规则。这为我们提供了一个用来解释现代科学的框架。”[10]32在某种程度上,这种科学观与胡塞尔现象学对自然科学理论的看法有诸多相似之处。如倪梁康认为,这种模型实在论已经接近先验观念论,例如“康德-胡塞尔的哲学主张,或者爱因斯坦-外尔的哲学主张”[11]27-28。但霍金的依赖于模型实在论和胡塞尔现象学的科学观有基本的区别,霍金的实在论是实证主义哲学的衍生物,限于科学哲学的方法论层面,而胡塞尔现象学的科学观是从生活世界中的符号和语言层面回溯到先验自我的领域。
从上面对原初的先验视角的阐述可知,我们关于世界的经验和理论,包括作为时代精神之体现的科学,都是基于主体性视角的产物,一切基本事实、基本原则、基本真理都是相关于主体的。我们对塞尔作为宇宙的基本真理接受的量子力学、生物进化论和认知神经科学等科学理论,都要理解为意向构成的、理念化的世界图景的产物,要基于生活世界这个意义之源去理解和阐释。
因此,在我们关于世界的系统的、理论性的看法都要依赖于我们的世界图景或科学理论的意义上,霍金才会说:“根据实证主义哲学,宇宙之所以存在是因为存在一个描述它的协调的理论。我们正在寻求这个理论。但愿我们能够找到它。因为没有一个理论,宇宙就会消失。”[10]译者序无独有偶,按照哥本哈根学派对量子测量的正统观念,量子表现出什么样的性质取决于观测方式,甚至物质及其某些性质是否存在也取决于观测方式;霍金甚至说在宇宙学中,宇宙呈现出什么样的历史也取决于我们的观测方式。
因此,就哲学的反思而言,对于认知与意识的关系,应该保持开放多元的态度。生物自然主义、功能主义对于意识的看法是基于当代自然科学尤其是生物学、神经科学的主流看法的,这些科学理论似乎天然是唯物论的实在论的立场。但按照当代科学的观念,生物学、神经科学的理论是建立在量子力学的基础之上的;而在量子理论和宇宙学中,对实在论的理解主要不是朴素的唯物论的实在论,例如霍金这样有哲学思维的科学家,就持模型实在论主张。因此,即便是立足于现代自然科学的主流观念,也应该对生命和意识的理解持一种高度开放的、反思的态度,不应像塞尔那样,仅仅从唯物论的实在论角度理解科学和自然,不应该把基本科学理论看作是近似的宇宙终极真理。
现象学要想彻底反思意识与认知的关系问题,就要克服对当代科学的自然态度,不能把自然科学的理论及隐含的形而上学预设毫无反思地、理所当然地作为现象学思考的理论前提,而是需要悬置其理论预设,借助于采用现象学还原的方法,重新理解和阐释相关的科学理论和哲学学说。具体而言,要揭示意识与认知的关系,需要对意识、认知与大脑的关系进行深入的研究,这是现象学与认知科学、神经生物学等跨学科研究才可能胜任的主题;如果更彻底地研究意识问题,甚至要把身/心关系或者主体/世界关系纳入其中整体考察,也许就需要对现象学、认知科学、生物学、社会认知进行跨学科研究;最终,要对认知和意识进行更彻底的研究,也许需要涉及到亚神经元的量子力学层面的微观机制和规律。之前,一些科学家、哲学家已经有关于微观粒子、量子力学与意识现象的关系的探索,例如彭罗斯的意识理论假设意识现象涉及到亚神经元细胞的微观结构,突现论则认为意识现象是微观粒子中隐含的属性在宏观层面上的展现,所遵循的规律是在宏观层面上突现的,截然不同于宏观物理规律;因此,现象学对于意识之谜的最终反思,需要回溯到量子现象层面,通过现象学与量子理论的跨学科研究才有可能实现。
六、余论
为什么对人工智能极限的哲学反思需要提升到康德式的理性批判的高度?这是因为人工智能问题并不限于科技导致的工具理性问题,也不限于科技的伦理规范层面,而是对认知、智能的本质的揭示,更涉及到对意识和人类理性的重新思考;由此引出对在人工智能时代,如何理解近代以来的关于人性的理论,即反思人何以为人的问题;甚至涉及到整个近代以来的人文主义的基本理念和价值观的问题;在人工智能时代降临、机器人崛起的语境下,我们也需要思考人类未来在宇宙中的地位问题。