强人工智能与泛心论
2021-01-02陈敬坤
陈敬坤
近年来,无论是在哲学领域还是在科学领域,意识与认知研究中泛心论的复兴都是一个令人瞩目的现象,一度被认为是荒诞不经的理论突然重新成为争论的热点。更有趣的是,泛心论复兴的这个时期恰恰也是人工智能讨论最热烈的时期,这显然并不完全是一种巧合。但奇怪的是,泛心论与人工智能仿佛是两个独立的话题,极少发生交集,斯坦福哲学百科人工智能词条完全没有提到泛心论,而泛心论词条中甚至没有提及智能(Intelligence)。乍看之下,这二者似乎也的确处于不同的话术层次,一个是当代科技前沿,一个则是心智的形而上学方案。但也有学者指出,强人工智能会走向泛心论,进而能够为泛心论提供支撑。本文将表明,强人工智能并不自动导致泛心论,即便强人工智能会支持某种形态的泛心论,但这种泛心论也不是当代泛心论者想要的那种泛心论。
一、人与机器:从自动机到人工智能
人工智能(Artificial Intelligence)概念的出现,通常会追溯到图灵1950 年发表的《计算机器与智能》,以及1956 年美国达特茅斯的人工智能夏季研讨会,自那以后关于人工智能的研究和学术讨论经历了数次热潮。近年来,伴随着深度学习、图像处理、语音识别等理论和技术的重要突破,人们对于人工智能的热情持续高涨,也极大激发了对于人工智能的乐观情绪:机器智能全面超越人类智能的“奇点”似乎触手可及,通过意识的上传和下载,人类甚至能够实现永生。但所有这些都基于一个基本前提,也就是机器能够产生意识,或者更具体一点说,一个适当编程的计算机足以产生人类所具有的那种心灵或意识,也就是塞尔(John Searle)所谓的强AI,相应的弱AI仅仅是对人类智能的某种程度的模拟[1]56。塞尔关注的焦点是强AI是否可能。通过著名的“中文屋”思想实验,塞尔试图表明,强AI 是不可能实现的,因为任何形式的计算都只能是语法形式的操作,而无法深入到内部语义理解的层面。塞尔断言:“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”[2]167,若果真如塞尔所言,那么无论人工智能发展到何种程度,都不会有所谓的奇点到来,因为AI永远无法具有真正的语义理解能力,因而也就无法具有人类意识或心智。在塞尔看来,即使电脑程序能够漂亮地“创作”诗歌、小说、学术论文甚至交响乐,它也不能真正理解并欣赏它自己创作出来的东西。因此,按照塞尔的标准,当前以及未来可能的人工智能都只是弱人工智能。
塞尔对强人工智能的否定固然维护了人类的特殊性以及所谓的“尊严”,但问题在于,包括人在内的生物系统与人工的、非生物的系统相比,其特殊性究竟在哪里,二者同样作为自然的产物,何以前者能够产生意识而后者却不可能。无疑,这已经是意识的根本问题,而且这一问题在笛卡尔那里就已经有考虑了。笛卡尔认为,人和动物的身体其实就是“神造的机器”,“人所能发明的任何机器都不能与它相比”[3]44,它们是如此的复杂与巧妙,以至于能够自己运动,因而被笛卡尔称为“自动机”(automata)。自动机的运动服从机械力学的原理,因此如果存在外表及行为看起来与动物一模一样的机器,我们将无法区分二者,但如果是看上去与人一模一样的机器,笛卡尔认为我们还是可以进行区分的,因为人的身体里还有“居住”着它的操控者——心灵,正是心灵使得人和“自动机”存在两个方面的重要区别:首先,自动机不会创造性地运用语言,不可能像正常人那样进行语言的交流;其次,由于“一种特殊结构只能做一种特殊动作”[3]45,因此自动机只能在某一个方面尽量模仿人,能做到的事情非常有限,而心灵所具有的理性却是万能工具,使人能够应付各种复杂的情形。
关于笛卡尔所说的第一个方面的区别,我们后来有了图灵测试,也就是图灵在《计算机器与智能》中谈到的“模仿游戏”。这原本是当时英国流行的一种游戏,游戏中提问者向藏在幕后的一男一女提问,藏在幕后的人把回答写在纸上,提问者以此判断藏在幕后的两个人的性别。图灵在这篇文章中提出,是否可能存在某种智能机器,能够很好地回答提问者的问题,以至于提问者无法区分它是机器还是作为生物体的人[4]44-45。可见,在笛卡尔和图灵那里,语言使用能力都被看成是区分人和机器的重要标志。笛卡尔自然无法预见到数百年后计算机科学的迅猛发展。尽管图灵的乐观估计并未完全实现①图灵预测,大约到2000 年,计算机在图灵测试中能够达到这样的水平,也就是让每个提问者在多轮测试后做出超过30%的误判。但直到2014 年才有被称为尤金·古斯特曼(Eugen Goostman)的人工智能软件达到了这个水平。,但或许不用再过另一个五十年,图灵测试对于计算机会变得毫无挑战。当然,通过图灵测试并不是人工智能的终极目标,人工智能的实现当然不仅限于语言使用能力。
至于第二个方面的区别,大致相当于我们现在对人工智能专家系统的批评。专家系统出现于20 世纪80 年代,美国著名科学家费根鲍姆(Edward Albert Feigenbaum)最早提出知识工程的概念,试图在计算机上建立“专家系统”,因而被称为专家系统之父,他认为智能系统之所以强大,是因为它所掌握的知识而不是具体规则[5]27-28。与笛卡尔对自动机的批评如出一辙,一个专家系统或许在某个特定方面可以超越人类智能,但在其他方面可能一无是处。
可见,笛卡尔所谈的这两点区别实际上都可以用于对人工智能的质疑,但类似这样的批评都只相当于查尔默斯所说的外部反对,目的在于表明计算机系统不可能具有认知系统那样的行为方式[6]377。查尔默斯认为这类反对意见不难反驳,因为“我们有足够的理由相信物理定律是可计算的,因此,至少我们应当能够计算地模仿人类的行为”[6]378。查尔默斯认为更严重的反对意见是以塞尔中文屋论证为代表的内部反对,这类反对意见试图表明计算机至多只能提供智能的模拟,而不是复制,也就是说,计算机不可能具有内部生活,不可能具有意识经验。但查尔默斯仍然认为强人工智能是可能的,并且会蕴涵一种泛心论的强版本。
二、计算产生意识:从强人工智能到泛心论
在《有意识的心灵》一书中,查尔默斯明确表达了对强人工智能的支持:“存在着一个非空的计算类,以使得在那个类中所执行的任何计算,对于心智都是充分的,特别是对意识经验的存在是充分的。”[6]379查尔默斯承认,逻辑上来看,计算完全有可能在缺乏意识经验的情况下发生,因此,计算对于心智的充分性只具有自然的必然性,而不具有逻辑的必然性,但这种自然必然性对于强人工智能的辩护已经足够[6]379。
此外,更重要的是,查尔默斯指出,如果像塞尔指出的那样,计算的执行不是一个完全客观的过程,而是相对于观察者的,并且,只要给予适当的解释,任何系统都可以被看作是执行了任何计算,那么,计算的概念将变得琐碎,“至于强AI,或者它是内容空洞的,或者它蕴含了以一种强泛心论的形式”[6]381。查尔默斯试图论证计算概念并不是琐碎的,强AI 能够在此基础上获得辩护。因此,尽管查尔默斯强调,计算对于心智的充分性并不是建立在其自然主义二元论的那些观点之上,但强AI最终仍会走向某种形式的泛心论。
查尔默斯以及任何主张计算例示了意识的哲学家都清楚地知道,系统的现象状态必须以某种方式通过程序执行时生成的计算状态转换序列来实现。图灵通过“离散状态机”(discrete state machines,以下简称DSM)阐述了实现这种状态转换的基本原理。他把DSM 定义为“通过突然跳动或是通过棘轮,从一个完全确定的状态,转变到另一个完全确定的状态”[4]51。为了阐明DSM的工作原理,图灵设计了一个简化的轮机,其棘轮每秒转动一次,每次转动120度,可以通过操作外部杠杆使其停止转动,此外,还有一盏指示灯,当轮子转到某个位置,指示灯会亮起。这样一来,当机器开动之后会在离散的时刻点循环通过三个计算状态,记为(Q1,Q2, Q3),并且,这些计算状态可以用轮子的位置(WA,WB,WC)来标示,这样一来,就可以将DSM 的计算状态(Q1,Q2,Q3)映射到车轮的物理位置(WA,WB,WC),比如:(WA→Q1,WB→Q2,WC→Q3)。对于这样的DSM,其行为完全可以通过内部状态的转换序列来描述,如果离散状态机的可能状态数是有限的,就可以通过映射表或映射函数来描述它们,因此,“一旦确定机器的初始状态和输入信号,就总是可以预见所有未来的状态。”[4]52
然而,正如塞尔指出的那样,这种映射是相对于观察者的,因为轮子的位置WA不一定非得映射到Q1,同样也可以映射到计算状态Q2或Q3,只要相应地分配好其他映射,机器的状态转换序列及其功能将保持不变。对此,查尔默斯承认,存在有限程度的观察相对性是没有问题的,但这并不会威胁到AI,因为“情况依旧是,对任何给定的计算,仍然存在关于给定系统是否执行它的事实,并且只有有限的一类系统有资格来执行”[7]320。
为了说明什么是执行一个计算,并证明计算的执行并不是琐碎的,查尔默斯在有限状态机(finite state automaton,以下简称FSA)的基础上引入组合状态自动机(combinatorial state automata,以下简称CSA)。CSA 与FSA 基本类似,也不比传统的FSA 更强大,唯一的区别在于,FSA 的内部状态是没有任何内部结构的简单元素,比如(s);而CSA 的内部状态是结构化的,比如,可以将s 构造成一个集合(s1,s2,…,sn)。引入CSA 主要基于三个方面的考虑,“首先,CSA 的执行条件比相应的FSA 的执行条件要严格得多。CSA 的执行需要包含多个独立部分之间复杂的因果交互作用;因此,CSA 的描述可以更细腻地反映系统的因果组织。其次,CSA 为有限和无限机器的执行条件提供了统一说明。第三,CSA 可以直接反映计算对象(例如图灵机和细胞自动机)的复杂形式组织,而在相应的FSA 中,这种结构大部分将丢失。”[7]318-319
引入CSA 后,查尔默斯说明了什么是执行一个计算:“如果有一种方法可以将系统状态映射到计算状态,从而使因果相关的物理状态映射到形式上相关的相应形式状态,则系统执行计算。”[7]317-318并给出了执行CSA时的形式标准:
如果一个物理系统P的内部状态分解为[s1,…,sn],并且存在从子状态sj到组合状态机M的相应子状态Sj的映射f,加上类似的分解以及从输入到输出的类似映射,从而,对于M 的每一状态转换规则([I1,…,Ik],[S1,…,Sn])→([S’1, …, S’n], [O1, …, Ol]):如果P 处于内部状态[s1, …, sn] 并接收输入[i1, …, ik],映射到形式状态并分别输入[S1,…,Sn]和[I1,…,Ik],从而可靠地使系统进入内部状态并产生一个分别映射到[S’1,…,S’n]和[O1,…,Ol]的输出,则物理系统P执行了组合状态自动机M。[7]318
这样就得到了一个执行计算的客观标准,而不会陷入塞尔所说的那种琐碎的境况,一些计算的确在系统中被执行了,而且,“至关重要的是,没有理由相信每一CSA 会被每一状态执行。”[7]319
按照查尔默斯观点,既然计算并不是空洞琐碎的,那么强人工智能必定蕴含了泛心论。查尔默斯并没有具体论述何以如此,大概是因为理由过于明显:如果有限状态机的状态转换例示了现象经验,那么任何开放物理系统的状态转换也必定如此,而自然界中几乎不存在完全不受外界影响的绝对封闭的系统,于是我们只能接受泛心论的结果。毕晓普(Mark Bishop)后来也沿着这一思路强化了这一观点,认为强人工智能明显蕴含了泛心论。现在我们可以大致给出强人工智能蕴含泛心论的论证:
(1)不存在绝对封闭的物理系统;
(2)每一开放的物理系统都是抽象有限状态自动机的一个实现①普特南(Hilary Putnam)在1988 年出版的Representation and Reality一书中论证了这一点,毕晓普认为其实并不需要这样强的主张,试图给出一种较弱的表达,但核心观念是一样的,即在有限时间窗口内,每个开放的物理系统都基于指定的输入执行其控制程序或者说特定计算。参见Bishop, J. M.,“Dancing with Pixies: Strong Artificial Intelligence and Panpsychism”,in Preston,J.& Bishop,J.M.(eds.),Views into the Chinese Room,Oxford:Oxford University Press,2002,pp.360-379.;
(3)每一抽象状态自动机都非琐碎地执行特定计算;
(4)抽象有限状态自动机通过执行特定计算例示了现象性质或有意识的经验(强AI);
(5)每一抽象状态自动机都例示意识经验(泛心论)。
不难看出,论证的前三个论题实际上表达了一种泛计算主义,加上前提(4),就导向一种特殊版本的泛心论。当然,这个论证还存在一些问题,特别是关于前提(4),何种计算对于意识的产生是充分的,这一点并不清楚。查尔默斯也承认这个问题仍然悬而未决,但他坚持认为“我们有足够的理由相信这个类不是空的”[6]399。需要指出的是,即使我们接受这一前提,进而承认强人工智能终将导致泛心论,我们也会发现,由此得到的泛心论其实与当前泛心论对意识的主流解释大异其趣。
三、强人工智能真的蕴涵泛心论吗?
查尔默斯一直被看成是近年来泛心论复兴的代表性人物,不过他一开始并不太愿意使用这一术语[6]361,而更愿意将自己的主张称为是一种自然主义的二元论,这一方面固然是因为“泛心论”这一术语本身包含了各种歧见,容易引起误解,另一方面恐怕也是因为当时环境下泛心论遭到的普遍敌视,毕竟这一理论看上去的确与物理主义格格不入。但查尔默斯版本的泛心论或许是林林总总的泛心论版本中自然化程度最明显的一种。
查尔默斯的自然主义二元论涉及三条基本原则:结构一致性原则(principle of structural coherence)、组织不变原则(principle of organizational invariance)、信息两面原则(double-aspect view of information)。所谓结构一致性指的是意识结构与认知结构之间的一致性,查尔默斯认为这种一致性体现了心灵的现象学与心理学之间的系统关联,这种关联简单来说就体现在,凡是有经验的地方,一般而言我们就有能力形成关于它的二阶判断,也就是对经验的觉知(awareness)[6]267-275。组织不变性原则可以说是随附性与功能主义相结合的产物,按照这一原则,两个同样精细的功能系统,它们在意识经验方面也是相同的。假如能用硅芯片替换每一神经元,同时让硅芯片复制被替换的神经元的功能作用或因果机制,就会得到一个同样精细的功能系统,也会产生相同的意识经验[8]25。信息两面性原则是指信息既可以物理地实现,也可以现象地实现,具体来说,“只要存在一个现象状态,那么它必定实现了一个信息状态,而这个信息状态同时也是在大脑的认知系统中实现出来的,反过来,至少对于部分物理地实现出来的信息空间,只要该空间中存在物理地实现出来的信息状态,这个信息状态同时也是现象地实现出来的”[7]286。
可以看出,这三条原则中,第一条符合我们关于意识经验的基本直觉,第二条是物理主义的基本信条,只有第三条体现了泛心论的色彩,严格来说是一种基于信息本体论的双面理论,因此,信息两面性原则是查尔默斯自然主义二元论的核心。查尔默斯倾向于认为,信息是普遍存在的,并且是根本的,所有的信息都与经验相联系,因此经验也是普遍存在的。但为什么我们并没有发现经验无处不在呢,查尔默斯的回答是,“简单系统并没有现象性质,但是有原现象性质(protophenomenal properties)”,原现象性质本身不是现象的,更不是物理的,但它们以某种方式构成了现象性质。另一方面,由于信息的编码解码本质上就是一种计算,因此信息两面性原则与前提(4)完全相容。
可以看出,查尔默斯在构建其理论框架的时候非常谨慎,一方面试图最大限度地与物理主义的基本信念兼容,另一方面则努力减少与日常直觉的冲突,毕竟,像古典泛心论那样主张日常对象也具有像人那样复杂的意识经验的确是荒谬的。结合上一节的讨论,我们发现,查尔默斯的泛心论其实是基于信息本体论的一种泛计算主义的泛心论。其理论说明依赖于对信息概念和计算概念的阐明。这种版本的泛心论对意识的解释实际上是功能主义的:导致意识产生的计算可以在不同的物理基础上实现出来,不论它是神经元还是硅基芯片。因此,在这种版本的泛心论中,不论是信息还是计算,都是中立的,现象的方面和物理的方面其实是实现方式的不同。在这个意义上,现象性质并没有被当做系统本身所具有性质,这就与泛心论的典型形式有了重要的区别。
泛心论复兴的首要驱动力源于对意识的物理主义解释的不满,这些不满通过形形色色的反物理论证表达出来并得到强化,而且这个问题实际上很早就被意识到了,至少可以追溯到莱布尼茨的磨坊论证:想象一下有一台机器,它的结构产生思想、感觉和知觉。我们可以把它等比放大,以至于我们可以进入它内部,就像我们进入磨坊一样。但如果是这样,当我们进去时,我们只会发现相互推挤的碎片,而永远不会发现任何可以解释知觉的东西。20世纪初,物理学家爱丁顿和罗素都揭示了物理学理论存在的解释鸿沟,爱丁顿指出:“物理学是关于形式结构的知识,而不是关于内容的知识。整个物理世界中充斥着未知的内容,这必定就是构成我们意识的东西”[9]200,罗素谈到,“就世界整体而言,不管是物理的还是心理的,我们所知的与内在性质有关的一切,都来自心理的方面,而我们所知道的关于因果律的一切几乎都来自物理的方面。”[10]402
这两段话被泛心论者广泛引用,其魅力在于,他们表明物理主义的解释鸿沟不仅体现在意识问题上,而且广泛适用于一切对象。因为按照爱丁顿和罗素的批评,物理解释始终只涉及关系和倾向性质,并未触及内在的、本质的方面。比如,什么是电子?物理学会描述其属性和运动方式,但对于其内在本质(quiddity)始终保持沉默,而一幅完整的宇宙图景除了物理学所描述的那些结构、关系以及倾向性属性之外,还应该刻画对象的内在范畴本质(categorical nature)。而这种范畴本质是什么呢?在泛心论者看来,没有更好的选择,只能是意识经验。当然,正如高夫(Philip Goff)指出的,是否还有其他替代方案其实并不清楚,我们只知道某些物质实体比如大脑所具有的范畴本质是意识经验,因此,最直接经济的方案就是认为大脑之外的物质实体的范畴本质与大脑的范畴本质是连续统一的。这样一来,如果我们要寻求一个关于心灵与实在的融贯一致的图景,那泛心论可能就是唯一选择了[11]110-111。
斯特劳森从另一个角度给出了一个关于泛心论的阿那克萨戈拉式论证,这个论证的核心论题是坚持经验的东西不能从非经验的东西中产生,唯一的出路就是承认经验由之产生那些东西中本就包含了经验的东西,因此物理主义本身就蕴含了泛心论或泛经验论[12]56-57。
总的来看,泛心论将经验或意识看成是宇宙的一种基础性的、普遍存在的性质,就像重力、广延这些物理性质一样,也就是说,泛心论将意识看成是每一事物本身内在的范畴本质,由此构建一种统一协调的世界观,其优势在于完全不触动物理主义的基本信条,同时对于意识的现象性给出一种简明优雅的说明。
因此,强人工智能蕴涵的并不是这种典型形式的泛心论,并不能为这种泛心论提供实质性的支持。但是反过来,这种典型形式的泛心论是否能够支持强人工智能呢?回答同样是否定的,因为按照典型形式的泛心论,意识并不是凭借计算才被实现出来的,而是事物本身就具有的,强人工智能的可能性也完全不需要诉诸泛心论。