人工心灵的基本问题与意识现象学的思考路径
——人工意识论稿之二a
2019-12-14倪梁康
倪梁康
引 论
开篇伊始,要说明一点:我在这里要讨论的问题仍然是“人工意识”(AC)或“人工心灵”(AM),而不只是“人工智能”(AI)。
就自然人类而言,智能或智识只是意识的一部分,即认知的部分。在西方哲学传统中,意识至少要由智识、情感和意欲(所谓“知、情、意”)三类意识行为组成。在这里,智识或许是意识的最重要的部分,但不是全部。而在东方思想传统中,被视为意识最重要组成部分的甚至不是智识,而是情感和意欲。也正是在这个意义上,我们常常谈论西方的“逻各斯中心主义”(Logos-centrism),当然我们同样可以谈论东方的“埃陀斯中心主义”(Ethos-centrism)。
今天我之所以在这里讨论人工意识,并不是因为现在人工智能问题的讨论非常热闹。实际上深交所在两年前还警告股民提防三个概念股:虚拟现实、石墨烯、人工智能。现在人们至少可以认为:人工智能已从“概念炒作”真正进入“实际应用”阶段。我之所以考虑人工意识问题,是因为我这一生主要是研究意识的,确切地说是研究意识现象学的,无论这里的意识是指“纯粹意识”,即所有可能的理性生物的意识本质,还是指人类的意识,即我们每个人的经验意识及其本质结构和本质发 生。
这个意义上的“意识”基本上来自德文的“意识”(Bewußtsein),也与佛教唯识学中广义的“识”相等,即涵盖心(第八阿赖耶识)、意(第七末那识)、识(狭义的识:眼、耳、鼻、舌、身、意这前六识),即全部八识(广义的“识”),而且还与汉语思想史上出现的“心”或“心性”的概念相似,虽然不完全相 等。
此外,它同样会让人联想到英文的、也是目前最为流行的“意识”(consciousness)或“心灵”(mind)概念。它们是目前意识研究或意识理论所使用的概念。但这个英文的联想会引出疑问。澳大利亚裔的美国纽约大学哲学与神经科学教授,心灵、大脑与意识中心主任大卫·查尔默斯(David John Chalmers)曾将他的博士论文写成了一本畅销书:《有意识的心灵》 (The Conscious Mind,Oxford University Press,1996)。仅从标题便可以看出,英文中的“意识(consciousness)”与“心灵(mind)”并不相互等同,“心灵”的外延要比“意识”更广,至少包含未被意识到的心灵。那么未被意识到的“心灵”是什么呢?无非是包含在心灵中的背景意识、记忆意识、无意识、潜意识、下意识、前意识、后意识,等等。简言之,非当下显现但在背后起作用的意识。在特定的意义上,心灵由两部分构成:现象学的部分和心而上学的部分,所以我们可以将心灵分为“现象学的心灵”(the phenomenological mind)和“心而上学的心灵”(the metapsychological mind)。a关于前者可以参见Shaun Gallagher and Dan Zahavi,The Phenomenological Mind:An Introduction to Philosophy of Mind and Cognitive Science,New York:Routledge,2007;关于后者,即“心而上学”的概念,可以参见弗洛伊德于1896 年2 月13 日致弗里斯(Wilhelm Fliess)的信函。弗洛伊德在那里将他自己从事的心理学称作“实际上是心而上学”(S. Freud,Aus den Anfängen der Psychoanalyse. Briefe an Wilhelm Fliess,Abhandlungen und Notizen aus den Jahren 1887—1902,London:Imago Publishing Co.,LTD,1950,S. 168),它指的是一种能够将他引到“意识之后”的心理学,是对一些假设的研究,这些假设构成心理分析理论体系的基础。
现在可以看出,我们所使用的传统的和非主流的德文、中文的“意识”概念与现行的、主流的英文“mind”基本相等,而英文的“consciousness”则相当于德文的“自身意识”(Selbstbewußtsein)和佛教唯识学的“自证”(svabhava)。
语词上的差异不是本质差异。无论在今天的心灵研究中,还是意识研究中,许多研究者所发现、理解和把握的东西是基本一致的,至少对于心理学家、现象学家来说是如此。当我们问:一个人工智能在驾驶无人汽车时有意识吗?那么这在我们所说的意识的意义上是指:它在这个时候有自身意识吗?它会意识到自己当下在开车吗?还有同样的问题:阿尔法狗(AlphaGo)在与人下棋时,它有自身意识吗?它会意识到自己在与人下棋吗?如果是,那么我们可以说它有人工意识了,但这种自身意识至今为止还不是人工编入的程序,而只能是人工智能自己发展出来的——这个可能性现在还没有显露端倪;而如果没有,那么它就仅仅是人工智能——这是目前的真实现状。人类的自身意识在佛教唯识学中被称作“自证分”。它是心识的活动的三个或四个基本要素之 一。
当然,语词问题可以解决,并不意味着实质问题也可以解决。在关于人工智能或人工意识的影片《超越》 (Transcendense,2014)a除特别说明的以外,本文及“附录”中引述电影《超越》台词的加引号文字都出自该影片中的对话。中曾有一次人机对话出现——人问机器:“你能证明你有自身意识吗?”机器反问:“这是一个复杂的问题。你能证明你有自身意识吗?”无论是这个意义的“自身意识”问题,还是“意识一般”的问题,至今仍然是没有解决的难 题。
因此,尤其是对于研究和制作人工智能的物理学家来说,关于意识的讨论现状是完全不同的:美国麻省理工学院物理学和宇宙学教授、未来生命研究所(Future of Life Institute)创始人迈克斯·泰格马克(Max Tegmark)去年出版了他的畅销书《生命3.0》 (Life 3.0)。他在其中最后第八章才讨论“意识”。因为如他所说,至今为止,无论是在人工智能研究者那里,还是在神经科学家或心理学家那里,意识都是无法解决的问题,意识研究都是毫不科学、浪费时间的废话。他之所以还在讨论意识,乃是因为他觉得哲学家查尔默斯——即上述《有意识的心灵》的作者——在这个问题上思考得最深入,并且提出了具体的问题,尽管他离解决问题还很 远。
泰格马克自己对意识的定义是“主观体验”。这个定义在一定意义上是合理的,因为它解释了意识为什么不能成为科学研究之客体的问题。他这时并不考虑哲学家们通过反思或内省来使主观体验成为内在客体的方法,尽管他也参考查尔默斯的研究成果。但泰格马克还提到一个物理学的意识定义,意识即信息,因此他相信科学仍然可以为意识夯实物理学的基础。无论如何,他在该书“意识”一章中提供的假想的实验数据是很有意思的,而且该章的结尾更有意 思:
虽然我们在这本书中将注意力放在智能的未来上,但实际上,意识的未来更为重要,因为意识才是意义之所在。哲学家喜欢用拉丁语来区分智慧(“sapience”,用智能的方式思考问题的能力)与意识(“sentience”,主观上体验到感质的能力)。我们人类身为智人(Homo Sapiens),乃是周遭最聪明的存在。当我们做好准备,谦卑地迎接更加智慧的机器时,我建议咱们给自己起个新名字——意人(Homo sentiens)!a迈克斯·泰格马克:《生命3.0》,汪婕舒译,杭州:浙江教育出版社2018 年版,第415 页。
当然,泰格马克最后这句话是有问题的:我们不能因为自己制作出了有自身意识故而更加智慧的机器而将自己称作“意人”,而是应当将这种因为有自身意识而摆脱了单纯人工智能而成为人工心灵的“产品”称作“意人”。除此之外,它还应当不仅在有意识的智能方面,而且也在有意识的全部心灵(知、情、义)方面都超越人类、超越生命的2.0 版,这时我们才能谈论生命的3.0 版,我们才能谈论霍金意义上的未来超 人。
与乐观的泰格马克相对,悲观的霍金在其遗作中再次引人注目——他担忧“超人”出现——人类或将逐渐绝迹。即是说,“意人”终将超越“智人”,并取而代 之。
这种对人类未来的悲观和乐观的立场,都是在我们自己目前所处的生命2.0 的版本上的选择。后面我们还会回到这上面 来。
在引论结束之前,我想对我要讨论的“人工意识”作一个回顾性的总结,它包括两个要点:第一,人工意识比人工智能的范围更广,不仅包含知,也包含情与意;第二,人工意识应当与人类意识一样,具有自身意识:它在进行表象、感受、意欲活动的同时也意识到自身的活 动。
一、制作人工智能与人工心灵的目的与意义
这里首先要讨论人工智能的基本问题。它是一个意义论和目的论的问题:人类为什么要制作人工智 能?
人类制作人工智能的目的基本上是明确的,即为了服务人类。计算机可以帮助人类解决繁杂的运算问题,工业机器人可以帮助人类完成单调沉重的劳动作业,战争机器人和救灾机器人可以帮助人避开生命危险,如此等等——而且是以更快更好的方式。原则上可以说,人工智能可以帮助人类从事单调的、机械的、繁重的、危险的工作,归根结蒂是承担人类不愿做或不能做的事 情。
这样一种意义上的“借机”(借用机器)的事情,人类实际上很早就已经开始实施了,甚至可以说,从人类开始使用工具时就有了,也就是从人之为人时就有了。而且它也很早就受到批评——还在人类的轴心时代。例如,庄子所说的“机事”和“机心”,就与这个使用工具的问题相关。当时他以所谓“有机械者必有机事,有机事者必有机心”来警告对机械的使用最终会导致机心的产生。不过,这里无论对机械还是机事以及机心的定义都是不明的。“凿隧入井,抱瓮出灌”与“凿木为机,其名为槔”之间并无在使用工具方面的原则性差异。它们在今人看来都可以算,也都可以不算是“机事”。因为的确很难回答这个问题:为什么用水瓮来取水不是“机事”,用水车来取水就是“机事”呢?海森堡和海德格尔对庄子的当代援引,主要是为了对人类科学技术的无度发展提出警示,但他们同时也都已看到,科学技术的发展本身是工具理性的外化,而工具理性从一开始就包含在“人是制造和使用工具的动物”的人之本性之中。因而人工智能和人工意识的合法性是一个处在人性本身之中的问 题。
无论如何,与那个时代的水车相比,现代的机械化工业当然更加配得上真正的“机械”之名了。而人工智能可以说是人类至今为止所制作的最重要、最先进的“机械”。它们为人类承担了大部分的劳作。在能力方面,人工智能已经远远超出人类智能。这也意味着,人类智能所制作的后代已经在智能方面超越了自 己。
但这个“超越”距离全面的“超越”,即2014 年美国电影《超越》a对此可以进一步参见本文附录:“假如‘超越’是可能的……”所设想的那种“超越”实际上还有很远的距离。诺贝尔奖获得者托马斯·萨金特(Thomas J. Sargent)认为:人工智能其实就是统计学,只不过用了一个很华丽的辞藻,而深度思维(DeepMind)设计的阿尔法狗也只是一个动态规划。b参见http://t.cj.sina.com.cn/articles/view/5044281310/12ca99fde02000jqkt?from=tech。从理论上看也的确如此。我们以同样的口吻也可以说,人工智能其实就是一个计算器,只是配有不同规格的硬件系统和软件系统而已。当然也可以为它进一步配备智能机器人所需要的眼耳鼻舌身的感官或身体,但那是可选可不选的选项。例如,同样是深度思维设计的打败了人类医生眼疾诊断的人工智能。人工智能自己并不一定要配备3D 视网膜扫描仪器,它可以通过对其他3D 视网膜扫描图像的识别就可以作出诊断并打败人类医生。c参见http://www.ftchinese.com/story/001078941?full=y。
事实上,人类历史的和当下面临的危机问题都不在于智能方面被自己的产品所超越,而是在于在情感与意欲方面始终有无法克服的困境乃至绝境。捷克教育家扬·阿姆斯·考美纽斯(John Amos Comenius,1592—1670)甚至会说:“凡是在知识上有进展而在道德上没有进展的人,那便不是进步而是退步。”而德国经济学家、社会学家和文化理论家阿尔弗雷德·韦伯(Alfred Weber,1868—1958)在20 世纪初就谈到人类的跛足问题:科学的一条腿粗,道德的一条腿细,因此人类始终在跛足前行。这个问题如今依然存在,而且愈演愈烈。人类掌握的科学技术已经可造出将人类消灭千万次的核弹,这条腿不算细;而这种被自己的产品消灭的危险始终还没有通过我们的道德法则来排除掉,这条腿的确不算 粗。
现在可以提出而且已经或多或少提出的问题是:我们为何不仅要制作人工智能,而且还要制作人工意 识?
我想无非是两种理由,第一个理由是为了改进人类、进化人类,使一种理想乌托邦在未来能够成为现实。我们或许可以制作出完美的、至少是比我们自己更好的人工情感和人工意欲,就像我们正在制作完美的人工智能一样。这是一个“准上帝”的理由,因而往往是私下的、不公开的,最多通过文学艺术的构想来暗示。就像电影《超越》所勾画的图景:“仰望天空、云彩,我们正在修复生态而不是损害它,粒子在气流中漂浮,复制自己,取代雾霾,退化的森林得以被重建,水是如此清澈,可以捧起来畅饮。这是你的梦想。不仅疾病可以得到治疗,而且地球也可以得到治愈。为了我们所有人,创造更美好的未来。”a参见文后的附录:《假如“超越”是可能的……》我们对这个理由暂且置而不 论。
第二个理由是为了更好地服务人类。这是目前人工意识设计者的公开理由。如果我们制作人工意识的目的是为了服务人类,那么大多数人工智能的制造就可以满足对这个目的的实现。当下的现状便是如此。但现在已经露出端倪的是人工智能越来越不能满足人类日益增长的对美好生活的向往,这个情况在未来还可能日趋明显。之所以不能满足,是因为单纯智能型的服务仍然是有限的。阿尔法狗可以陪你下围棋并且战胜你,但它不会帮你照看宝宝;人工智能也可以制作小说、音乐、绘画、诗歌等,但它们的作品必定是无情无欲的,或者是虚情假意的。而一旦这些没有情感和意欲的人工智能无法完全满足人类的进一步欲求和需要,那么为了得到更好的服务,人类迟早会制作出具有集知、情、意于一体的人工意识的机器人。目前的神经科学的确不仅在讨论感知、表象、回忆、遗忘、评价、打算、决定等智能行为,而且也在讨论拥有情感和意欲、也包括自由意志的能 力。
早年的美国电影《西部世界》 (Westworld,1973)以及近来播放的美国同名电视连续剧(WestworldS1-2,2016/2018),也都属于这个方向上的构想。这部电影和电视带有社会批判的意向,尽管不是庄子式的——它批评并警告人类将制作人工意识的目的推至极端,即为了放纵和满足自己的阴暗的、残暴的欲望。倘若荀子所说人性是恶的,或者说,是自私的、自保的,那么他们要仿造的人工心灵也就会如此。我们可以看《西部世界》电视连续剧中的一段台词:“阿诺德b《西部世界》中的人工心灵的缔造者。对智识或才智的显现并不感兴趣。他想要真实的东西。他想创造意识。他将其想象成金字塔:第一层,记忆、即兴行为;第二层,私利(顶端)从未到达过。但他对此已经有了设想。他是以二分心智c关于“二分心智”的思想可以参见普林斯顿大学的心理学家朱利安·杰恩斯于1976 年出版的《二分心智崩塌中的人类意识起源》 (Julian Jaynes,The Origin of Consciousness in the Breakdown of the Bicameral Mind,1976)。他通过心理历史研究提出了一个二分心智的“理论”或“假说”:人类的完整自身意识是在3000 年前的人类历史上才出现的。自主性、主体同一性、历史以及人类所有关于自己的知识都是历史的新习得。而此前的人类是不能以自身意识的方式来自行决断的。他们需要聆听众神从外面传给他们的声音,并据此作出决定。朱利安·杰恩斯认为,事实上这只是在一个脑半球中的话语中心与在另一个脑半球中的倾听中心的交流方式,即同一个大脑神经系统的自说自听。直至西元前1000 年前后,这个人类思维器官的两分组织才因为种种原因而发生崩溃。人类的自身意识从此而得以产生。[朱利安·杰恩斯主要是在《旧约》、玛雅石雕和苏美尔神话中寻找证据。事实上,苏格拉底也可以为此提供某些证据:他多次在重大决定前听到他的守护神(Daemon)的话语:“我的守护神告诉我……”不过,朱利安·杰恩斯也在书中引证过苏格拉底的话:“被神附身的人所说的东西很多都是真的,但他们对他们所说的东西一无所知。”(Menon,99 C)]的意识理论作为依据 的。”
不过,这只是一种在人工意识构想上的批判现实主义案例。而最初的人工智能电影《人工智能》 (AI,2001)由施皮尔伯格导演,描述的则是一个现实主义的假想案例:未来的人工智能公司制造出了第一个被输入情感程序的机器人男孩大卫,被人类夫妻收养,后来引发一些使得大卫的生活无法继续问题,如此等 等。
另一个无伤大雅的假想案例还可以在日本电影《我的机器人女友》 (Cyborg Girl,2008)找到:未来的我设计了一个机器人女友,将她派回当下来陪伴和保护当下的我。在这个浪漫主义的假想案例中,人工意识与它的载体仍然是在行使对人的服务功 能。
在这些案例中,制作人工意识的目的主要还是被设想为帮助人类,满足人类的需求。人类意识与人工意识之间存在着一个特定意义上的主奴关系,或至少是主仆关系。现在使用较多的家用机器人都将它们服务的儿童称作“小主人”,这并非偶然,而是设计者用意的有心或无心的表 露。
二、人工心灵的三种奠基秩序
具有这种功能的人工智能现在已经成为现实了。那么具有这种功能的人工意识在未来是否可能呢?对此我的回答是简单而肯定的。因此,我在前面曾说“人类迟早会制作出具有集知、情、意于一体的人工意识的机器人”。不过,在这个简单肯定中实际上已经隐含了一个保留:在这里所说的人工意识只是一个相当初步的观念。它仅仅意味着:人类所设计和制作的一种不仅具有认知功能而且具有情感功能和意欲功能的意识。人工智能是这种人工意识的初步形态。在加入情感功能和意欲功能之后,人工意识就从可能变为现实。目前对情感和意欲的哲学研究与现象学—心理学研究已经在相关领域有所进展,或在“情感哲学”“感受理论”等的名义下,或在“意欲现象学”“意欲分析”的名义 下。
我在《关于事物感知与价值感受的奠基关系的再思考——以及对佛教“心—心所”说的再解释》a倪梁康:《关于事物感知与价值感受的奠基关系的再思考——以及对佛教“心—心所”说的再解释》,载《哲学研究》2018 年第4 期。一文中对此有讨论,并且结合西方哲学与佛教唯识学的传统而提供了一种新的意识哲学的解释方案。简单说来,人的意识活动在我看来始终遵从一个三重意义的法则,也可以将它称作各种意识行为之间的“奠基秩序”(所谓“心的秩序”“心的逻辑”或“心之理”)。除了此前我已经在现象学家那里发现并作过讨论的知情意之间的“结构奠基”(胡塞尔)和“发生奠基”(胡塞尔、舍勒、海德格尔)之外,还有一种“动态奠基”:始终只有一个意识行为处在活动中,它以不同的模式进行:感知的模式、情感的模式、意欲的模式。当其中的一种模式起主导作用或发挥主导的功能时,这个意识行为就表现为突显这种模式的意识行为,如感知活动、情感活动、意欲活动,而它们各自所构造的对象或客体也会相应地发生变化。在此意义上,不仅存在意识活动的模式之间的“发生的奠基”与“结构的奠基”,而且还有“动态的奠 基”。
我认为,人工意识的设计和制作,至少需要按照这三种奠基秩序来进行。也许我们还会发现更多的奠基秩序。但可以将这三种奠基秩序视为人工意识构想的基本支点和弹性框架,以期随后可以在此基础上进一步扩展和充实。正是在此理论构想的基础上,我比较乐观地相信“集知、情、意于一体的人工意识”的设计和完成是可以期待的事情。1995 年的日本电影《攻壳机动队》 (Ghost in the Shell)就已经预想了发生在2029 年的具有人工意识的人造人故 事。
这样的机器人不仅具有情感、意欲,而且具有人格,即具有各种先天的性格、禀性、特质,以及具有后天的经验、记忆、习性、技能等,易言之,具有人类所具有的人之为人的本质。而且不仅如此,它还应当在眼耳鼻舌身意方面比人更聪明,在情感方面更强烈和更善良,在意志方面更有力和更坚韧,如此等等。它应当可以与奥林匹斯山上的众神有一比,至少可以与他们一样永生不死,而且一样威猛有力,但没有了众神偶尔具有的坏毛病,如嫉妒、虚荣、贪婪、好色、残暴,等 等。
无意识的人工智能的编排程序可以按照科幻作家艾萨克·阿西莫夫提出的著名的“机器人三定 律”。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不 管;
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例 外;
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保护自 己。
但泰格马克认为:“虽然这三条定律听起来挺不错,但阿西莫夫的很多小说都告诉人们,它们可能会导致一些意想不到的矛盾。现在,我们将这三条定律改成两条为未来生命设定的定律,并试着将自主性原则加进 去。
第一定律:一个有意识的实体有思考、学习、交流、拥有财产、不被伤害或不被毁灭的自 由;
第二定律:在不违反第一定律的情况下,一个有意识的实体有权做任何事。”a迈克斯·泰格马克:《生命3.0》,第361—362 页。
不过如他随后承认的那样,这只是“听起来不错”。之所以这类定律无法成立,乃是因为这仍然是在设计人工智能而非人工心灵,即便是有意识的人工智能。
至此为止,别说是文学家和物理学家,就是伦理学家和道德哲学家,也都还没有编制出一个人类道德的逻辑体系,而且很可能一个一元论逻辑的道德系统是永远无法成立的。我们的道德体系很可能必须是二元论或三元论的。我在《道德意识的来源论纲》b载于《哲学中国网》:http://www.cssn.cn/zhx/zx_zrzl/201712/t20171231_3800164.shtml。中对此问题有较为初步的讨论和设 想。
三、人工心灵的基本结构
但如果接下来再问:这是否可以意味着,这里所说的集“知、情、意”于一身的人工意识就是一种与人类意识基本相同的意识?对这个问题,答案要复杂些。“知、情、意”仅仅表明人类意识的最基本结构,是人类意识的三根支柱。而它所包含的形式和质料方面的要素还有很多,例如自身意识、内时间—空间意识、内道德感、内审美感、自由意志与自主抉择能力、统现与共现的能力,如此等 等。
我在这里无法涉及更多的细节,但基本上我已经不再那么乐观。不过这里至少已经可以清楚地看出,使得人类意识成其所是的本质要素还远不止“知、情、意”三者。而在意识哲学的研究中,这里提到每一个范畴都需要研究者付出大量的心血和精力,而且对它们的研究始终举步维艰,至少目前尚未获得共同的认可和明显的进 展。
除此之外,还有在意识的总标题下包含的无意识领域和非正常意识(心理病理)的领域。在这里可以借用凡尔纳《海底两万里》中尼摩船长的话:如果我们可以写一本关于我们所知道的所有的东西的书,那么这本书会很大;但如果我们把不知道的东西写成书,那么这本书还要大得 多!
也就是说,关于人类意识本身是怎样的,我们尚且更多是无知而非知道;那么我们又怎能奢望去制作与它相同的或比它更好的人工意识呢?——不过必须承认,这个疑问是发自观念论的思考方式,而非经验论的思考方式。如果从经验论的方式来看,既然一个不太出色的老师或师傅可以培养出比他自己更出色的学生或徒弟,那么漏洞百出的人类意识有朝一日制作出鲜有瑕疵的人工意识,当然也就不足为奇 了。
如果我们仍然希望制作一种克服人类意识的弱点而且保留人类的优点(即更为完美)的人工意识,那么我们似乎只能以经验论的方式行事:我们可以将上面列出的那些基本要素编排到人工意识的系统中,无一遗漏;接下来还可以将人类具有的各种情感和意欲的类型织入这个系统;最后还可以将人类历史上出现过的所有人类意识的经验范本作为数据资料输入这个系统。这里有类似人工智能的三个核心要素的东西存在——算力、算法和数据。但这个对于人工智能而言的三要素显然还不足以构成人工意识核心要素的全部。从人工智能到人工意识的发展必定是一个质的飞跃,因而必定会有新的要素加入进来。但是在我看来,其中最重要的是将此人工意识系统激活并使其在活的当下之中运行的那个要素。或许它已经包含在算法的要素中了,对此我没有把握。这是人工意识的设计者和制作者要回答的问 题。
与此相关的还有另一种方法:我们可以复制一个人类意识到一个物理载体(计算机)上,从而以复本的方式制作人工意识。电影《超越》表达的便是这个方向上的可能性。影片名称“超越”所表达的不只是人工智能原则“计算机在理论上可以模仿人类智能,然后超越”,而且是一个人工意识的可能性,“人工意识在理论上可以模仿人类意识,然后超越”。但电影在如何激活这个被复制的意识系统的问题上也是语焉不详,给人感觉是靠误打误撞。无论如何,我在《人类意识与人工意识:哲学还能说些什么?》一文以及后面的附录影评中已经提到这种可能性以及其他的可能性,并表明了我对它们的看 法。
就原则而论,与人类意识完全一致的人工意识事实上是不可能的,也是没必要的。姑且不论人工意识的载体不像人类意识那样是会死的肉体,仅此便会有异于包含生存本能与死亡本能的人类意识;而且即使我们可以使人工意识与人类意识达到完全的相等,人工意识的制作和存在的必要性也会因此而受到质疑:我们何不继续通过自然方式来直接生养和培育后代,而要劳心费力地去制作一个别无二致的人工意识 呢?
因此,在绝大多数的情况下,人工意识都是按照人类设计者所能够设想的理想的和完美的范型来制作的。即是说,在大多数情况下,人工意识都是人类意识的改进版本,它应当克服人类意识具有的缺陷,去除其中所有消极负面的恶习,例如去除佛教所列举的各种烦恼心所:贪、嗔、痴、慢、疑、恶见、忿、恨、覆、恼、嫉、悭、诳、谄、害、憍、掉举、惛沈、懈怠、放逸、失念、散乱;同时也要保留其中所有积极正面的德行,例如佛教中列举的善心所:信、惭、愧、勤、轻安、行舍,如此等 等。
这样一种范型固然会随设计者对世界与人性的理解不同而有所不同,而且可惜至此为止我们还找不到一个为所有人都认可的真善美的具体范型。连文学家塑造的奥林匹斯山上的神祇也无法体现尽善尽美,遑论科学家构想的人工意识。实际上,到现在为止我们甚至连人工智能的范型都还没有,遑论集人工智能、人工情感(AE)、人工意欲(AW)以一体的人工意识 呢!
不过我还是不想给出简单否定的回答。这一方面是因为哲学在这个问题上一直没有能够提供可靠的解答方案,因此在很大程度上失去了发言权——就像霍金所声言的那样。而另一方面,哲学家也不应当是预言家,而更多是反思家。在人类意识本性尚未得到透彻把握的情况下就开始思考和构想人工意识,这不是傍晚才起飞的猫头鹰式哲学家的做法。自德国观念论之后,大多数哲学家们通常都会以思考和回答“如何可能”的问题为己任,而不再置喙“是否可能”的问 题。
四、人工心灵与人类历史
尽管总体上持一种观望的态度,但我仍然更多地去相信未来的人工意识应该比现有的人类意识更好,并倾向于较少去质疑它的目的和意 义。
历史学家对左派和右派有一种不同于政治学家的划分方法:主张最好的社会生活是在过去,强调古代世界的原本的、初始的、自然的生活方式的人属于右派;而主张最好的社会生活在将来,强调未来世界的完美设计和高端文化的生活方式的人属于左派。前者也可以叫作过去主义或古典学派,后者则无疑是将来主义或未来学派。这两者都对当下抱有或多或少的不满。按此标准划分,那么老子属于右派,孔子属于左派;海德格尔属于右派,胡塞尔属于左派;尼采属于右派,马克思属于左派,如此等等,不一而足。从总体上说,文学家(科幻小说家另当别论)和文学哲学家大都属于右派,科学家和科学哲学家大都属于左 派。
左派在达尔文之后便获得了关键性的理由支持:如果人类的产生和存在只是自然选择的结果,那么它的意义就是偶然的和有限的。爬行类的恐龙有1.6 亿年的历史,但并没有发展出类似人类意识的高级智慧,而灵长类的人到现在最多只有400万年的历史,却已经形成初步的但发展迅猛的人类意识。因此,在自然选择过于偶然和随机的情况下,没有理由不相信不主张:应当并可以通过人为选择来构建一个理想完美的人类未来社会生活,由此完成第二次进化——人为进化。而人工意识就是这个未来主义构想方案中的一个基本构 件。
人类意识的产生意味着人类的形成。而人类的产生是宇宙发展中的一个伟大事件,至少人类自己是这样主张的。但如果接受进化论的结论,那么这个从猿到人的进化也应当是一个无目的的事件,尽管并不因此而全然无意 义。
但人类形成的意义何在?目的何在?这似乎是一个终极问题,既是宗教意义上的终极问题,也是哲学意义上的终极问 题。
按照犹太教和基督教的创世说,人是上帝造就的,但上帝造世造人的用意与目的并未得到指明;婆罗门教和佛教的轮回说将世界在结构上理解为六道,在发生上理解为轮回,但人为何会身处六道以及为何会需要面对轮回的问题并未获得回答。这不是宗教所要提出和回答的问题。与此相同,康德也没有说明理性生物为何注定被限制在现象界,黑格尔也没有论证绝对精神究竟从何而来。因为这些问题是从形而上学领域中流出的目的论和因果论的问题,而形而上学问题本身是不受目的论和因果论制约的。我在此前的论稿中曾说明康德所指明的四个二律背反和佛陀不回答的十个问题。事实上儒家也有类似的看法,只是说法不同,即所谓:“本体本无可说,凡可说者皆工夫也。”a张元忭语,《明儒学案·浙中王门学案五》。甚至可以说:“心无本体,工夫所至,即其本体。”b黄宗羲语,《明儒学案·自序》。
我在这里对人工意识制作者提出的问题和要求不是形而上的,而是形而下的,即是说,是科学的,也是道德的。当人工意识的制作者如今要尝试人类的第二次进化,要造出完美的、不死的人神时,他将承担以往造人的自然或造人的上帝的责任,同时,他作为人类的一员将承担对全人类的责任。这个责任,在研制出毁灭人类的原子弹的科学家那里与在研制出进化人类的人工意识的科学家这里,是同样无法承受的 重。
这个无法承受的重,来自在人工意识制作中默默地、但必然地发生的意义转变或目的变化——人工意识的制作从对人的服务转向了对人的进化。这个变化在人工智能那里已经显露出来,并且有过无数次的现实发生。机器人成为更出色的工人、农民、战士、教师、医生、护士、法官、律师、会计、司机、厨师、翻译,棋手,如此等等,但都只是在某一专长方面。而在人工意识的制作和发展中,这个变化必然也会发生,而且发生在人类意识拥有能力的各个领域,即便不是所有领域。无论在专业工作领域,还是在业余爱好领域,无论在科学技术领域,还是在文学艺术领域,人类意识都将会遭到人工意识的取笑和睥 睨。
这就是我从一开始就要讨论的人工意识的基本问题:我们制作人工意识的目的究竟何在?是为了制作我们的奴仆,还是为了制作我们的主人?历史学的左—右问题与政治学的左—右问题在这里似乎已合二为 一。
五、人工心灵:完善人类文明还是终结人类文明?
霍金曾在2016 年的演讲中提出一个选择命题:人工智能可能成就或者终结人类文明。而后他在2017 年的演讲中则提出一个条件命题:即使人工智能终结人类,人类也别无选择。这些命题所表达的都是目前人们对人工智能发展的担忧,实际上最终是对人工意识的担忧。这些担忧有一部分会在人工智能发展为人工意识之后得到消解,另一部分则会得到强化。这些可以通过以下案例得到说 明。
有实验表明:在实验中让两个人工智能聊天机器人互相对话,机器人会逐渐发展出人类无法理解的独特语言。人工智能还学会耍手段:例如在某些案例中,人工智能选手会先假装自己很想要某个物品,其实这个物品对它毫无价值。它这样做的目的是为了之后假装“妥协”,因为它发现了对方很想要,如此一来就能骗得对方放出一些更有价值的物品——人类平时的惯用伎俩,没有人教人工智能,但它自己学会 了。
有观察表明:人工智能可以表现出种族歧视或性别歧视。例如,“谷歌翻译”在将西班牙语新闻翻译成英语时,通常将提及女人的句子翻译成“他说”或“他写道”。尼康相机中用来提醒拍照者照片中的人有没有眨眼的软件有时会把亚洲人识别为总在眨眼。单词嵌入——一个用来处理和分析大量自然语言数据的流行算法——会把欧裔美国人的姓名识别为“正面”词汇,而非裔美国人的姓名识别为“负面”词 汇。
倘若以上实验和观察得出的结论的确属实,那么我们会认为这些人工智能已经自己发展到了人工意识的阶段,即人工智能升级到了人工意识:前者只能思考头顶的星空,后者还会遵循心中的道德 律。
但在撇开这些虚张声势的媒体渲染后稍作斟酌与复核就会发现,这里受实验和被观察的仍然是人工智能,而非人工意识。道德因素是研究者和报道者后来加入的解释的结果。试想,如果人工智能在互联网上找到的“美人照”中美女多于美男,它当然也会得出可以被理解为对男性有性别歧视的结论;与此同理,如果事先告诉人工智能新娘就是穿着西式婚纱的女子,它当然就会将穿着东方婚礼服装的女子不当“新娘”看,从而背负种族歧视的嫌疑。因此,若这里仍可发现道德判断和伦常行动的痕迹,那一定是与数据集和算法有关,而这是人工智能的设计者和制作者的问题,并非人工智能本身的问题。在人工智能的目前阶段,它可以辨识性别差异或种族差异,但还不会作出性别歧视和种族歧视。这并非因为它自己是无种族的和无性别的,而是因为它本身还不具有情感能力和意欲能力,因此也无爱恨、无冲动、无尊卑、无喜好,以及如此等等。而且除此之外,人工智能还不具有自身意识,缺乏反思能力,以及如此等 等。
人工意识需要补足这一切才能成其所是。这意味着人工意识应当在各个方面有接受和拒绝的能力,有好恶的判断,有选择美丑的自由,有自身意识(selfawareness),也有人格生成(person-becoming)的过程,如此等等。一言以蔽之,它含有人类意识的一切要素,而且是以更为理想、更为美满的方 式。
这种人工意识的获得,应当不是通过对人类意识的复制,而是必须通过对人类意识的改进和完善。它应当具有理想完美的智识、理想完美的情感、理想完美的意欲。例如,如果人通过脑电波可以做到控制第三只人造的机械手(这是脑科学界刚刚完成的一项成就),那么通过人工智能植入一个有着三头六臂或诸如此类的理想机器人也是可能 的。
一个更为完美的人工意识在理论上不一定会终结人类,但很可能会使人类的地位从主宰者变为从属者,就像一个家庭中家长的地位会随自己的衰老和后代的成长而必然发生变化一样。它属于霍金所说的成就人类文明,还是终结人类文明?这是一个值得思考的问 题。
当然还可以考虑通过复制人类意识来完成对人工意识制作的方法。我在已发表的《人类意识与人工意识:哲学还能说些什么?》一文以及本文附录《假如“超越”是可能的……——一部科幻电影的哲学解读》中也表达了我对这个可能性的看法。对于目前科学家们提出的“人类放弃肉体上传意识至计算机是达到永生的唯一方式”的主张,我只对其中“唯一”的说法抱有怀疑。即是说,如果我们信任这些科学家,那么人类将意识上传至计算机的做法是有可能完成的,无论是否需要放弃肉体。在此意义上,一种永生的方式有可能会实现。但若说它是永生的唯一方式,这便是科学上一个过于大胆的断言,甚至是非科学的断言——因为它太容易被证伪。我在上述两篇文字的第一篇中已经罗列了其他的理论上可能的永生方式。此外,近期也已有谷歌的科学家发出预言:人类将在2029—2045 年开始实现永生,但不是以上传意识的方式,而是通过基因改造或其他方式。哲学家也有过类似的预言:胡塞尔与海德格尔的学生、责任伦理学家汉斯·约纳斯在此之前就预测大约在2050 年与2300年之间,世界会因为一个有智识的和有自身反思能力的电脑而变为后生物的世 界。
这个制作人工意识的目的仍然维持在服务人类的目的性中。它属于霍金所说的成就人类文明还是终结人类文明?这也是一个值得思考的问 题。
六、人工心灵与神经元的问题
这里还应当从另一个角度来考虑人工意识制作的可能目的与可能意义问题:不死或永生的问题。奥林匹斯山上的众神与人类的区别不仅在于前者在各个方面更有力,而且更在于他们可以不死。前一种理想状态如今已经可以通过人工智能来实现,而后一种可能性则需要通过人工意识的制作来完成。我不清楚目前自然科学家在多大程度上明确或隐晦带着这个目的来展开自己的工作。但如前所述,我们已经听到过许多次人类即将永生的预告,而且时限越来越具 体。
现在的问题已经不在于,人是否能够永生?而更多是在于,永生的是什么样的 人?
我曾经列出至少五种可能的永生方式。而且还可以随科学的发展继续列举N种,例如不断地克隆自己。但这里的“自己”是一个哲学问题。2018 年8 月在北京大学召开的第24 届世界哲学大会的第一个大会讨论议题便是“自己”(Self)。当我们说通过克隆自己而永生时,我们所说的更多是“身体的自己”。而“心灵的自己”不再是同一个,因为神经元或神经细胞(nerve cell/nerve unit)是有寿命的,如果变更了,除非它们也可以被克隆或移植或复制到新的“克隆自己”中,否则,即使个体的身体没有改变,它仍然会因为它的记忆及其载体的改变而不再是它自 己。
我在讨论人工意识的第一篇文章中曾提到:按尼克·莱恩(Nick Lane)的说法a参见Nick Lane,Life Ascending:The Ten Great Inventions of Evolution;中译本参见尼克·莱恩:《生命的跃升:40 亿年演化史上的十大发明》,张博然译,北京:科学出版社2017 年版,第281 页。,神经元的寿命只有120 岁,即使替换神经元,一个人的记忆如果被更换,那么他的统一性也不复存在。我不再是我。不过也可以问,个体的统一性果真那么重要吗?但如果可以将记忆数码化,这个问题就可以解决。因而这第二个可能性是以第一个可能性为前提的。这里涉及的实际上是一个最终还原的问题。弗朗西斯·克里克说过一句有名的话:“你除了一堆神经元之外什么都不是。”这意味着,他将人的一切都还原为神经元。如果我们按照自己的视角和立场来做类推的还原,当然我们也可以说:“你除了一堆细胞之外什么也不是”,或者说,“你除了一堆意识之外什么也不是”。而如果意识可以被数码化,例如可以还原为由脑电波来传递和表达的数字信号,那么我们也可以说:“你除了一堆数码之外什么都不 是。”
而据物理学家组织网2013 年3 月28 日(北京时间)报道,最近,意大利帕维亚大学和都灵大学的科学家通过实验证明,神经元的寿命不受生物最大寿命极限的限制,但它必须被移植到一个寿命更长的宿主身上,此时它的寿命能超过原来生物的寿命持续下去。在这个意义上,这个个体的神经元可以永恒地存活下去,但它的载体已经很难说是它自己了。人的永生的最大困难仍然在于神经元的寿 命。
现在至少我们可以说,首先可以永生的是人的身体。一旦它的某个部分坏死了,我们就用再生的身体部分去替换它,以此方式永远生存下去。其次,永生的也可以是人的心灵,只要我们将人的心灵还原为神经元、它们代表的人类大脑皮质的思维活动以及它们所接受、传递、联络、处理和整合的信息。心灵可以寄托在它的传统的生物载体上,也可以寄托在非生物的载体上,即我们通常所说的机器上。一旦如此,我们便可以宣告后生物时代的来临。这时“永生还是不永生”便已不再是一个问题 了。
七、人工心灵作为纯粹意识和完美心灵
人类很早就开始并且至今已经尝试了无数次对理想的完美心灵的构想。两千五百年前,还在人类所处的轴心时代,人类就已经通过文学和艺术按照自己的理想而虚构了比自己更有力的人神:他们要么是居住在奥林匹斯山上或兜率天上,要么是居住在东海或西天的各类神祇。如今人类仍然在尝试建造理想的人类,但这次是按照心理和物理的科学来建造,即建造具有完美的知情意的理想人类:与我们生活在一起并随时有可能驾驭我们的人造人。奥林匹斯上的众神具有七情六欲,具有贪婪、好色、嫉妒、虚荣、自私、淫乱、虚伪、残暴等人类具有的一切恶习,同样具有勇敢、正直、忠诚、无私、执着、友谊等人类具有的一切美德;希腊众神与人类的本质区别只是前者不死而后者会死,或者还有前者比后者更为有力。现在我们以科学方式塑造的人神或半人半神应当可以做到取其长、避其 短。
那么人类的尊严是否会随之而丧失殆尽呢?或许会。实际上它本身是传统的人类中心主义的产物,迟早会完成自身的消解。这个消解并不一定是随着人工意识的诞生,但肯定是随着进化论的问世就已经开始。即使没有人工智慧,它也会慢慢地随着动物权利、自然保护等等观念的日趋强化而日趋弱 化。
从哲学上看,在德国观念论之前,哲学家,尤其是英国经验论者讨论的大都是人类理智,如洛克的《人类理智论》、贝克莱的《人类知识原理》、休谟的《人类理智研究》。在德国观念论那里表露出来的一个“超越”在于,哲学家由此开始讨论“纯粹理性”和“绝对精神”。按康德的说法,纯粹理性不仅仅是人的理性,而且也是所有理性生物的理性;而按黑格尔的说法,绝对精神不是某个主体或某一类主体的精神,而是超越于一切主体之上的客观精神。德国观念论与英国经验论的区别现在再次体现在不断式微的哲学本身与逐日昌盛的哲学人类学之间的区 别。
在我看来,人工意识恰恰是意识哲学或精神哲学所要讨论的问题,人类意识才应当是哲学人类学要讨论的问题。因为前者代表纯粹意识或绝对意识,后者只代表经验意识和相对意 识。
八、总 结
人类智能所制作的后代早已在智能方面超越了自己。因此,人工智能研究的理想——“人工智能在理论上可以模仿人类智能,然后超越之”——已然成为现实。霍金的担心(“人工智能可能成就或者终结人类文明”)和无奈(“即使人工智能终结人类,人类也别无选择”)原则上不是人工智能的问题,而是人工意识的问题。如果人工智能只具有知情意中的认知能力,缺少情感和意欲,那么它不会也无法起念去终结人类文明。唯有人工意识,理论上具有比人类意识更强的知情意,才有超越和取代人类意识的动机,从而完成史上第二次进化——人工进化。这意味着生命3.0 版本的到来,也意味着后生物世界的到来。我们应当如何面对这个将来?坦然地,或是惶然地?这取决于我们对于人类本身以及与之相关的人类中心主义的看法与评价,取决于对自然进程中的生物进化及其结果的看法与评 价。
附录:
假如“超越”是可能的……——一部科幻电影的哲学解读
标题中“超越”的英文是“Transcendence”,它是时代华纳电影公司2014 年出品的一部科幻电影的名字。下面的文字并不打算讨论这部电影的艺术性,而只想讨论它的思想性。因为碰巧它谈论的话题与笔者的意识哲学专业研究的问题相关:意识的本性、自身意识,以及诸如此 类。
“Transcendence”涉及现代生活中的高科技问题,首先并主要是人工智能问题,其次还涉及通过互联网的全面普及而实现的传播和交流问题、借助纳米技术而完成的物质重组问题、由于合成干细胞制造成功而得以可能的组织再生问题,以及诸如此类。这些科学的进步之所以在这里还被称作“问题”,并非因为它们本身的发展面临困境,而是因为它们有可能很快便会发展到极致,从而最终使得人的生命的意义、整个人类生活的意义成为问题。这也是这部电影所提出和讨论的问 题。
故事是从一台叫作“PINN”的人工智能电脑开始,天才的科学家们试图将它制作成一台超级的智能机器,可以自主运转,并能表达自己的感情,还可以具有自身意识,即是说,它在运转的同时也意识到自己的运转,因此它在运转过程中随时会有是非判断、道德本能、审美直觉等与之相伴随,它因此也具备自身记录、自身认同、自身反思、自身修正与自身改进、自身更新的能力。意识的这种自证功能实际上是大自然在长期进化过程中完成的一个谜一般的结果。现在,科学家们试图为人工智能创建一个类似的东西,“一个包含有人类所有的情感,甚至包括自我意识的实体”、一台“将人工智能与人脑智能包含为一体”的超级机器。电影的主角威尔·卡斯特(Will Caster)是尝试者之一,他将这台趋近成功的机器称作“Transcendence”。
我将这个词或这部电影译作“超越”a流行的译名“超验骇客”完全出于误解。另一个译名“全面进化”虽非误解,却是解释而非翻译。。因为“超越”本来是一个带有浓厚哲学与宗教色彩的概念,而它在此影片中也保留了这些因素——它不仅意味着人工智能对人类自然智能的超越,意味着自人类意识产生13 万年以来首个带有全新思维方式的全新时代的来临:“在极短的时间里,它的分析能力,就将超越所有在地球上有史以来生存过的人类全部的智慧”;同时它也意味着人的意识、人的心灵生活对自己的超越,即建造出一种超越自己的,而且同样具有自身意识的更高级智慧,制造出一个自己的上帝。这个上帝是真正全知全能的——一切疑问都可以通过高强度的分析运算而得到最终解答,一切困难都可以通过将这些认识结果在高科技领域的应用而得以最终消除,无论是单个人的疾病还是整个地球的污染:“仰望天空、云彩,我们正在修复生态而不是损害它,粒子在气流中漂浮,复制自己,取代雾霾,退化的森林可以得到被重建,水是如此清澈,可以捧起来畅饮。这是你的梦想。不仅疾病可以得到治疗,而且地球也可以得到治愈。为了我们所有人,创造更美好的未 来。”
这样的科学“愿景”还不能算是这部影片的首创。我们在许多科幻片和未来片中都可以看到类似的设想和展望。“超越”提供的新构想是将当代最新的人工智能的建造方案与脑科学—神经科学—心理学的研究和实施结合在一 起。
由于人工智能一直没有解决自身意识(self-awareness,self-consciousness)是如何可能的问题,因而至此为止我们所面对的人工智能只是一种具有类似神经系统的计算能力,正如影片中另一种思维方式的代表麦克斯所说:“你不可能编一个程序让机器有自身意识,我们自己都不知道自己的意识是怎样运作的。”关于后一点,影片中有两次人机对话出现。人问机器:“你能证明你有自身意识吗?”机器反问:“这是一个复杂的问题。你能证明你有自身意识吗?”b关于人工智能的自身意识问题的科幻电影,这十多年来日趋增多,美国电影《机械公敌》 (I Robot,2004)、《未来战士2018》 (Terminator Salvation,2009)、《鹰眼》 (Eagle Eye,2008)、日本系列动画影片《攻壳机动队I》 (Ghost in the Shell,I,1995)等,是这类电影的出色代表。
人工智能目前虽然可以模仿人类意识并在某些方面大幅度地超越人类意识,例如在逻辑运算方面,但它还不具备人类意识所具有的自身意识,以及与此相关的道德本能、审美直觉、自身认同和反思与修正的能力,等等。佛教唯识学和胡塞尔现象学的意识理论都不约而同地指出:任何种类的意识至少有三个必然的组成部分,即意向活动(见分)、意向对象(相分)、自身意识(自证分)。换言之,缺少了这三分,一种智能活动还不能被称作意 识。
然而影片中威尔对自身意识的问题已经抱有如此的自信,以至于他可以反驳麦克斯说:“那只是你的观点,碰巧那还是错的。”他的整个研究正试图在此方向上有所突破。影片开始时他便暗示“我这儿真的开始有所进展了”。或许解开自身意识问题之谜的确只是个时间问题。但影片中的威尔已经没有时间来完成这个人工智能在意识层面上的突破,因为一个自称为“裂缝”的反科技的恐怖组织运用高科技手段对他和其他人工智能的科学家实施了袭击,使威尔身负重伤,命在旦夕。影片在这里暗示了人类自然智能有别于人工智能的一个特点,即它的思考不一定是逻辑的:一方面充分使用高科技,一方面要求远离高科技;一边想要竭力拯救人类,一边不惜夺人性 命。
然而另一位人工智能科学家托马斯·凯西以另一种方式在被暗杀前完成了他的研究的突破。他没有像前人那样纠缠于人工智能的创造,而只是简单复制了现存的生物智能:“凯西解决自身意识问题的方案是用一个活生生的大脑意识”,更具体地说,他将一只猴子的脑电波全部记录在电脑上,由此而获得意识的所有基本要素。这意味着,原则上可以将意识的所有功能和活动连同其积淀下来的记忆——即意识的全部本性连同其全部的习性——都转换为一组电子信号,上传和储存在类似“PINN”的超级人工智能电脑中,经过组织、整合、编排以及加工,使得一个作为电子信号存在的人工意识成为活生生的现 实。
“活生生”是指这个意识可以在电脑开启的时间里像意识在人脑中活动那样运行,但以比人脑速度快千万倍、效率高千万倍的方式;而且它还可以借助电脑的附加设备来表达和运动自己,就像人的意识可以借助五官四肢来表达和运动自己一样,但同样以比人脑速度快千万倍、效率高千万倍的方 式。
威尔的确在他妻子的帮助下这样做了,从而将这个原则可能性付诸实现:在他生命结束之前,他将自己的全部意识以复制脑电波的方式上传到了超级电脑中,然后继续以意识的方式生活在这部叫作“PINN”的超级人工智能电脑中。接下来,威尔的心灵生活可以通过与互联网相接而全面地铺展开来。这种心灵生活由于其记忆的内容而可以与情感相关,它可以像人的意识一样继续去爱别人,也可以恨自己,而且具有自由意志,在需要决断时它也不会像通常的人工智能那样无能为力。像影片中所表现的那样,它甚至可以作出为了他人而进行自我毁灭的决定。它保持了自然智能的本性,同时也是人工智能:一种全新的意识,一种超越的意 识。
这种“超越”会带来不可思议的后果。与时间空间的无限性以及物质的无限可分性一样,它实际上是不可思议的,因为它已经超出了人类的想象力,甚至是在哲学思考方面的想象力。笔者在此只能对它作出一定程度的揣 摩。
假如“超越”是可能的,那么首先显而易见的是,意识与语言的界限被彻底打破,语言哲学与意识哲学(或心智哲学)的争论也可以结束了。a胡塞尔在《形式逻辑与超越论逻辑》中曾讨论过这个状态的可能性。还可以参见布鲁门贝格:《无法领会性的理论》 (Hans Blumenberg,Theorie der Unbegrifflichkeit,Frankfurt am Main:Suhrkamp,2007)。影片“超越”实际上表达了一种想法:人也许可以将自己意愿、情感、观察、思考的一切,都转换成一种数码语言,可以复制和储存,并在互联网中上传和下载,就像我们录制、上传和下载一首歌曲和一部影片一样。在此意义上,意识与语言是完全同一的。作为自然智能的人的自然意识与作为人工智能的程序语言的界限因此而不复存在。人随之可以获得永生,至少是他的心灵生活的部 分。
假如“超越”是可能的,那么接下来对精神科学与自然科学的划分也可以被消除了。狄尔泰等人提出的自然科学与精神科学之间的原则性差异也不再成立,唯物—唯心的争论当然也可以休矣,因为精神与物质的差异已经不复存在。剩余下来的只有一门科学——生命学。它是有机的,也是无机的;是精神的,也是物质的。或者说,它既不是有机的,也不是无机的;既不是精神的,也不是物质 的。
意识哲学家们一直以来就怀疑,用物理学的方式去处理和解决心理学的问题,将自然科学的方法运用于精神科学研究对象的理解和改造——这原则上是否行得通?这个怀疑也随之而烟消云散。因为无论物质还是精神,都是以纳米粒子的活动方式在进行。当然不是以海德格尔存在论的方式,而是以物理—心理、自然—精神的方式,即影片称作“混合者”(Hybrids)的存在论方式。或许我们可以将这种全新的存在方式命名为“混合存在论”(Hybrid Ontology)。以往的哲学家只是在“泛神论”或“万物有灵论”的标题下思考过同类的可能性。如今这种可能性在纳米粒子的活动中得以实现。不仅单个人的身体,即有心灵的肉体,可以通过三维的打印技术制作出来,因此人既能以心灵的方式,也能以肉体的方式永生;而且所有的物质都以有灵的方式存在,所有的心灵都以电子信号的方式运 行。
接下来的问题是,这个合而为一的“混合者”也应当有自己的存在法则和运行规律。但何种法则,什么规律?显然这些法则和规律不会仅仅是物理世界的因果律,也不会仅仅是心理世界的动机引发律,却有可能同时是它们两者,就像在人的生活中这两种规律在同时起作用一样。而且,在人的生活常见的情感矛盾、道德悖论、自由选择的难题也会在“混合者”的生活中出现。影片最终的悲剧结尾也表明了这一 点。
假如“超越”是可能的,那么个体与社会的界限也被彻底打破,民族与国家也不复存在。社会哲学与政治哲学当然也失去了存在的权利。文明冲突和战争暴力不再可能存在,因为意识的传递在意识内部进行,无须外部语言的中介。每个个体行为因而都与社会行为基本一致,甚至个体行为从根本上说就是社会行为。个体意识只是一个超级意识的终端,始终服务于这个“超越之物”。这个意义上的科学愿景表现为:“原始的有机生命将被终结,一个更为进化的时代即将到来,所有事物都将为了服务于它的智能而存在。”它是全知全能的,因为它的智慧无限,能量也无限。但它差不多已经是唯一的了,因为所有的精神与物质事实上都已经属于它,属于这个“超越的混合者”或“混合的超越者”。此时谈论宇宙的意义已经不再是有意义的,更确切地说,这种谈论丧失了对人和人类而言的意义,因为人类个体乃至人类总体已经被超越。现在只能谈论宇宙的自在与自为的意义。或许我们只能用佛教的“空”来描画 它。
卓别林在其影片《舞台生涯》 (Limelight,1952)中曾这样劝说自寻短见的舞女特雷西纳:“你为什么急着找死呢?你有苦恼吗?活下去才是最重要的,其他的可以慢慢来。人类至今已经有几亿年了[实际是十五万年],而你却要放弃自己的生命。放弃人世间最宝贵的东西。没了生命,宇宙就毫无意义!星球能做什么?什么也不能,除了一片死寂!而太阳,从280 万米[实际上一亿五千万米]的高空放出热量。那又怎样?只不过是浪费自然资源罢了!太阳会思考吗?有意识吗?(Can the sun think? Is it conscious?)没有,可你有!”个体的意识和生命,在这里被提高到了高于自然之上的位 置。
但是,假如“超越”是可能的,宇宙就不再是死寂的,大自然也可以拥有心灵生活——有生命、有心灵的自然。于是,太阳可以思考,能有意识。“超越”最终会扩展成为宇宙本身,一个有心灵生活的全新宇 宙。
当然,所有这些,都还只是由一部影片引发的联想和假设。影片最终给出的结局是:通过对全球电力系统和电信系统的破坏,实际上也是通过“超越”的自杀,“超越”最后得以终止。影片并未表明其制作者自己对于“超越”的立场和态度,看起来不是不愿,而是不能,因为影片制作者自己的思想明显处在两难之中,他对“超越”的构想,最终超越了自己的想象力和理解力。电影中存在的诸多逻辑悖谬和推理破绽,究其根源可能就在于 此。
无论如何,影片提供的结局令人深思:“超越”作为全新时代的代表,也超越了人类自然意识的理解能力——“他们害怕他们不懂的东西”,于是,出于一种同情感,“超越”最终选择了放弃自 己。