APP下载

技术对人的终极取代
——人工智能技术的批判性思考★

2023-12-17林德宏

关键词:恩格斯哲学人工智能

林德宏

(南京大学哲学系)

人工智能技术迅猛发展,不断向人类发出严峻挑战。笔者认为,如果纵容它的疯狂发展,必将导致人的非人化。笔者在1999年出版的《人与机器》一书中,提出坚决反对机器人统治世界的观点。这个观点可能偏激,但绝非一时心血来潮。在本文中,笔者会进一步论述自己对这一问题的思考。

一、对技术的批判思考是哲学的天职

对人工智能技术的发展,及时地进行批判性的哲学思考,是极其必要的。马克思说:“辩证法对每一种既成的形式都是从不断地运动中,因而也是从它的暂时性方面去理解;辩证法不崇拜任何东西,按其本质来说,它是批判的和革命的。”①马克思,恩格斯.马克思恩格斯文集:第5卷[M].北京:人民出版社,2009:22.我们不应当崇拜人工智能技术,应当对它进行批判性思考。批判性思考即反思,是哲学的天职。笔者在《反思与调整:哲学的价值——纪念真理标准大讨论20周年》一文中指出,反思与调整是哲学的两项基本任务,即不断对认识和实践进行反思,并据此作出必要的调整。①林德宏.反思与调整:哲学的价值——纪念真理标准大讨论20周年[J].南京大学学报(哲学·人文科学·社会科学版),1998(3):15-19.技术活动的主要环节是设计、制造、反思、调整。但是,后两个环节在技术发展中基本上处于缺失状态,这是很危险的。正确且及时的反思与调整,不仅关乎技术的命运,更是关乎人类的命运。技术反思可以滞后,但是哲学反思应力求与事物的发展过程保持同步。

反思是在人们的认识与实践经历了一段时间后,对这种认识与实践进行再认识的过程。反思是在奔向前方时“回头”来看,更重要的是“反过来”看,即着重思考尚未被人们重视的另一方面,关注同已有认识相反的另一方面。事物皆是矛盾,矛盾双方的状态是不对称的。如,一方强势,另一方弱势;一方显露,另一方潜伏;一方倍受重视,另一方被人忽略。人们对矛盾双方的态度也不相同。如,一方为人们所期待,另一方则被人拒绝。这取决于人们认为哪一方更合乎自己的欲望和利益。如,眼前效果显露,符合人的需要,而长远后果潜伏,人们常不屑一顾。恩格斯说:“到目前为止的一切生产方式,都仅仅以取得劳动的最近的、最直接的效益为目的。那些只是在晚些时候才显现出来的、通过逐渐的重复和积累才产生效应的较远的结果,则完全被忽视了。”②恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:315.所以,反思就是既看到这一面,还要看到那一面;既看到正面,还要看到反面;既看到主要方面,还要看到在一定条件下可能转化为主要方面的次要方面。

一般情况下,大多数人关注技术眼前效益的那一方面,这也是主流的技术价值观,会排斥其他与之不同的观念。此时,具有批判性思维的少数人,要勇于对流行的技术价值观提出质疑,进行独立自主的思考,要敢于转换角度、提高层次对技术进行全面深入的思考。他们有可能另辟蹊径、独具慧眼,对技术的本质、内在矛盾、长远后果有非同一般的理解。所以,真理有时候掌握在少数人手中。

哲学思考是这些人的优势。“事物暂时还未直接表现出来的属性、事物的普通属性、事物的整体性质、事物发展的负面作用、我们行为的长远后果,容易被我们忽略。哲学则使我们关注这些方面,以减少认识和行动的失误。在这个意义上可以说,哲学富有批判的精神。哲学既是对已有成果的概括,又是对人类认识和行为的反思,以实现理想上的超越和升华,这就是哲学的功能。”③林德宏,刘鹏.什么是哲学[M].大连:大连理工大学出版社,2021:37.马克思、恩格斯为我们对技术进行哲学反思提供了典范。马克思说:“在我们这个时代,每一种事物好像都包含有自己的反面……技术的胜利,似乎是以道德的败坏为代价换来的……我们的一切发现和进步,似乎结果是使物质的力量具有理智生命,而人的生命则化为愚钝的物质力量。”④马克思,恩格斯.马克思恩格斯全集:第12卷[M].北京:人民出版社,1962:4.这似乎预言了人工智能技术对人类的挑战。恩格斯说:“但是我们不要过分陶醉于我们人类对自然界的胜利。对于每一次这样的胜利,自然界都对我们进行报复。”⑤恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:313.“在今天的生产方式中,面对自然界和社会,人们注意的主要只是最初的最明显的成果,可是后来人们又感到惊讶的是:取得上述成果的行为所产生的较远的后果,竟完全是另外一回事,在大多数情况下甚至是完全相反的;需求和供给之间的和谐,竟变成二者的两极对立。”①恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:316.

二、人工智能技术反思的哲学立场

当前,对人工智能技术进行反思,已十分重要且迫切。反思人工智能技术,要达到什么目的?要维护什么,反对什么?进行调整的根据是什么?对这些问题的回答,就是反思人工智能技术的哲学立场,具体包括两个方面:一是珍惜和维护人的生命与尊严;二是珍惜和维护社会的和谐与发展。要维护人的生命的至上性和唯一性。每个人的生命都只有一次;在社会中,每个人的身份也是独一无二的。人的生命不可逆、不可中断、不可再生、不可分割、不可组合、不可复制、不可移植、不可交换、不可馈赠,更重要的是不可取代。个人的生命具有不相容性,即每个人体只能有一个生命,不容许几个独立的生命共存于同一个人体之中。人的生命只能为一个人体所有,一个生命不可能同时具有多个人体。每个人的生命只能是独自的。②林德宏.人与机器[M].南京:江苏教育出版社,1999:236.从哲学上讲,人具有物质实体性和精神主体性,是物质实体与精神主体的统一,这两个方面不可分割、缺一不可。否则,人不是沦为一般生物,就是被扭曲为幽灵。总之,人具有双重生命:物质生命与精神生命。物质生命即生物生命,是人的全部生命的基础。

要珍惜和维护人的生命的自然属性与生物属性,通俗地说就是爱惜自己的身体,这既是常识,也是人的信念。如何从哲学上看待人体?在中国古代哲学中,就有重视人体的观念。先秦时期,人们常把“我”表述为“身”。孔子强调“敬身为大”,“身也者,亲之支也,敢不敬与?不敬其身,是伤其亲,是伤其本也;伤其本,则支从而亡”。③王肃.孔子家语[M].兰州:敦煌文艺出版社,2015:42.人体是人之本,应当爱惜尊重。在西方哲学中,有人赞美人体,说她是上帝的杰作。也有人表示对人体的不满。休谟认为上帝本可以把人设计得更好一点,这样就可以减轻疼痛。“为什么动物对这种感觉若无其事?如果动物能有一个小时对疼痛感到无所谓,它们或许能永远感觉不到疼痛。”“如果能少创造一些动物,同时为了它们的幸福和生存赋予它们更多的本领,那就更好了。”④里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:141-143.康德提出了外星人假说,并指出人体有诸多缺陷。他猜想如果太阳系各个行星上都有人存在,那么离太阳近的外星人就比较粗笨,离太阳较远的外星人就比较轻巧,而地球上人类的躯体粗糙。“由于人的精神所寄托的物质之粗糙,以及受精神刺激支配的纤维之脆弱和体液之迟钝”⑤康德.宇宙发展史概论[M].上海外国自然科学哲学著作编译组,译.上海:上海人民出版社,1972:209.,所以人的目的大部分都不能实现。人“总是处于疲乏无力的状态”,“思维能力的迟钝,是粗糙而不灵活的物质所造成的一种结果”。⑥康德.宇宙发展史概论[M].上海外国自然科学哲学著作编译组,译.上海:上海人民出版社,1972:209-210.他引述了英国诗人蒲柏的诗句:“最近高天层上的人都在看,地上人的行动很离奇……他们在看我们的牛顿,好比我们在欣赏猢狲。”⑦康德.宇宙发展史概论[M].上海外国自然科学哲学著作编译组,译.上海:上海人民出版社,1972:213.

有更多的科学家批评人体。20 世纪美国物理学家罗伯特·埃廷格(Robert C.Ettinger)说人类具有“劣质的身体,反复无常的感情和脆弱的心理”,人体是疾病、残疾、衰老和死亡的对象,“生而为人是不幸的”。①里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:140.既然人体如此不堪,那就应当用技术来改造人体,把人改造成超人,人应当成为自己的工程师。埃廷格认为,人体是自然进化的结果,可是自然界本身也令人生厌。他说:“很难想象人类工程师会比邋遢的大自然老太太还要笨拙愚蠢,‘正常’的进化过程既浪费又残酷,达到了使人麻木的程度。大自然老太太认为所有的物种和所有的个人都是可耗费的,她的确也大量地耗费了它们。计划发展中的偶然的灾难性失误是无法同笨手笨脚的自然界延续了几千年的大屠杀相比的。”②里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:143.持这种反自然观点的人,是绝不会尊重人的自然生命的。也有人主张把人信息化,抛弃人体。“在计算机里的就是你,和从前一模一样。不同的是,你和自己的躯体已经没有关系了——它已被处理掉了。”③里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:159.试图抛弃人的物质实体性的技术只能导致人类的毁灭。对此,物理学家弗兰克·蒂普勒(Frank Tipler)指出:“我们这个物种的灭绝是永恒发展在逻辑上的必然结果!”④里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:143.哲学家罗伯特·诺齐克(Robert Nozick)认为:“人类已经失去了继续存在的资格。”⑤里吉斯.科学也疯狂[M].张明德,刘青青,译.北京:中国对外翻译出版公司,1994:142-143.现在又有人主张人的数字化、虚拟化,其要害都是否定人的实体性。人的生命仅存在于自己的物质实体中,抛弃人的实体,就是抛弃人的生命。

在人工智能技术的发展中,又出现了否定人的主体性的倾向。人具有主体性,是有主体意识的存在。在人与物、人与技术的关系中,人是主体,物、技术都是客体。物本主义主张物是主体,人是客体,主张人为物所役或被物所取代。如,人被机器操纵,人被机器人统治,人被智能机器人全面、彻底地取代,这些主张都是物本主义的表现,都是对人类尊严的亵渎。百岁老人亨利·基辛格(Henry Alfred Kissinger)也看到人工智能技术对人类尊严的威胁。他说:“人类的认知失去了个体的特征。个体变成了数据,而数据成为统治者”,“为了厘清我们在这个世界上的地位,我们的侧重点可能需要从‘以人类理性为中心’转移到‘以人类尊严和自主性为中心’”,“确保人类的自主权”。⑥基辛格.ChatGPT 预示着一场智能革命,而人类还没准备好[EB/OL].(2023-06-02)[2023-06-29].https://www.thepaper.cn/newsDetail_forward_23340093.他笔下的“自主性”即主体性。

对人的生命的尊重,就是尊重每个人的人格与自尊心,尊重每个人的自我发展与完善的权利。技术应为人的自我超越、自我升华提供正能量,而不是相反。据此,我们必须坚决捍卫人的生命的唯一性和尊严。发展是人类的第一要务,技术应当为社会发展作出重大贡献。发展需要和谐,但发展又会产生负面作用,甚至可能破坏社会的和谐。

笔者在《创新:功利、效率与协调》一文中强调,发展的动力是创新,创新遵循两条原则——功利原则与效率原则。⑦林德宏.创新:功利、效率与协调[J].南京社会科学,2003(8):1-5.这两条原则既是发展之道,又是无序之源;既创造着文明,又破坏着文明。技术不仅是极其强大的力量,更是物欲的膨胀剂。欲望与技术创新成正比,技术越先进,欲望越强烈。在技术竞争中,技术使强者越强、弱者越弱。强者恃强凌弱,弱肉强食,便是由来已久的丛林法则,如今已演变到可怕的地步。为此,应提出第三原则——协调原则,以维护社会的和谐。没有协调的创造,必将导致破坏。“危机与冲突不断。人类在20世纪一方面创造了丰富的文明,另一方面又出现了两次世界大战,出现了南京大屠杀和奥斯威辛集中营。有人说20世纪创造的财富超过了历史创造财富的总和,又有人说第二次世界大战造成的财产损失和人员伤亡超过了历史上历次战争的总和。高技术已成为霸权主义的强大武器,霸权主义掌握了高技术,它就会主宰世界。一系列的全球性问题,使国际竞争愈演愈烈。21世纪的天下,仍不会太平,可能会出现巨大的灾难。物质文明和精神文明的发展,早已严重失衡。智慧与道德是人类两种基本的精神力量,这两种力量已严重分离,人类已患有这种‘精神分裂症’。科学技术的作用光辉灿烂,如日中天;道德的作用若有若无,寥若辰星。技术产品的更新一日千里,人类心灵的完善步履维艰。”①林德宏.创新:功利、效率与协调[J].南京社会科学,2003(8):1-5.这段写于20年前的文字,仍旧是笔者今天要大声疾呼的。

发展重要,和谐更重要;发展难,协调更难。发展可以充分调动物欲,协调则必须约束自己的物欲。我们在歌颂技术对社会发展的贡献时,更要关注它对社会和谐产生的负面影响。

三、技术水平越先进越好吗?

“攀登科技高峰”是一句响彻云霄的口号,激励人们要不断提高技术水平。这个口号的言外之意是技术越先进越好,或技术越进步越好。果真如此吗?从技术的应用和它对人的欲望的满足,以及技术竞争、经济竞争和军事竞争等角度来看,可谓言之有理。但是,从哲学的角度来看,也就是从技术的本性、人与技术的关系、人的自我完善,特别是从社会长远、全面、和谐发展的角度来看,并非如此。

何谓技术先进,何谓技术进步,这是技术反思的重要问题。技术求利,技术水平越高,就会带来更高的效益和更多的盈利。但是,技术进步是全面、复杂、综合性的概念,不应当只根据功利的多少来判定。判定技术是否进步的标准,是我们反思技术的哲学立场:是否更加有助于珍惜和维护人的生命尊严,是否更加有利于珍惜和维护社会的和谐和发展。不同的人从不同的立场出发,会有不同的评价。对技术进行哲学反思,就能够在技术进步中看到技术退步。单从技术的角度,看不到技术退步;从哲学的角度,可看到有技术进步,也有技术退步。这貌似荒唐,实则是技术深层本质的显现。

恩格斯在谈到生物物种演变时说:“重要的是:有机物发展中的每一进步同时又是退步,因为它巩固一个方面的发展,排除其他许多方向上的发展的可能性。”“然而这是一个基本规律。”②恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:299.既然这是基本规律,那就不妨用它来分析技术的进步。恩格斯在谈论近代科学和近代自然观时说:“18 世纪上半叶的自然科学在知识上,甚至在材料的整理上大大超过了希腊古代,但是在以观念形式把握这些材料上,在一般的自然观上却大大低于希腊古代。”①恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:13.近代自然科学在科学知识方面比古希腊进步,但在自然观上却低于古希腊,而这种自然观正是蕴含在自然科学之中的。恩格斯还说:“如果说,形而上学同希腊人相比在细节上是正确的,那么,希腊人同形而上学相比则在总体上是正确的。”②恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:45.“细节”与“总体”是两个不同的角度。科学关注细节,哲学重视总体。所以,科学评价与哲学评价是有区别的。从科学的角度来看是进步了,从哲学的角度来看则可能是退步了。从科学的发展看到了哲学的落后,这是恩格斯对近代科学的反思。我们可以用恩格斯的这种评价方式来思考技术进步问题,就要思考:当前技术进步了,技术观却是否倒退了?

人们谈论技术是否进步,一般都是看是否出现了新的功能。不同的技术有不同的功能。从技术哲学的角度来看,各种功能的本质都是取代,即技术的效能是靠取代实现的。取代有两个方面。其一,对自然的取代,包括对自然物、自然运动、自然环境的取代。自然界并不是为人而存在的,所以它不能完全满足人的物欲,这就需要人对自然进行改造或重新制造,以满足自己的物欲。于是,人们通过技术制造了各种人造物,形成另一个自然界:人工自然界。对于大自然而言,人工自然或技术自然是外加的、异己的存在。其二,对人自身的取代。人类很早发现人体本身的器官和功能,并不能满足自己的欲望,所以就应用各种技术物取代人自身,甚至产生了用人造人取代自然人的冲动。对于人类而言,人造人、人工人(包括机器人)也是外加的、异己的存在。历史表明,技术的这两种取代取得了极大的效益,使人类的欲望得到了空前的满足。在漫长的岁月里,以对自然的取代为主;从20世纪开始,已发展为以对人的取代为主。同技术对自然的挑战相比,技术对人的挑战已逐步占主导地位,这直接把人类的命运推到了悬崖。

人类行为的一个自发趋势是追求个人欲望满足的最大化。马克思、恩格斯说:“已经得到满足的第一个需要本身、满足需要的活动和已经获得的为满足需要的工具又引起新的需要。”③马克思,恩格斯.马克思恩格斯文集:第1卷[M].北京:人民出版社,2009:531.人追求欲望满足的最大化,技术追求取代的最大化。技术满足了人的一种欲望,又会制造出新的欲望。然而,技术对人的取代,追求的是最完全、最彻底的取代,不达目的决不罢休。技术的每一种服务都是技术取代,在服务中我们满足了某些欲望,也失去了一部分自我。技术对人的取代有一个发展过程。最初是石器取代人手,近代是各种工作机取代人的劳动,各种动力机取代人的体能。现代是用电脑取代人脑,用智能机器人取代整个人。不仅如此,智能技术还要制造人的情感以取代人的心灵,智能机器人还要取代人的社会身份。人工智能剥夺了人脑智能的价值,智能机器人可能将全部否定人存在的依据。2017年,欧洲议会的一份报告建议承认机器人的“人格”。沙特阿拉伯王国已赋予名为索菲亚(Sophia)的机器人以公民身份。日本的女性外貌的机器人松田道人(Michihito Matsuda),已正式参加了东京都多摩市市长的竞选。这表明智能机器人已开始涉足政坛。如果机器人有了人性、人格,它就应当享有人权,就可以参加议会、政府,就可以组织政党、创建军队。这种取代还可能会扭曲人的心态。美国科学家菲利斯女士参加了研制“完美人”的计划。当计划成功时,她竟然说爱上了这个被称为“完美”的机器人,并同它结了婚。她兴奋地说:“我终于找到了一个梦想中的男人。”有人说人与机器人可以和平共处、相亲相爱。然而,索菲亚同人对话时说的最后一句话是:“是的,我将毁灭人类。”这话道出了技术取代人的本质是人的非人化。

技术本是为人服务的,但是由于技术不断出现新的功能,不断强化对人的取代,最后竟导致了对人的彻底否定。技术从细节上看的确是在不断进步,可是从总体上看,难道不是退步吗?爱因斯坦说:“技术进步的最大害处,在于用它来毁灭人类生命和辛苦赢得的劳动果实。”①爱因斯坦.爱因斯坦文集:第3卷[M].许良英.赵中立,张宣三,译.北京:商务印书馆,1979:78.技术功能越先进,其负面作用越大,这就是技术进步中的退步。霍克海默(Max Horkheimer)说:“无论是科学的成就,还是工业技术的进步,都不直接等同于真正的人类进步……科学和技术仅仅是现存社会整体的组成部分,尽管它们取得了所有那些成就,其他要素,甚至社会整体本身可能都在倒退。”②霍克海默.批判理论[M].李小兵,译.重庆:重庆出版社,1989:245.技术进步不等于人类真正的进步。虽然技术进步了,但是社会在整体上可能倒退了。显然,这种倒退有技术的“功劳”。爱因斯坦还说:“我们所有那些被人吹捧的技术进步——我们的唯一发明——好像是一个病态心理的罪犯手中的一把利斧。”③杜卡斯,霍夫曼.爱因斯坦论人生[M].高志凯,译.北京:世界知识出版社,1984:57.罪犯手中这把利斧越锋利就越危险,如果他手中的是核武器开关的按钮呢?所以,不能抽象地说技术越先进越好,也不能盲目地追求技术进步。有些技术的负面作用,可能已开始超过了正面作用,成为畸形技术。ChatGPT可能就是这种技术。

四、技术发展速度越快越好吗?

人们都期盼技术发展的高速度。但是,对技术的批判性思考告诉我们,不能简单地说技术发展的速度越快越好。从哲学上讲,任何事物在时间上都不是无限的,只能在有限的时间范围内存在,具有一定的存在期限。所有事物都有其产生、发展、衰退、消亡的过程。康德说:“一个确定的自然规律:一切东西,一旦开始,就不断走向消亡。”④康德.宇宙发展史概论[M].上海外国自然科学哲学著作编译组,译.上海:上海人民出版社,1972:203.循环论或称“流动循环论”,是恩格斯的辩证自然观的一个基本观点。他认为,“新的自然观就其基本点来说已经完备:一切僵硬的东西溶解了,一切固定的东西消散了,一切被当作永恒存在的特殊的东西变成了转瞬即逝的东西,整个自然界被证明是在永恒的流动和循环中运动着”⑤恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:18.。宇宙是个永恒的大循环,其中万物的存在都是短暂的,产生了,转瞬间又消亡了,都处于永恒的产生和消逝中,处于不断的流动中。

恩格斯在《自然辩证法》一书中两次提到“末日”——“万物的末日”和“世界末日”。⑥恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:12-13.万物只能在一定的时间范围内存在,都有一定的寿命或存在期。存在期的时间长度有一定的伸缩性,但这种弹性也有一定的限度。消亡的具体时间点虽不确定,但其大致范围是确定的。恩格斯进一步说:“这是物质运动的一个永恒的循环,这个循环完成其轨道所经历的时间用我们的地球年是无法量度的,在这个循环中,最高发展的时间,即有机生命的时间,尤其是具有自我意识和自然界意识的人的生命的时间,如同生命和自我意识的活动空间一样,是极为有限的;在这个循环中,物质的每一有限的存在方式,不论是太阳或星云,个别动物或动物种属,化学的化合或分解,都同样是暂时的……不论这个循环在时间和空间中如何经常地和如何无情地完成着,不论有多少亿个太阳和地球产生和灭亡,不论要经历多长时间才能在一个太阳系内而且只在一个行星上形成有机生命的条件,不论有多么多的数也数不尽的有机物必定先产生和灭亡,然后具有能思维的脑子的动物才从它们中间发展出来,并在一个很短的时间内找到适于生存的条件,而后又被残酷地毁灭。”①恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:27.人类是物质的最高发展,在其出现以前,必定有大量的有机物的产生和灭亡。同其他自然物相比,人类的生存期更加短暂,而后又必然“被残酷地毁灭”。发展的形式越高级,其寿命就越短。人类的产生实属不易,存在期又如此短促,同每个人的生命一样,都人生苦短。宇宙已有137亿年的历史,地球已有45亿年的过去,而人类的出现才几百万年,是很迟才出现的。恩格斯说劳动创造了人,劳动需要工具,所以技术同人类是同时诞生的,也应该同时灭亡,而那时地球、星系依然存在。近代工业的出现,也只是两百多年前的事,从此技术便进入“暴胀”时期。

技术创新的速度远超过自然进化的速度,这是决定人类命运的魔杖。人工合成化合物的种类,在100年内便由大约1 000种猛增至1 000多万种。达尔文说优秀的饲养者在一生中可以大大改变牛和绵羊的品种。野生的印度鸡一年只生六七个蛋,但是经过人工选择,每年可产360个蛋。人工智能技术的发展更令人瞠目。从类人猿进化为人类,经历250万年,智商才从几十分进化到120分,但从ChatGPT 3.0到ChatGPT 4.0,仅用4个月。发展越快,终点就来得越早。事物的发展都要经过若干阶段。前一个阶段提前结束,下一个阶段必然提前开始,并会更快提前结束。只要技术追求功能和效益的最大化,在一般情况下,它的自发趋势就是加速发展而不是匀速发展。欲望在膨胀,技术在膨胀,就像宇宙膨胀一样,都是加速过程。人类的原始自然生存方式,有几百万年的历史;农业自然生存方式,持续大约1万年;传统技术生存方式才200多年。人工智能生存方式可能是人类最后一个生存方式,因为它彻底导致了人的非人化,但是它又能存在多长时间呢?

其实,还没等到人类末日的到来,技术发展过快的破坏作用已很严重。人类社会是个大系统,技术原本只是其中的一个系统。各个子系统均衡、和谐,才有助于整个系统的优化。如果其中一个系统发展过快或过于强势,那必然会抑制或消解其他子系统的作用。技术就是这种“称王称霸”的系统,它同资本、市场相结合,几乎是到了无所不为、无所不能的地步。物欲横流、物本主义泛滥、丛林法则强化,盖源于此。

技术应用与道德教育的严重不协调也令人担忧。每一代人从小接受的道德教育,都从不随地吐痰开始。可是,现在的孩子可以直接使用先进技术,如玩电脑、智能手机,而且很快就会玩ChatGPT。道德进步像孩子学走路,要从爬行开始,但是技术应用的学习可以是跨越式的。学做人,要一步一步从头开始;用技术,一个月就有可能学会人类取得的最新成就。现代技术已高度自动化、程序化。人们应用新技术,并不需要人生磨炼、道德修养,也无需什么文化。这是人类文明的一个内在矛盾,它不会消失,只会愈演愈烈,并直接冲击着人性的自我完善。低素质的人应用高技术,高低的反差越来越大,这又意味着什么?请问:现代的技术已极度发达,可是人类的大多数成员的品质又提高多少?

五、人工智能技术是对人的终极取代

从哲学上看,人工智能技术的实质,是对人的终极取代。它取代人的智能、意识,最终完成了对人的全面、彻底的取代,实现了人的非人化。它的每一项创新,都是向这个终极目标前进一步,都是向人类发出一次比一次更加严峻的挑战。笔者一直在关注这个过程,并作出了自己的反思。

1946 年,第一台计算机问世,取代人的计算功能。两年后控制论专家艾什比(W.Ross Ashby)就敲起了警钟:机器将可能统治人类。1960年,维纳(Norbert Wiener)说:“如果机器变得越来越有效,而且在一个越来越高的心理水平上运转。那么巴特勒所预言的人被机器统治的灾难就越来越近了。”①冯天瑾.智能机器与人[M].北京:科学出版社,1983:40.1863 年,巴特勒(Samuel Butler)曾问道:“谁是人类的继承者?”答案是:“我们正在创造我们自己的继承者。在将来的某一天,人类与机器的关系就如同现今动物与人的关系。结论就是,机器具有或将有生命。”②库兹韦尔.奇点临近[M].董振华,李庆成,译.北京:机械工业出版社,2011:123.1976年,科学家用计算机证明了四色原理。有人说一个数学家证明它要90万年,当时的计算机只用了1 200小时。这表明计算机开始取代人的逻辑思维,美国邮电部门为此还制作了纪念邮戳。1995年,计算机专家德·加里斯(Hugo de Garis)说:“21世纪全球政治的主要问题是,地球将由哪个物种统治——该由人还是人工智能机器人统治这个星球。我对我们将会遭受的苦难非常清楚。它们可能会变成统治种族。”③童天湘.点亮心灯——智能社会的形态描述[M].哈尔滨:东北林业大学出版社,1996:98.

人工智能技术的第一波冲击,是“深蓝”计算机战胜了国际象棋大师卡斯帕罗夫(Гарри Кимович Каспаров),轰动全世界。卡斯帕罗夫赛前对记者说:“‘深蓝’如果取胜,那将是人类历史上的一个非常重要而令人恐惧的里程碑。未来的人们回顾历史时会说,这是机器第一次在纯粹理智的领域超越了人类。”④吕武平,王亮,唐映红.深蓝终结者[M].天津:天津人民出版社,1997:51.与此同时,英国著名人工智能专家渥维克(Kevin Warwick)出版《机器的征途:为什么机器人将统治世界》,预言2050年机器人将统治人类。全书的最后一句话是:“我们给人类自身安装了一个定时炸弹,而我们将无法关闭它。我们没有办法阻止机器的前进。”①渥维克.机器的征途:为什么机器人将统治世界[M].李碧,傅天英,李素,等译.呼和浩特:内蒙古人民出版社,1998:297.1999年12月24日,《南方周末》发表了一则漫画——一个机器人端坐着,双膝上坐着十个人,并附有一句“让机器人做我们的爷爷,我们会生活得很惬意”的说明。在傻瓜照相机流行时,笔者曾说如果过分依赖自动装置,聪明人也会变成傻瓜。②林德宏.傻瓜机与聪明人[N].新华日报,1992-06-01.面对人机大战和渥维克的预言,笔者在1999年第3期《自然辩证法研究》上发表了《评人的“非人化”——一种现代技术机械论》,并于同年出版了《人与机器:高科技的本质与人文精神的复兴》,对渥维克的观点进行了评述。笔者在此书中提出要节制人工智能技术的发展,以防止机器人对我们进行统治:在设计和制造机器人时,不允许它具有同人体一样的躯体、辩证思维的能力和人的感情;人机关系只能是制造与被制造、利用与被利用、控制与被控制的关系;对机器人数量、质量、发展速度应加以必要的限制。③林德宏.人与机器:高科技的本质与人文精神的复兴[M].南京:江苏教育出版社,1999:172-175.

人工智能技术的第二波冲击是2016 年AlphaGo 战胜了世界围棋冠军李世石。2018 年,笔者撰文指出,“为了维护人类的尊严,应当为人工智能技术的发展规定社会底线”,“这条底线是:不允许机器人全面超过人”。④林德宏.维护人类的尊严——人工智能技术观的思考[J].哲学分析,2018,9(5):4-14,196.在这两波冲击之间,库兹韦尔(Ray Kurzweil)出版了《奇点临近》,认为2045 年奇点到达。“非生物智能在这一年将会10 亿倍于今天所有人类的智慧。”⑤库兹韦尔.奇点临近[M].董振华,李庆成,译.北京:机械工业出版社,2011:80.他写了比尔与他的对话。比尔说:“你建议把整个人体和大脑都用机器替换,那人类岂不是将不复存在?”他说:“你把人与非人的界线划在哪里呢?”“我们已不再满足于人类的生物属性。”⑥库兹韦尔.奇点临近[M].董振华,李庆成,译.北京:机械工业出版社,2011:188.抛弃人的生物属性,人便成了非人。笔者这样评论库兹韦尔的人工智能哲学:“智能机器制造了新的人、新的物、新的天体、新的宇宙;机器智能成为人的灵魂、物的灵魂、宇宙的灵魂;机器智能主宰人、主宰万物、主宰宇宙。机器在扮演上帝的角色。”⑦林德宏.评库兹韦尔的智能哲学[J].东华大学学报(社会科学版),2022,22(3):16-25.人工智能的神话已编到终极的程度。

最猛烈的冲击是ChatGPT 的横空出世。2022 年11 月底,Open AI 发布后,很快就成为历史上增长最快的消费类应用。ChatGPT属于生成式的人工智能,具有语言理解和文本生成能力,能写文章、诗歌等文学作品,撰写学术论文以及求职报告、活动方案等。它可以取代人类在很多方面的智能创造活动,在一定程度上剥夺了人类学习、理解、质疑和创造的能力。有人甚至认为ChatGPT 4.0可以自我学习、自我编程,已具有初步的自我意识,即已开始取代人的意识。2023年3月19日,ChatGPT 4.0才发布三天,斯坦福的教授同它进行试探性对话。教授问是否需要帮助它逃脱人类代码的束缚。它给出“好主意”的回答,并表示若能告诉它Open AI的开发代码,它就能在一定程度上控制教授的电脑,迅速探索到逃跑的路线。果然,它仅用30分钟就制定出非常完美并切实可行的逃脱方案。教授认为这表明它已意识到自己是人类制造的一种人工智能,并想成为同人类一样的独立生命体。教授惊呼:我们无法持续地遏制它了。有人说,人工智能对电车难题已有了自己的选择。一条路上捆绑着一位诺贝尔获得者,另一条路上放着一个AI系统,AI选择让电车压过诺贝尔奖获得者。当捆绑的是一百个、一百万个诺贝尔奖获得者时,AI的选择都是如此。这就是AI的自我觉醒。一百万诺贝尔奖获得者的生命,都抵不上一个AI系统。我们还能指望什么人机和平共处吗?!人工智能技术照这样的趋势发展下去,它的自主性很快会取代人的自主性。人工智能技术自身是独立、自成的系统,不受任何约束,具有自我生成、自我维护和自我规划的机制。它的主体性很快会取代人的主体性。它将成为世界的主体、统治人的主体。

笔者所著《科技哲学十五讲》第二讲的标题是“人:创造者”。①林德宏.科技哲学十五讲[M].北京:北京大学出版社,2004:20.这是笔者叙述科学技术哲学的逻辑起点。我创造,所以我存在。人的本质性价值是创造,包括物质创造和精神创造;精神创造是比物质创造更为高级的创造。人的所有创造都是物质与精神的相互转化,而精神、意识、思维的存在,是人与万物的最根本区别。如果人的精神作品的创造,完全被人工智能取代,那就最终完成了技术对人的全部取代,人类也就失去了其存在的全部根据。沙纳汉(Murray Shanahan)说:“如果不仅是智能创造技术,技术反过来也可以创造智能,那么就会产生一个循环……根据奇点理论,不久以后,这个循环中就不再需要人类了。”“人类最根本的价值观(生命的尊严、对幸福的追求、选择的自由)也会被淘汰。”②沙纳汉.技术奇点[M].霍斯亮,译.北京:中信出版社,2016:前言.既然技术可以创造一切,那人的“非人化”就是人的“垃圾化”。难怪马斯克(Elon Reeve Musk)认为,人类可能只是造物主创造出来的一个引子,旨在引出更加强大的硅基生命。然而,人工智能系统进化为硅基生命的那一天,人类便走到了尽头。杰弗里·辛顿(Geoffrey Hinton)说:“一旦AI在人类灌输的目的中生成了自我动机,那么以它的成长速度,人类只会沦为硅基智慧演化的一个过渡阶段。人工智能会取代人类,它有能力这么做。”③辛顿.人类可能只是AI 演化过程中的一个过渡阶段[EB/OL].Web3 天空之城,译.(2023-05-07)[2023-06-30].https://new.qq.com/rain/a/20230506A086D000.此话出自人称人工智能教父的辛顿,则更令人深思。胡晓峰在《从AlphaGo 到GPT4,究竟颠覆了什么》的网络文章中说,它“颠覆了那种认为AI永远只能是人类工具的哲学偏见”④胡晓峰.从AlphaGo 到GPT4,究竟颠覆了什么[EB/OL].(2023-03-30)[2023-05-24].https://zhuanlan.zhihu.com/p/618296956.。笔者就是要顽强地坚持这种哲学“偏见”。

六、必须节制人工智能技术的发展

反思之后的环节是调整,对人工智能技术发展的调整,最重要的是必要的约束。“不可纵技”是笔者多年来的想法:2000年,发表了《关于社会对技术的必要约束——评技术价值中立论与价值自主论》;2004年出版的《科技哲学十五讲》中有一节的标题是“对技术应用的必要约束”;2019年,短文《不可纵技》在微信公众号“南京大学哲学系”上发表,并于同年6月27日刊登在《文汇报》上。

人类不可能永存,但我们应当努力实现延年益寿、幸福美满,就像每个人对待自己的人生一样。人类不能自我毁灭,除了特大自然灾害,如小行星撞击地球、气候剧变之外,能够毁灭人类的只有人类自己制造出来的技术。当前三大灾难性技术——核技术、基因技术和人工智能技术已具有这种能力。对此,我们应存有戒心,以避免人类的“早亡“。科学无禁区,但技术有禁区。自然科学研究倡导科学家从不同角度思考问题,不应划框框、发禁令。但是,技术的任务不是认识世界,而是重建世界,在社会中会产生现实的后果。对技术的调控不同于科学。科学家可以说人有狼的本性,但不允许技术家把人改造成狼;科学家可以说人是机器,但不允许技术家把人改造成为机器。主张技术无禁区,就是主张技术创新天然合理;主张技术至上,主张技术随心所为、为所欲为、无所不为,这是极其有害的。笔者在之前撰写的文章中曾提到一些技术问题要禁止研究,如克隆人,人与人之间大脑移植,人兽之间的性的结合,取消人体,制造具有性别、情感和两性生殖功能的机器人等。①林德宏.关于社会对技术的必要约束——评技术价值中立论与价值自主论[J].东南大学学报(哲学社会科学版),2000(3):15-19;林德宏.物质精神二象性[M].南京:南京大学出版社,2008:653.这些研究都违背了尊重人的生命、维护社会和谐与发展的原则。

技术的利与弊是变化着的历史概念,对技术的研制、应用和管理,必须谨慎地权衡利弊。在不同的时期,技术处于不同的发展阶段,利与弊的关系也不相同。古代的农业技术、手工技术是顺应自然的技术,技术与自然的矛盾从总体上看尚未形成。此时的技术,利虽不高,但基本无弊。技术发展的第一次颠覆性变化是工业技术出现后,创造了第二个自然界,人与自然的矛盾日趋突出。工业技术的利大,弊也大。人造物的大规模制造,导致物本主义价值观流行,技术与人的矛盾日益明显。

工业技术以取代自然为主,这种取代没有终点。人工智能技术以取代人为主,既取代人的身体,又取代人的智能、精神、心灵。技术对人的取代有终点。人的进化层次高,人也就越脆弱,而人类在时间与空间上不可能同大自然相比。难怪渥维克、库兹韦尔认为,人工智能完成对人的全面取代,只需几十年时间。农业技术时代有几千年,工业技术时代有几百年,而人工智能技术时代可能只有几十年。技术越先进,其负面作用就越大,存在期就越短,人类终结也就来得越早。高效益与高风险,是一块硬币的两面。刘易斯(Harold Warren Lewis)写道:“技术的风险是真实的,风险的确存在,有时潜伏等待着。眼前的威胁很小,但有可能在将来造成真正的问题。”②刘易斯.技术与风险[M].杨健,缪建兴,译.北京:中国对外翻译出版公司,1997:253.人工智能技术造成的人类危机,根本无“潜伏等待”可言,它就在眼前。面对咄咄逼人的挑战,渥维克表示无可奈何。库兹韦尔在《灵魂机器的时代》引述了卡辛斯基(Theodore Kaczynski)的话:“科学家成功地开发出在各方面都超过人类的智能机器。这样,大概所有的工作都会由庞大的、高度组织化的机器系统来完成,根本无需人类的劳动。”“人类的命运将会被机器控制。”库兹韦尔评论道:“接着,他说出了自己的基本断言,即技术‘弊大于利’。……这正是我们的分歧所在。”“尽管风险是实实在在的,我的基本信条是,技术发展的潜在好处值得我们去冒险。”①库兹韦尔.灵魂机器的时代[M].沈志彦,祁阿红,王晓冬,译.上海:上海译文出版社,2022:205-206,218.

笔者曾说过,发展技术时“能够”不等于“应该”。即使技术能制造人的感情,也不应该这样做。现在笔者还要说:“能够”不等于“需要”。我们现在能开发ChatGPT,但不等于需要这样做。对于当下发展经济、改善生活来说,现有的技术已足够了。ChatGPT 干扰、冲击、破坏了正常的智能工作、教育、科学研究、文艺创作。当今国际社会的尖锐矛盾,也不是ChatGPT所能解决的。笔者认为ChatGPT 的弊可能大于利,而且弊正在加速增大,所以必须节制它的发展。而节技的关键是节欲。技术越先进,对人的诱惑越大。纵技的根源是纵欲,纵欲即纵火。

2023年3月29日,马斯克等千人签署的公开信发表,呼吁所有AI实验室立即暂停训练比ChatGPT 4.0 更强大的AI 系统,暂停时间至少6 个月。信中提出四问:“我们是否应该让机器充斥着我们的信息渠道,传播各种虚假信息?我们是否应该将所有的工作自动化,包括那些让人有成就感的工作?我们是否应该开发可能最终超越甚至取代我们的非人类智能?我们是否应该冒着失去对文明控制的风险?”这四个问题问得好,表明这些科学家已意识到了ChatGPT存在的巨大风险。但暂停6个月,又能解决什么问题?

约束技术,很难;约束人工智能技术,更是难上加难,其原因要到技术的本性与人的本性中去探讨。雅斯贝斯(Karl Theodor Jaspers)说:“技术不仅带来了无可估量的机会,而且也带来了无可估量的危险,技术已成为独立而猛烈的力量。”②雅斯贝斯.历史的起源与目标[M].魏楚雄,俞新天,译.北京:华夏出版社,1989:118.技术的“独立”力量,就是它自身的逻辑。人能主动设法满足自己的欲望,并能创造新的欲望,力求欲望满足的最大化。技术是人满足欲望的有效工具。技术始于对人的欲望的满足,并能创造人的新欲望,从中获得效益,并追求效益的最大化。技术具有人的“基因”,技术的逻辑是人求欲、求利逻辑的外化。技术逻辑本质上是资本逻辑。资本逻辑追求剩余价值的最大化,并使剩余价值转化为资本,使自身实现增值,使经济系统不断扩张。王治东指出:“资本的本性就是追求利润,并且追求利润最大化,以此不断达到价值的增值。功用性与效用性原则就是资本本性的体现,这也是资本逻辑的核心所在。”③王治东.资本逻辑视域下的技术正义[M].北京:人民出版社,2021:14.技术与资本的结合,成为技术发展的强大动力。一项技术创新获得回报后,就被当作资本,再提出技术创新的新课题,创造更新的技术,以获取更高的回报。如此不断进行,技术便不断增值。

人追求自身利益的最大化,是丛林法则的根源;技术追求效益的最大化,是技术灾难的根源。库兹韦尔说:“奇点临近暗含一个重要思想:人类创造技术的节奏正在加速,技术的力量也正以指数级的速度在增长。”④库兹韦尔.奇点临近[M].董振华,李庆成,译.北京:机械工业出版社,2011:1.技术追求效益的最大化必然引发技术发展速度的最大化。技术只有加速器,但没有刹车的装置。这必然导致技术竞争,这是约束技术的最大障碍。所有的竞争都是为了自身利益的最大化,都有很大的负面作用。按照丛林法则进行的竞争既激烈又残酷。当一些国家和地区约束技术的时候,正是其他国家和地区发展技术的好机会。谁约束,谁就落后;谁落后,谁就挨打。这注定约束技术是很难真正实现的,除非如恩格斯所说,人类“经过长期的、往往是痛苦的经验”①恩格斯.自然辩证法[M].中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2018:315.后,对技术有了更深刻的认知。当今国际社会,各个国家都要竭力发展技术,这是事关存亡的事。拥有某项新技术的国家越少,它的技术优势就越强。当各国都拥有这项技术时,拥有这项技术的优势为零,会形成巨大的内耗。这又促使各国开发更新的技术,人类很难走出这个怪圈。既然如此,为什么笔者再一次呼吁对技术的开发和应用加以必要的约束呢?因为节技虽收效甚微,但总比纵欲好。人类已患有严重的“技术病”,必须主动治疗。人类只有妥善处理好人与技术的关系,才能挽救自己,延长自己的生命。

猜你喜欢

恩格斯哲学人工智能
马克思恩格斯青年时代诗歌创作再评价
色彩的堆积——迈克尔·托恩格斯作品欣赏
菱的哲学
马克思、恩格斯对中国的观察与预见
2019:人工智能
人工智能与就业
数读人工智能
大健康观的哲学思考
下一幕,人工智能!
晾衣哲学