“无用阶层论”的谬误
2017-11-06徐英瑾
徐英瑾
对话的缘起
最近,某高校人文学院大二的学生阿璟一直无精打采的,上课老开小差。原来,她在一周前读到了以色列学者赫拉里写的《未来简史——从智人到智神》,被里面的观点“颠覆了三观”。根据赫拉里的论点,人工智能系统会在不远的未来抢走人类的所有饭碗,并由此将整个人类变成“无用阶层”。被赫拉里彻底说服的阿璟不由得开始怀疑刻苦读书的意义,并下决心提前将自己放逐为“无用阶级”的一员,开始了饱食终日、无所用心的日子。班上的辅导员阿华对阿璟做了好几次谈话,但都被她“怼”了回去。无奈中阿华找到了班上的学术导师阿瑾帮忙。阿瑾速读了一下《未来简史》这本书,觉得有把握在学理上澄清这本书带来的种种迷思,便找机会找阿璟进行了对谈。下面就是谈话内容的摘要。
《机器人总动员》展示出入类对太空、人工智能的想象
师:听说你相信了赫拉里的学说,认为人工智能会在不久的将来使得人类成为“无用阶层”。你能够根据你对于其著作的理解,具体谈谈你对于这个论点的论证吗?
生:很简单啊,老师您看,现在的军队作战,越来越依赖无人机与其他无人作战平台,这样呢,人类士兵就不需要了;工业机器人在生产线上越来越多,这样呢,蓝领工人就不需要了;机器人快递员现在已经在日本北海道的某些地方已经投入使用了,而在不久的未来呢,人类快递员恐怕就不需要了;此外,随着自动驾驶技术的普及,人类驾驶员就不需要了;随着超级自动医学诊断软件的出现,人类大夫就不需要了;等等。综上所述,各行各业的职业训练与教育规程都不需要存在了,因为这些体制性安排本是针对人类的特点才被设计出来的,而当人类劳动力不必大量存在的时候,这些制度本身也就该寿终正寝了。所以,老师,我看不到继续学习的意义。迟早一天,大学也会关门的,老师您也会失业的。
师:那么,人工智能系统的设计、更新、维护难道不需要人吗?他们的知识难道不是通过传统的学院学习获得的吗?
生:您说得不对。首先,对于人工智能系统的设计、更新与维护所需要的人力资源是非常少的,区区这几个饭碗是不够全社会的人类分的。其次,更加“进化”的人工智能系统会自主更新自己的程序,使得编程人员的工作也被边缘化。所以,我的结论还是对的:现有规模的人类教育结构与职业培训体制,即将被扫进故纸堆。
师:那我先来问你一个问题:在你设想的社会里,厨师是不是都是机器人了?
生:对啊。
师:那么机器人厨师是为了机器人自己做“沙县小吃”,还是为了人类客户做“沙县小吃”呢?
生:当然是为了人类啊。
师:那你已经承认了,在你构想的未来社会中,由智能机器人所组成的劳动力大军所生产的产品,还是针对由人类所构成的消费市场的。
生:嗯……
师:好吧,世界上没有免费的午餐。人类消费者在吃了机器人厨师提供的食品之后,是不是还要买单呢?但这是不是预设了他们有买单的能力呢?而这又是不是预设了他们有经济收入呢?可是按照你的说法,作为“无用阶层”的人类既然无用,是不该有经济收入的……可这样一来,无用的人又如何有经济收入来买沙县小吃与意大利通心粉呢?既然这些产品没人能够买得起,机器人厨师的生产的“目的因”又体现在何处呢?生产一堆食品,然后倒掉吗?可这除了污染环境,还有其他积极的意义吗?再说,机器人厨师的生产活动自身所导致的物质消耗——譬如原材料、电力等方面的消耗——又由谁来买单呢?
生:靠别的机器人,如发电机器人,维修机器人……
师:那么它们自己的运作所需要的消耗又由谁来补充呢?显然这会导致逻辑上的无穷后退。而为了防止这种无穷后退,唯一的办法就是承认:使得“智能机器人经济”得以循环的整个“目的因”在于人类,而不在于机器人自身。但这个结论显然立即会推倒“人类将成为无用阶层”这一结论。
生:我不是很同意您的这个推理。实际上也可能出现这样的一种情况:未来的社会是超级福利社会,因此,我们都可以免费获得大量比特币去购买披萨或沙县小吃。机器人经济的高度发达能够保证产品的大量供应,而这一点又使得人类各种物质需要的满足变得轻而易举……
师:但是,你说的超级福利社会是怎么产生的呢?难道智能机器人的大量出现,就能够自动导致你说的理想社会的出现吗?
生:为何不能呢?
师:因为你还没有排除这样一种可能性:对于智能机器人的技术的控制与垄断方,会使得这样的技术首先满足于本阶层的利益,并将对于人类社会中大多数人的福利压低到最低水准。这样一来,整个社会的有效消费人口就会锐减,导致产品过剩,并由此导致良性经济循环的乏力……
生:这个问题不难解决,我们可以强化那些占人类人口中大多数的平民对于机器生产分配机制的监督体系……
师:好吧,你的论证出现漏洞了。你刚才已经承认了,使得由智能机器人主导的经济结构得以健康存在的重要逻辑前提之一,便是人类对于相关生产-分配机制的监督。然而,这种监督本身就是人类智力的体现。换言之,你已经承认了:人类智力的某种广泛参与,乃是由智能机器人主导的经济结构得以健康存在的重要逻辑前提之一。由此我们立即可推出:即使在这样的结构中,人类也肯定不是“无用阶层”……
生:但是监督分配这种活,比起生产来说,工作量小多了,不足掛齿……
师:那是因为你是不知道分配工作的难。就拿上次你们班评奖学金的事情来说吧,我和你们的辅导员阿华商量了半天,才确定了一个比较合理的分配方案。我们要考虑到学习成绩、对于班级集体活动的贡献、同学们的风评,以及各自的家境情况等各种因素……苦活啊……endprint
生:这种事情交给机器去做才合理。
师:怎么做?
生:各项打分,加权求和……
师:好吧,你在这里又预设了人类的劳动的存在。第一,机器打分的对象是人类的劳动或学习成绩;第二,每一项各自的权重制又体现了相关人类共同体的价值标准,而此类标准的量化表达,可能本身就是人类成员彼此协商的结果。很显然,协商也是一种集体智力投入……
人工智能引发人类关于“机器人劳动力”的争论
生:我已经说了,在我设想的理想社会中,大多数人不劳动了……
师:那么你说的那种机器评分标准就会失去依据。失去依据的评分系统就会随之失去起码的公正性——然后,机器人所产生的财富就会迅速向少数资本与技术的控制者聚集。但这样一来,前面说的老问题又出现了:有效进行消费的人口基数会锐减,这样经济泡沫就会越来越大,导致循环失败……
生:那么就采取最简单粗暴的分配办法:按照人头进行物质分配,而对于这样的分配机制的监督的实现,在技术上也是最容易的……
师:在人口基数非常大,而涉及人员又分布在很大空间内的前提下,即使搞平均分配也是一件难事。由于分配方与被分配方的信息不对等,弱势一方未必能够确定:自己得到的分配结果有没有被人动了手脚。比如,分配方亦可以在物质生产总量的数据上造假,并在造假的前提下进行“平均分配”……另外,关于人口总数的数字,分配方也可以造假。过去旧军队编造假的“花名册”吃空饷的故事,你肯定听说过吧……
生:我们要弄出一个超级算法,来荡涤这些腐败现象……
师:你说的此类“反腐超级算法”的设计与后台管理,都体现了人的智慧,同时,它也体现了特定集团的人的利益。因此,你对于超级算法的无条件崇拜是没有根据的,因为它们毕竟是人类的工具而已。
生:那我们就无法对付腐败了吗……
师:当然要反腐啦,问题是在反腐过程中人的作用不能被消除,不能将一切交给机器。说得具体一点,如果在这一过程中“算法证据”能够起到一定作用的话,这类证据也必须被镶嵌到传统意义上的人类论证结构之中去,而无法单独构成某种证据力。这就好比说,现代法医学对于人类体液的遗传特征的鉴定成果,只有被合理地镶嵌到特定的论证结构之中后,才能够起到“为某人定罪”这样的效果。孤零零的法医本身是取代不了合议庭、陪审团或律师的。
生:那您的意思是:现有的人工智能与人类智慧之间的关系,就好比是毛与皮之间的关系:皮之不存,毛将焉附?
师:嗯,大致可以这么说。说得更清楚一点,我的观点可以被总结为这样一个样子:人工智能经济的存在,在“目的因”的层面上就有赖于人类的消费能力与消费习惯的存在,否则这种经济就无法完成健康的循环并由此稳定地存在下去。而人类的消费能力与消费习惯的保存又有赖于人类智力劳动的存在,否则社会经济运作的“能量守恒”就无法被保证了。所以,人类的智力劳动——当然不仅仅是指设计机器人的那种狭隘意义上的智力劳动——始终是人工智能经济存在的逻辑前提。
生:这里有一个问题需要请教:为何智能机器人一定要以满足人类的生理、心理与文化需要为自己的“工作目的”?具有自我意识的超级机器人难道不能够“完全做自己”吗?在这样的情况下,我们凭什么认为机器人经济的运作是以人类智慧劳动的普遍存在为逻辑前提的?举个例子说,机器人自己是不要吃披萨的,而且如果它们对这一点有了自我意识了,它们就可以自行去追求自己的生活目标了——这样一来,它们的活动,不也因此可以与人类的物质需要相互分离了吗?
师:假设具有你所说的这种自我意识的机器人可以出现,那么,这倒反而证明了人类不会成为“无用阶层”。
生:怎么说?
师:因为人类自己还是要吃披萨的啊!机器人罢工了,人类厨师正好上场。
生:……
师:所以你现在陷入了一个两难推理。选项甲如下:如果未来的机器人还没有聪明到意识到自己与人类的需求不同的话,它们就会乖乖做人类的奴隶,按照人类口味的变化来制作各种披萨。在这种情况下,人类的生存方式就依然是智能经济存在的前提,人类不会成为“无用阶层”。选项乙如下:如果未来的机器人已经聪明到“意识到自己有独立的需求”的地步的话,那么人类就有两个更具体的选择:继续去使用那些不那么聪明的“机器人奴隶”为自己服务;或者自己亲自上阵。但无论怎么选,人类都不会成为“无用阶层”。
生:现在我想来具体谈谈“选项乙”。现在假设机器人已经“进化”到了具有自我意识的地步,那么,它们会不会将人类统统消灭?如果人类被消灭的话,那么人类的所有消费习惯也就被消灭了——这样一来,“人类成为无用阶层”的条件就被自动满足了。被消灭的阶层当然就是无用阶层。
师:我不能在逻辑上完全排除这种可能性,但这种可能性微乎其微。
生:怎么说?
师:最容易想到的理由是:机器人的需求和我们不同。机器人是硅基存在者,而不是碳基存在者。你说它们为何要灭我们人类?争氧气?争面包?争住房?争大城市户口?它们会在乎这些吗?
生:它们去消灭人类,可能纯粹是为了好玩吧。电影《侏罗纪世界》里,经过基因改良的超级霸王龙第一次冲出围栏后,就开始大肆猎杀其他品种的恐龙。这并不是因为它饿了,而是因为它想检测一下自己在食物链中的位置。同样的道理,我们也可以设想超级智能机器人纯粹为了检验自己的力量而猎杀人类,并以此取乐。这和我小时候纯粹因为取乐而踩死蚂蚁,没有啥两样。
师:你说的超级霸王龙之所以能够比别的恐龙厉害,归根结蒂还是因为它的身体比较巨大,而不是因为它的智商高。你看,电影里的这种恐龙虽然被设定为具有一定智能的,但肯定不會比电影里的人类聪明吧——但很多人类都惨死在这种怪兽的巨爪之下。可见,超级智能本身并不足以杀死人类,只有智能加上强大硬件才可能对人类构成威胁。而智能与硬件的结合方式本身则取决于人类的意愿。只要人类始终阻止强大的智能计算能力与强大硬件的结合,人类从总体上说就是安全的……endprint
机器人经济的运作是以人类智慧劳动的普遍存在为逻辑前提
生:足够聪明的人工智能可以自己搞到硬件,改装自己的身体……
师:比如怎么做?
生:通过“黑”入人类的账户或者数据库,伪装成具有特定权限的人类,在线购买硬件设备,然后升级自己的身体……
师:但这种可能性既然能够被当下的你所想到,也肯定会被未来的设备监管专家所想到。它们肯定会利用别的人工智能程序,去阻止你说的这些事情的发生。假设阻止人工智能做坏事的“预防型”人工智能,也将和其预防对象一样聪明,甚至更聪明——在这种情况下,超级人工智能与超级硬件的结合就会成为一个小概率事件了……
生:假若所有的人工智能体都联合在一起反对人类呢……
师:不同公司设计的人工智能体背后的运作机理将非常不同,其差别将远远大于人类不同民族之间的差别。既然就连人类的不同民族与阶层之间都存在着这么多的矛盾,我个人是很难设想所有的机器人会凑在一起高唱“欢乐颂”的。总之,你说的这种可能性微乎其微。
生:好吧,我总算想到了机器人要灭亡——至少奴役——我们的一个理由。
师:比如?
生:比如,它们和我们都需要电能。如果它们消灭或至少奴役了我们的话,它们就能独占这些电力了。
师:你的这个论证预设了未来的能源危机会导致人与机器之间的紧张关系,却没有意识到能源危机本身的存在会随着技术进步——甚至包括人工智能技术自身的进步——而得到缓解。
生:怎么說?
师:你也不想想,人类发展人工智能技术——以及广义上的信息技术——的目的之一——就是为了减少不必要的能量浪费。能够通过远程网络会议解决的问题,就不必邀请与会人全部赶到一个特定的会场了,这样我们就节约了多少航空燃油!同样的道理,智能化的信息处理设备能够减少对于纸张、油墨的浪费,使得由此得出的问题解决路径更为科学合理,并因此而避免更多的浪费。比起运作这些智能设备所造成的电能消耗来说,人类对于无效位移的避免所节约的能量,恐怕要多得多。
生:但问题解决效率的提高,在客观上会增加人类社会运作的速率,并导致更多的需要的产生。由此导致的能量消耗,您并没有计算在内……
师:嗯……不过,你别忘记了,核聚变技术的运用,可能会一劳永逸地解决人类的能源问题。
生:还是靠核……老师你忘记了福岛的事故了吗……
师:福岛核电站使用的是核裂变原理,实质上是指这样一种核反应形式:铀核或钚核,分裂成两个或多个质量较小的原子,并在这个过程中放出巨大的能量。由于铀、钚都是对人体很有害的放射性物质,此类反应模式的环保风险当然是不容忽视的。但核聚变就不一样了。这指的是两个氘原子在巨大能量作用下发生原子核的聚合作用的过程(这个过程还会产生更大的能量),而这实质上就是太阳发散能量的那种物理过程。这里所说的“氘”是氢元素的同位素,比什么铀啊钚啊要安全多了,而且在取材的量的方面还有保证。等到核聚变站投入应用了,谁还会去在乎驱动人工智能设备运作的那点能量呢?
生:老师,您这是远水不解近渴,简直是画饼充饥。核聚变站建设的最大技术难点是:如何人为地控制使得核聚变得以产生的那种巨大的温度与压力呢?而在这个问题解决之前,超级人工智能体恐怕就已经出现,并开始试图“清洗”人类了吧!
师:哈哈,如果真有这样的超级人工智能体的话,我最想让他回答的问题就是:请阁下利用您的超级智能,给出一条可行的技术路线,以便造出一个可用的核聚变电站。
生:人家为何要理你……
师:因为它有超级智能啊!你看,假设你说的“机器与人争夺能源”的问题是存在的,超级智能机器就只有三个选项了:第一,消灭人类,独享现有能源;第二,开发超级能源,与人类分享能源;第三,开发超级能源,同时消灭人类,以便独享超级能源……
生:我觉得超级智能体会选“三”。总之,我们死定了……
师:错!如果它足够聪明的话,它会选“二”,与我们共生。
生:选“三”难道不会对它更有利吗?
师:非也!选“三”会带来风险!因为人类的智慧也是不容小觑的,一旦人类发现超级智能体对其有敌意,会奋起反抗的!尽管这种反抗未必一定会成功,但是却有一定的成功概率。如果超级智能体能够预见到这一点,为了消除这种风险,那么,“和人类一起从事新能源的开发”便是其最好的选项。另外,在新能源本身的量非常巨大的前提下,比起“分享能源”这一选项来说,超级智能体独占这些能源所带来的额外好处是微乎其微的。因为这里有个“边际效应”问题——譬如,假设你能够得到的披萨的量是接近无穷多的话,独占这些披萨,真的比与邻居分享它们,能够带给你更多的快感吗?
生:老师,刚才您的这段话预设了两点。第一,超级智能机器会对人类的可能的反叛产生一定的畏惧。第二,超级智能的机器人的心理架构会接近人,因此也会产生“边际效应”这样的问题。但我对这两点都比较狐疑。对于第一点,我的疑惑是:既然超级人工智能已经是“超级”存在者了,为何还要担心人类?其二,为何超级智能体的信息处理架构依然要在某种意义上接近人?
师:先来回答你的第一点疑惑。“超级人工智能”是一个在目下的媒体中很流行的术语,我个人也是顺着大家的口使用了这个术语,尽管我本人是很不喜欢这个说法的。之所以不喜欢,是因为我根本不相信有什么与人类的智能形式完全不同的超级智能形式……
生:目下的IBM公司造的“华生”系统在百科知识抢答方面已经超过了大多数人类,而谷歌公司造的“阿尔法狗”则已经横扫一切人类棋手……“超级人工智能”的说法有啥不妥的?endprint
师:那都是专用系统。“阿尔法狗”只能用来下棋,不能用来辨识人脸,而任何一个智商正常的棋手都可以辨识人脸……
生:辨识人脸的深度学习技术,在本质上是与用来下棋的深度学习技术一样的……
师:你在偷换概念。打个比方,说“运用在军舰上的柴油发动机与运用在坦克上的柴油发动机原理一致”,不等于说我们就可以将坦克发动机直接拆下来用到军舰上,因而二者的具体技术参数相差太多。同样的道理,专门用来进行下棋的深度学习机制,在参数配置上与用来进行人脸识别的深度学习机制非常不同。因此,它们都是专用机而不是通用机,尽管指导其运作的基本原理可能并非局限于一个特定领域。
生:您的论证似乎有个预设:尽管您不知道“超级人工智能”是什么,但您肯定:它肯定不是仅仅在某方面超过人类的专用智能设备。为何我要接受这个预设呢?
师:你的确必须接受这个预设,否则你推不出“超级人工智能体会欲图消灭人类”这个结论。因为任何一个产生“必须消灭人类”之类的想法的智能体,都必须知道:(甲)人类与机器的分别;(乙)消灭人类对于机器而言所可能带来的好处。而这两点都不可能是专业领域内的知识,相反,这些信念都具有“全局性信念”的特征——换言之,这样的信念是不会出现在专用智能系统的“脑海”里的。比如,你不能指望“阿尔法狗”能够进行这样的高阶反思:嗯,“既然连柯洁都不是我的对手,我明天就可以尝试去颠覆谷歌公司了”——不,“阿尔法狗”不认识谁是柯洁,它也不知道谷歌与百度的区别,因此,它永远不会产生颠覆任何一家公司的念头。
生:好吧,我就姑且接受您的看法:超级智能机器肯定是通用人工智能系统,而不是专用的。但从这一点出发,我们分明可以得出这样的结论啊:这样的超强的人工智能系统肯定是不会惧怕人类的,因為就连专用的机器都那么强了,通用的机器难道还不会强悍到极点吗?
师:你对“智慧”有一个误解,好像智慧的生物或人造智能体就一定要灭了谁才行。实际上兵法家们常有这样的评论:真正的兵家智慧不在于知道自己何时可以打赢,更需要知道何时他是打不赢的。同理,如果“阿尔法狗”有反思能力的话,那么它就会想到:使得它成为它的“深度学习”技术正在被全球不知道多少个科研团队跟风研究,而这些团队又各自处于不同的政经利益格局之中。它如果要对人类宣战的话,那么就首先会遭遇到和其处于几乎同样一个技术等级的其他超级人工智能系统——而在这样的情况下,其获胜的概率并不高。
生:您上面的话,还是预设了人类团队能够操控相当一部分超级人工智能体——如果不是全部的话。但如果全部的人工智能体都反叛了呢?
师:你硬是要这么想的话,那么,你还是会迎面遭遇到我前面提到的那类问题上去:超级智能的机器人如何获取相关的硬件设备来武装其“身体”?——请别忘记了,再邪恶的主观意图若不与客观的物质力量相结合,都无法在物理世界中制造出哪怕半点真正的邪恶。而也正如我前面提到的,我们很难设想人类会失去对于各类敏感外围设备的监管,而任凭具有邪恶意图的人工智能程序调用这些外围设备——除非全体人类都疯了。
生:我有点明白您说的“即使是超级人工智能体也会对人类的反治手段有所畏惧”是什么意思了……
师:嗯,我想说的是:首先,人类可以通过外围硬件设备的物流控制来防止对自己不利的“软件-硬件”组合方式的出现;第二,人类可以用大量的依然忠诚于自己的人工智能体来对冲某些人工智能体失控的风险……
生:那么为何你说超级智能的机器人也会有“边际效应”呢?
师:智能机器人的心智结构,如果要承载我们前面所说的“通用智能”的话,就必须至少在某个抽象的层面上与人类类似,甚至与某些动物类似。因此,它也必须有某种“边际效应”……
生:但机器可以比人脑算得更快,处理更多数据……
师:这又如何呢?就算其处理的数据再多,它也是有限存在者,而不是无限存在者。因此,它也必须在某个尺度上体现出思维的经济性与节俭性,即用相对小的计算量来解决问题。在这种情况下,“边际效应”恐怕是不可避免的……
生:计算的经济性与“边际效应”之间有啥关系?
师:“边际效应”其实是与心理学家所说的“韦伯-费希纳定律”有关的……
生:您说的这个知识点我大概是了解的。“心理学导论”课程上的老师说过这例子:商店同时调整了两项商品的价格:商品甲是从15元调整到10元,商品乙是从200元调整到195元,二者的打折量都是5元,但前者的促销效果会远远好于后者——因为消费者更为关心的乃是折扣占据原价的百分比,而不是实际的打折绝对量……在这个问题上,边际效应的确与“韦伯-费希纳定律”有关,只是实现细节不同罢了。具体而言,在典型的边际效应案例中,新增加的收益因为超出了预期收益的阈值而在一定程度上被忽略;而在典型的“韦伯-费希纳定律”案例中,新增加的收益则因为占据预期支出的百分比太小(并因此没有达到阈值)而在一定程度上被忽略。但这两类案例毫无例外地体现了人类的愚蠢:明明是同样量的收益,却非要仅仅因为参考系的不同而厚此薄彼。未来的人工智能管家肯定不会那么蠢……
师:我有两点不同意你。第一,我不同意你说的:在“韦伯-费希纳定律”支配下你的人类购买行为是人类愚蠢的标志;第二,我不同意说,一种真正意义上的人造通用智能体需要完全摆脱“韦伯-费希纳定律”的支配。
生:您的这个观点有点颠覆我……5元就是5元,你总得说出个理由喜好这项打折,而不是那项啊……
师:就是百分比。百分比的好处是直观,可以将两个不同项目的打折选项放在一个平面上被相互比较。
生:“可直观”也算得上是一条理由?
师:是啊,因为“直观”就意味着被关注到的对象可以进入人类心算的快车道,可以帮助人类快速得出结果。在面对大量的被选择对象时,对象的可直观性就显得非常重要……endprint
生:您的论证预设了人类心智在特定时间内的工作记忆容量……但超级机器就不应当受到此类限制了……
师:我当然可以设想某种超级智能机器的巨大工作记忆容量,但这样的机器依然会在一个更高的数量级上体现出人类思维的某些特点。要注意的是,所谓的“百分比计数”,实际上是一种当下差价与历史报价之间的对比值,或者说,是对于“历史-过去”关系的一种浓缩。所有的智能体都必须具有一定的时间意识,并根据历史资料来判断当下的选项是不是合算。对于某大富翁来说,赚一亿元可能是一个“小目标”;对某白领来说,赚个十万的外快恐怕也不是那么容易——那么,这两人对于“大”、“小”的判断,哪个是对头的呢?其实都对,因為富翁与白领各自的历史路径不同,其对于“大”与“小”的直觉感受也自然不一样。这一点也适用于智能机器的运作。智能机器的数据处理能力强,但这并不意味着其不是根据其自身的运行历史来对未来进行尺度衡量的,而要进行这种尺度衡量,“百分比计数”就是一种非常自然的衡量方法了。不过,这样一来,其运作也就难以摆脱“韦伯-费希纳定律”的影响了……
生:倘若智能机器不根据自己的运行历史来进行运行,而每次都重新归零历史,对当下情况进行新的计算呢……
师:那它就不算是“有智能”的。根据历史进行运作,就是为了能够由此避免历史上的运行错误,提高未来的运行效率——若每次都重新来,就真成了“西西弗斯”了:将石头推上山顶又让其滚下,然后再推上去,循环往复,永远没有进步……
生:我有点听明白您的论证了。您的意思是:既然智能机器是需要依据自身的运行历史行动的,那么它就得受到与历史评估相关的心理规律的约束,因此,它也就会在特定条件下产生“边际效应”——特别是在新得到的获益量超过其基于历史经验而获得的预期值的时候。在这样的情况下……让我回忆一下您前面说的……如果未来的核聚变电站能够产生足够的能源,使得超级智能机器的能量收益能够超过其基于历史经验而获得的阈值的话,那么,超级智能机器就会产生“边际效应”,而不在乎因为与人类分享剩余能源而实际产生的损失了……这样,人-机之间的战争就不会发生了……
师:很好,看来我已经说服你了。
生:好吧,我再理理思路。您已经说服我的地方有:第一,超级智能的存在以人类智能的存在为前提,因为智能经济的存在必须预设人类消费者社会的存在,否则就会导致经济循环失败;第二,即使人工智能体产生了与人类无关的机器社会内部的经济循环,人类社会的基于人类生物-心理-文化需求的经济循环还会继续下去,除非机器试图消灭我们;第三,但真正的超级人工智能体是不会消灭我们的,因为它们的智能水平将帮助它们预测到:(甲)消灭人类的企图所必然导致的人-机战争未必会以机器的胜利而告终;(乙)对于超级能源的人-机共享会使得人-机战争失去理由,而这一点背后的论证则与“边际效应”相关,因为正是这种效应才使得超级智能机器不在乎过剩能源的获取所带来的额外收益……
师:嗯,很好,综上所述,人类成为无用阶层的那一天是不会到来的。、
生:但我还是有疑虑……
师:但说无妨。
生:如果我们现在讨论的那种超级智能机器没有问世的话,那么,即使是大量专用机器的问世,都会使得很多人失业,而新技术产生的新岗位将不足以导致失业人口数量的减少……
师:你说的这种情况的确很可能发生。但这其实是任何技术升级都会带来的社会波动,而并不特别与人工智能相关。另外,更重要的是,由于完整意义上的人造智能体并没有在你描述的这种情况中出现,对于全面的人类智能的全面替换也不会在你说的这种条件下发生……
生:但失业人口的大量增加足以导致有效消费人口的减少,并导致您前面所说的经济循环的可持续问题了……
师:这一点你说得可能有道理,我对这一点的思考还不够深入,抱歉。不过,在这种情况下,对于一个良好的分配体制的追求就会成为题中应有之义了。考虑到这个问题的难度,目下我们恐怕还得用人类自己的智慧来解决这个问题。而这不正好说明人类智慧的重要性了吗?
生:那我现在该怎么办?
师:很简单,首先不要被“无用阶层”论的叫嚣弄得神经兮兮。你读的是人文学科,琢磨的是人性的堂奥与历史的奥秘,这是最难被机器模拟的那部分高级人类智慧。按理说,这个行当的人应当在面对机器大潮的到来时,保持最大程度的“淡定”。然后呢,建议你好好研究人类历史上面对分配难题时所给出的各种决策,评估各种方案的利弊,以便为未来人机共治时代的社会财富分配方案进行思想预热……
生:“人机共治时代的社会财富分配方案”!这个话题很有趣。我想把该话题作为我学士毕业论文的选题……
师:真的打起了精神,愿意好好学习了?
生:嗯!!
师:好的!我可以做你论文的指导教师!
于是,师生在愉快的气氛中结束了这场关于人工智能与人类未来的对谈。
(作者单位:复旦大学哲学学院)endprint