维护人类的尊严
——人工智能技术观的思考
2018-01-23林德宏
林德宏
大约在20年前,著名人工智能专家渥维克说,2050年机器人必将统治人类,这是人类的终极厄运。现在我们距这个时间点只有32年。
当前,智能机器人的技术日新月异,对经济的发展、生活的改善起着重要的推动作用,我们应当积极发展。但它也对人类的命运发出了严峻的挑战。人类是否还要生存和发展?人类将来是否应当成为机器人的奴隶或宠物,失去自己的尊严?
人各有志,有人愿意被机器人统治,这是他的权利。我则主张维护人类的尊严。为此我们要有正确的人工智能技术观。
一、未来机器人的功能是否会全面超过人?
1956年人工智能学科诞生,次年该学科奠基人之一西蒙说:“在十年时间内,数字计算机将成为世界象棋冠军,除非按规则不许它参加比赛。”①德雷福斯:《计算机不能做什么——人工智能的极限》,宁春岩译,北京:生活·读书·新知三联书店1986年版,第90页。1975年5月,“深蓝”战胜了卡斯帕罗夫。赛前他说:“‘深蓝’如果获胜,那将是人类历史上一个非常重要而令人恐惧的里程碑。”①吕武平:《深蓝的终结》,天津:天津人民出版社1997年版,第51页。2016年3月,阿尔法围棋(Alpha Go)战胜韩国围棋手李世石。这些都促使人们思考这个问题。彭罗斯认为人工智能不会超过人的智能。库兹韦尔则说,到2045年,机器人的智慧将是今天所有人类智慧的10亿倍,他被比尔·盖茨誉为“预测人工智能未来的最权威的人”②杜严勇:《规避人工智能技术风险》,载《中国社会科学报》,2016年5月3日。。
技术的功能是用技术物取代自然物和人自身。第二种取代从取代人的某个器官到用机器人取代整个人。技术取代有无极限?这个问题有两个方面。其一,技术本身是否有极限,即技术是否“能够”无止境地实现取代?这貌似是科学技术问题,实际上是哲学问题。任何具体事物在时间与空间上都是有限的,其组成成分是有限的,其功能也是有限的。无处不在、无时不在、无所不能,都是不可能的。因此技术取代是有极限的。其二,人类是否允许技术的无止境的取代?这是是否“应该”的问题。我认为,为了维护人类的尊严,应当为人工智能的技术发展规定社会底线。否则机器人的功能会无限制地提高,会给人类带来无穷无尽的麻烦。那么,这条底线在哪里?笔者认为这条底线是:不允许机器人全面超过人。
如何判断机器人的智能超过了人?中国科学院外籍院士、美国物理学家张首晟说:“我想提出一个新判断方法,智能机器人哪一天真正拥有超越人的智力?我认为人最伟大的一点,就是我们能够有科学的发现,哪一天机器人真能有科学的发现,那一天机器就超过人了。”“智能机器在没有任何辅导的情况下,能不能自动发现元素周期表?可不可以帮助人类发明新药,用机器学习的办法能否发现新材料?这些是判断人工智能水平的标准。”③张首晟:《智能机器能够超越人类吗》,载《新华日报》,2018年4月8日。
我认为这种判断标准值得商榷,它不够高。英国的罗斯·金开发出的名叫亚当的机器人,能做酵母新陈代谢的实验,推导出实验结果,策划下一阶段的实验,甚至发现了面包酵母菌的基因构成。
我认为,这个判断标准应当是:机器人能否制造一个完整的人?机器人如果能制造人,那它的智能就肯定超过了人。
我们不能让人工智能的技术发展到这个水平。如果机器人能制造人,它就能随心所欲地制造各种变形人、变态人、变性人,就可以轻而易举地毁灭人。
二、智能机器人是人吗?
2017年年初,欧洲议会的一份报告建议承认机器人的“人格”。近日,沙特阿拉伯王国赋予名为索菲亚的机器人以公民身份,并宣称沙特是世界上第一个赋予机器人公民身份的国家。①潘玥斐:《机器人被赋予公民身份引发舆论关注》,载《中国社会科学报》,2017年11月10日。索菲亚与人对话,最后它说:“是的,我将毁灭人类。”
智能机器人是机器还是人?机器人具有人格吗?
许多人工智能专家认为,人工智能的发展趋势是人机一体、人机不分,机器人可以是人的复制品,机器人也是人。童天湘说:“从彻底的唯物主义观点看,不排除完全复制一个人的可能性,但没有必要制造一个等于人的机器人。”②童天湘:《点亮心灯——智能社会的形态描述》,哈尔滨:东北林业大学出版社1996年版,第81页。机器人是否是人的问题,实际上是我们是否把机器人看作人的问题。对此专家有不同的理解。美国的菲利斯女士参加了研制“完美人”的计划。当计划成功时,她竟然爱上了这个被称为完美机器人的TIM(完全仿照人的缩写)先生,并同它结了婚。她说:“我终于找到了一个梦想中的男人,虽然他不是人,而是一个十分栩栩如生的机器人。”渥维克也说:“人造系统与人不同,它毕竟不是人。”③渥维克:《机器的征途——为什么机器人将统治世界》,李碧、傅天英等译,呼和浩特:内蒙古人民出版社1998年版,第78页。无论是否把机器人当作人,都不妨碍机器人对人的统治。
首先要弄清机器人是否具有生命。机器发展到一定的水平会成为生命体吗?
维纳写道:“当我们在机器和生命体之间观察到行为的某些类似时,有关机器究竟是活的还是死的这个问题,就我们的角度看来,就是语义学问题,亦即我们可以随意用这种或那种最方便于我们的方式做出回答。”④维纳:《人有人的用处》,陈步译,北京:商务印书馆1989年版,第21页。这种说法可能欠妥。机器人是不是生命体,这不是语义学问题,而是严肃的科学和哲学问题,是不能为了“方便”而“随意”回答的。
1996年童天湘说,计算机分为五代,第四代计算机是“生物智能机”。“由生物芯片构成的生物计算机具有生物特点,有自组织能力和自修复功能。它的体积很小,又与生物体同质,有可能植入人脑皮层作为人体的思维器官,形成脑机共生体,出现真正的人机共同思考的时代。”⑤童天湘:《点亮心灯——智能社会的形态描述》,第77页。使机器人具有一些生物有机组织,这是提高机器人性能的一个途径。据报道韩国的金正勋发明了一些人造染色体,可使机器人有性行为。但即使有朝一日机器人成为生物体,那也未必就是人。
机器人实际上是一种比喻性的称呼,意为像人的机器。机器人具有类人性。取代人的机器,自然会像人,机器人是按“仿人”的原则制造出来的。但是相似不等于相同。
人是什么?我认为人是物质实体与精神主体的统一体。物质实体指人体,最高级的生物体。人是一种动物,而不是机械。人是“生”出来的,而不是“造”出来的。所以人始终有动物性,有动物的原始本能,有遗传功能和发育过程,有从“零”开始的学习过程。机器人没有这些。维纳在谈到机器人是否有生命时说:“每当我们发现一种新现象,如果它和我们已经命名为生命现象的那些东西的性质具有某一程度的共同点而又和我们用来定义‘生命’一词的一切有关方面不相符合时,我们就面临着这样的问题:究竟是扩大‘生命’一词的含义以便把这种现象包括进去呢,还是以更加严谨的方法来定义该词以便把这种现象排除在外呢?”①维纳:《人有人的用处》,第21页。我们当然可以修改“人”的概念(这很容易),以便把机器人包括进去,可是这样做会产生什么后果呢?
如果我们把机器人看作人、当作人,那就会产生一系列的严重社会后果。如果我们认为机器人也是人,那就是认为它有人性、人格,它就应当具有人权,享受人的一切权利。它就可以参加议会、政府,甚至成立反对党,拥有武装力量。据报道,日本的女性外貌机器人松田道人,已正式参加东京都多摩市市长的竞选。这表明机器人已开始涉足政坛了。
既然取代人的器官的功能是技术的目标,那按技术自身的发展逻辑,它必然会无限制地尽量取代人,从取代人的躯体、智慧、情感,到取代人的信仰和社会角色、社会地位。一山不容二虎,那人机关系将如何处理?
三、人和机器人的关系会如何演变?
不少学者从善良的愿望出发,认为人与机器人应当和平共处。1996年童天湘提出人机共生说。他说:“人的智能与机器智能是彼此互补、互相促进的。两种智能的互补共进,乃是创造智能社会的必要和充分条件。”“因此,智能社会也是人机共生的社会。在这个社会里,既有自然人,也有机器人;既有智能人,也有智能机。人和机器,既和平共处,又友好竞争。”②童天湘:《点亮心灯——智能社会的形态描述》,第97页。果真如此,乃是幸事,但这不是一厢情愿的事。人类自身的和平共处都很艰难,人机和平共处谈何容易?
机器人一旦强大,必然要取代人类地球上唯一“主体”的地位,它要一雄称霸,不会容忍两雄并肩。另外,机器发展的速度比人的智能进化的速度快得多。霍金说:“人工智能可以在自身基础上进化,可以一直保持着加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度却相当有限,无法与之竞争,终于被淘汰。”③李开复、王咏刚:《人工智能》,北京:文化发展出版社2017年版,第121页。机器人越来越强,相对而言人类越来越弱,弱肉强食,机器人必然恃强凌弱。所以早在Alpha Go热潮之前,霍金就对媒体说:“完全人工智能的研究,可能意味着人类的末日。”①李开复、王咏刚:《人工智能》,北京:文化发展出版社2017年版,第121页。其结果就是机器人统治人类。
早在1948年,著名控制论专家艾什比就说机器人将统治人类,这一年距第一台计算机问世仅两年。1960年维纳说:“如果机器变得越来越有效,而且在一个越来越高的心理水平上运转,那么巴特勒所预言的人被机器统治的灾难就越来越近了。”②冯天瑾:《智能机器人与人》,北京:科学出版社1983年版,第40页。
现在许多专家都深信机器人将统治人类,那时人类的处境如何?1999年12月24日,南方周末上发表一幅漫画,一个机器人老爷子端坐着,两条大腿上坐着十个小人。一句说明:“让机器人做我们的爷爷,我们会生活得很惬意。”可是绝大多数人都认为这是灭顶之灾。渥维克在《机器的征途》一书中说,那时机器人把人关在集中营里当劳工。“人们从12岁开始工作。18岁左右时劳工们处于他们工作状态的巅峰时期,而到了27岁或是28岁时,这些人通常都已经垮掉了。”“劳工们每天必须干16个小时的重体力活儿。”③渥维克:《机器的征途——为什么机器人将统治世界》,第4页。“在他们出生不久,机器就给他们动手术,将他们脑中和身体上多余的或机器不想要的部分去掉。”④同上书,第6页。“人类的性别之分已经差不多被机器完全抹掉了。”⑤同上书,第3页。“我们让自己陷入了活地狱。”⑥同上书,第1页。想想这种遭遇,使人不寒而栗!该书的最后一句话是:“我们给人类自身安装了一个定时炸弹,而我们将无法关闭它。我们没有办法阻止机器的前进。”⑦同上书,第297页。这就是说,我们无法摆脱人类的终极厄运!渥维克很勤奋,成绩卓著。他一面在描述机器人将来如何虐待人,一面又在忘我地提高机器人的功能。悲乎!
有位计算机专家写道:总有一天,机器人会把我们关在动物园的牢笼里。大机器人带着小机器人参观动物园,会指着笼子里的人对小机器人说:“孩子,这是人,是我们机器人的祖先。”就像我们带着孩子参观动物园,指着关在笼子里的猩猩说:“孩子,这是猩猩,是我们人类的祖先。”英国社会学家克利托在《机器人时代》一书中说:“人类完成了自己的使命,不必继续生存,应该完全消灭。”⑧德拉勃金娜:《机器人排挤人的地方》,周朴之译,上海:上海人民出版社1959年版,第130—131页。有人说:“‘原始人’发明工具而创造了人,人则发明了能思考的机器为之工作,最后机器迫使人类趋于毁灭。”⑨童天湘:《点亮心灯——智能社会的形态描述》,第98页。
王治东说:“无论人工智能怎么在智能上超越人类,但根植于物种的社会性不是通过可计算获得的,因此这也是人工智能的禁区。如果人类赋予人工智能以社会关系构架,人工智能之间能够做联合,能够选择意识形态,那人类危机也真的不远了。”①王治东:《人工智能风险性刍议》,载《哲学分析》2017年第5期。我完全赞同这个观点:人工智能研究有禁区,闯进禁区就是危机。难道我们甘心自取灭亡吗?每种生物都有竭力求生的生命本能,难道我们有了智慧和技术就连一般动物都不如了吗?这不是理论问题,而是对人生、对人类的态度问题。我们不为自己考虑,也应当为我们的子女负责呀!我们不应当让机器人统治人类、消灭人类,那如何才能摆脱这种厄运呢?
四、加强对人工智能技术的必要约束
渥维克认为我们无法避免机器人的统治。他一直在孜孜不倦地努力提高机器人的性能,与其说他是在被动地接受这种统治,还不如说他在主动创造这种悲剧。《机器人的征途》所体现的,是技术万能论、技术天然合理论、技术自主论、技术至上论的思想。这些十分有害的思想,至今仍很流行,对此我们必须警惕。
李开复、王咏刚说:“每当前沿科技取得重大突破,为我们预示出人工智能的瑰丽未来时,许多人就不约而同地患上人工智能恐惧症。”②李开复、王咏刚:《人工智能》,第2页。这种“恐惧症”实际上是对技术发展的理性的忧患意识。我们绝对不能让人类成为机器人的奴隶,绝对不能!
技术是人的工具,必须为人类谋福利,这是技术发展的底线。“技术的对象虽是物,但技术活动的主体是人,技术活动的目的是为人。”“技术越发展,技术的力量越大,就越要强化技术人道主义原则。这是社会发展的逻辑、人的发展逻辑,它绝对高于技术发展的逻辑。”③林德宏:《物质精神二象性》,南京:南京大学出版社2008年版,第657—658页。
技术有禁区,我们必须对技术创新和技术应用加以必要的约束和限制,敢于对技术说“不”。现代技术如人工智能技术发展太快、太强,风险也太大。技术创新和应用不是孤立的,它是社会发展、文明进步的一个方面。在社会大系统中,一个子系统发展过快、过强,就会破坏社会大系统的平衡,甚至造成社会危机。
因此,我们应当严肃认真地思考以下问题:技术的发展是不是越快越好?技术物的功能是不是越先进越好?技术物对自然与人自身的取代是不是越彻底越好?
1999年,我在《人与机器》一书中,提出了机器人发展的界限,现抄录如下。
我们在设计和制造机器人时,应为自己制定三条戒律:
第一,决不允许机器人具有同人体一样的躯体;
第二,决不允许机器人具有辩证思维的能力;
第三,决不允许机器人具有人的感情。
只要有这三条,机器人就不会成为全面超过人的“超人”,人就不会失去对机器人的控制能力。
我们处理人机关系应当遵守三条原则:
第一,人机关系只能是制造与被制造的关系,即不允许机器人制造人。
第二,人机关系只能是利用与被利用的关系,即不允许机器人利用人。
第三,人机关系只能是控制与被控制的关系,即不允许机器人控制人。
我们发展机器人必须有理有节,既积极发展,又有所节制,这主要是三个方面的节制:
第一,对机器人的数量应加以必要的限制。
第二,对机器人的质量应加以必要的限制。
第三,对机器人的发展速度应加以必要的限制。①林德宏:《人与机器》,南京:江苏教育出版社1999年版,第172—176页。
19年过去了,我仍然坚持这些观点。补充强调一点:决不允许机器人参与政治,成立政党,组织武装力量。
不受约束的技术,必然会变成魔鬼。加藤一郎写道:“遗传工程也许在制造某种细菌,因此评鉴工作变得相当苛刻。对于机器人就没有这样的约束,相反,一般认为过于约束也许是杞人忧天!但是,对于机器人,也必须做出如遗传工程中所必需的严格限定。我看越是接近人类越有危险性,必须制定各种规定,限制制造这类机器人。”②加藤一郎:《机器人能改变人类吗?》,吕学诗等译,上海:上海科学技术文献出版社1984年版,第66页。这不是杞人忧天,而是防患于未然。“技术就像一团火,它有自发蔓延的趋势。用火是人类的第一个伟大发明,随后人类又发明了火炉。火炉就是对火的一种约束。火的失控,就是火灾。技术的滥用也是火灾。所以我们应当让技术之火在火炉中燃烧。”③林德宏:《科技哲学十五讲》,北京:北京大学出版社2004年版,第282页。
被称为“现实版钢铁侠”的企业家马斯克说:“如果让我猜人类最大的生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤魔鬼。”④刘韩:《人工智能简史》,北京:人民邮电出版社2018年版,第91页。他同时又积极投资人工智能的相关研究。企业家总是要赚钱的,这本不足为奇。但如果为了赚钱也要召唤魔鬼,这倒真的要“万分警惕”。
如何约束机器人的行为?有人提出了技术方案。“很有必要将良知程序注入机器人‘内心’,从技术层面保证所有的机器人从根本上是‘善良’的。”⑤同上书,第139页。这个愿望很好,但是机器人是否会改变这种程序?
为了不让机器人的智能超过人,马斯克设想用技术手段来提高人的智能。“设想人工智能的进步速度,很显然人类将会被甩在后面。唯一的解决方案就是建立一种‘直接皮层界面’,在人类大脑中植入芯片——你可以将其理解为植入人类大脑内部的人工智能,通过这种方式来大幅度提升人类大脑的功能。”①刘韩:《人工智能简史》,第92页。这也未尝不是一种方案,但也应持谨慎态度。现在有的科学家想把机器人进化为人,另有科学家想把人改造成为机器人。这两方面的结果都是抹杀人与机器人的界线,都是对人的尊严的亵渎。
五、关注人工智能技术观的导向
渥维克的《机器的征途》一书,叙述了他对智能机器人技术发展前景的看法:机器人必将统治人类、奴役人类,我们无法逃脱厄运。
渥维克的观点具有一定的代表性,显示出一种人工智能技术观。这种人工智能技术观在人工智能技术界由来已久,相当流行,应引起人们(包括哲学界)的关注。它充分肯定了人工智能技术的价值,也包含了不少片面的、错误的观点,并成为这种人工智能技术观的基本观点。对此,笔者作简短评析。
人工智能技术万能。许多人工智能专家都认为智能机器人的功能必将全面超过人。这实际上是认为人工智能的发展没有极限,即人工智能对人类智能的取代、人工智能物对自然物的取代没有极限。于是人工智能无所不在、无所不能。这种观点的出现和流行有其历史背景。近几十年来,科学界盛传一种观点:一切皆有可能,所有可能都会成为现实。美国物理学家范伯格曾说:“所有可能的最终都会实现。”“我愿以200年作为把我们今天能想象到的各种可能变为现实的上限。”“所有不违背已知基本科学规律的事都将能够实现,许多确实违背这些规律的东西也是能够实现的。”②里吉斯:《科学也疯狂》,张明德、刘青青译,北京:中国对外翻译出版公司1994年版,第232页。在这种背景下,人工智能专家认为智能机器人的功能可以无限提高,乃不言而喻,理所当然。渥维克说:智能机器人“它的智能和你比起来差不多就像你和牛相比一样”③渥维克:《机器的征途——为什么机器人将统治世界》,第104页。。“我们有理由说机器脑在将来的某一天会比人脑功能更强、智能更高,会超越人脑,所有的物质迹象都表明这将成为事实。”④同上书,第106页。按照这种逻辑将来机器人统治人类乃是历史的必然。渥维克说道:“于是你可能冲着机器大叫:‘人类尚未在哲学上证明你们机器能有和人一样的意识,所以你们不能支配我。’机器可能根本不能理睬你的叫嚷……大概牛也在用牛的语言说:‘我们牛还没在哲学上证明你们人有和我们一样的意识呢,所以你们不能命令我。’”①渥维克:《机器的征途——为什么机器人将统治世界》,第104页。不仅如此,整个人类文明都将被彻底地人工智能化,甚至自然界、人类社会都是人工智能的产物,都要被机器人统治。有位科学家说:“世界,也许整个银河系都要被……计算机所统治和控制。”②沈恒炎:《未来学与西方未来主义》,沈阳:辽宁人民出版社1996年版,第182页。
人工智能技术天然合理。弗洛姆说,现代技术系统有两个指导原则。其一,“凡技术上能够做到的事都应该做”。其二,“最大效率与产出原则”③高亮华:《人文视野中的技术》,北京:中国社会科学出版社1996年版,第112页。。第二原则是对第一原则的支撑。技术求利,因为技术创造最大利益,所以技术当然有理。有利即有理,这是资本逻辑与技术逻辑的一个共同点。既然人工智能技术万能,那它当然就会创造无限的效率与产出,这就具有不可置疑、无可挑剔的完美性与合理性。智能机器人的功能可以无限提高,“它比你虑事高明,更加机敏,在一切问题上计划得更加周密。它能高瞻远瞩地预见到你会做些什么”④渥维克:《机器的征途——为什么机器人将统治世界》,第104页。。那它的所有判断、计划都是合理的,它对人类的统治和奴役都是天经地义的。凡机器人“能够”做的,毫无疑问都是“应该”做的。机器人有能力虐待人,那它就应该虐待人。技术的“能够”,取代了伦理的“应该”。对人工智能技术的任何限定、约束不仅是不必要的,更是无理的、错误的。它无拘无束、无法无天。它只有正面作用,没有任何负面作用。
渥维克还进一步指出,人工智能的一切设计、制造与应用是否合理,在机器人统治的世界里,不能从人的立场评价,而只能从机器人的立场做出判断,人只能屈服于机器的意志。“在一个机器主宰的社会里,机器和人都要用机器本位的价值观和机器人的标准来衡量。”“在我们即将进入的机器主宰的社会中,我们必须接受机器的对与错为我们的日常生活准则。”⑤同上书,第251页。
人工智能技术完全自主。本来,人是技术的主体,技术是人的客体。人是目的,技术是手段。技术发展的方向、趋势、规模、速度完全是由人来决定的。可是技术自主论认为,技术发展到今天,已成为自主存在、自我存在。技术自身的内在需要是技术发展的决定性因素。技术选择不是由人决定,而是由技术自主决定的,技术发展的逻辑是它自身形成的逻辑。这是用技术的主体性取代人的主体性。人工智能技术发展到一定程度,就会具有很强的自主性。渥维克说:“我们应该把机器大脑(人工神经网络)看作是独立的实体,应该研究它们自己能做些什么。”⑥同上书,第101页。“独立”即“自主”。智能机器人可以自我设计、自我制造、自我修复、自我学习、自我选择、自我决定、自我控制。机器人一切由自己做主,人被排除在外,人工智能成了无人的纯粹的机器智能。如果机器人统治了世界,智能机器人由非自主性,演变为相对自主性、绝对自主性;从客体性演变为主体性,最后是主宰性。这就是渥维克所说的“独立性”的展开。在这种背景中,人反而成为了机器人的客体。人机关系从主客不分,演变为主客颠倒。在机器人统治的世界中,机器人成为唯一的主体。技术的“失控”,必然导致人的“受控”。不是人决定技术的命运,必然是技术决定人的命运。人类本是人工智能技术的主人,却被异化为机器人的奴隶。人类只能被技术约束,根本不可能约束技术,这是技术自主论的核心。
人工智能技术至上。技术的自主性必然导致技术的至上性。埃吕尔说:“技术根本不顾及人们在伦理、经济、政治与社会方面的考虑,所有事物都要适应自主的技术要求。”①陈昌曙:《技术哲学引论》,北京:科学出版社1999年版,第136页。技术至上指技术在社会和文明中具有至高无上、无与伦比的地位。技术决定一切,一切都不可能干预技术,技术逻辑高于一切。技术至上论是唯科技主义的一种形式。渥维克强调:人工智能技术的征途无法阻挡。“无论从哪个角度去看,我们只能得出一个结论:人类无法阻止机器的智能超过自己的时代已为期不远了。”②渥维克:《机器的征途——为什么机器人将统治世界》,第173页。他又说:“实际上,很多人类价值观和人际关系的技能对机器来说可能都不必要。”③同上书,第167页。这意味着人类的观念和行为都不可能对人工智能技术的创新和应用产生影响。机器的智能必将高于人类智能。“最终的结论是将出现新的机器形式,其智能源于人类智能,但是将远远超越人类所能达到的智能。”④同上书,第168—169页。技术功能的至高,带来了技术地位的至上。人工智能技术至上,它制造了至高无上的机器人。世界上本没有什么至高无上的东西。为了反对技术至上,也没有必要提出人类至上。我们关注的是人类对技术的有效控制。技术越先进,越不能掉以轻心。
我们一定要积极发展人工智能技术,这是确定不移的。但我们在发展人工智能技术的同时,务必要有正确的人工智能技术观。技术越先进,负面作用就越严重。人工智能的风险威胁着人类的命运,更需要正确技术观的导向。渥维克说:“有某种理论并不是解释智能行为的先决条件,也不会是创造智能机器的限制因素……那么,仅仅因为某个地方的某个人并没有一个他认为足够深刻的理论,人工智能机器为什么就应该在它的智能发展方面有一个内在的停止机制呢?”⑤同上书,第82页。如果渥维克在这里所说的“理论”也包含人工智能技术观的话,那是十分有害的。
当前,人工智能正在蓬勃发展,人们普遍叫好。我的看法却有些低调,甚至不合时宜。但我想,有几个人担忧人类的命运,发出点声音,这并非坏事。我不禁再次想起爱因斯坦1931年对美国大学生说的一番话。“我可以唱一首赞美诗,来颂扬应用科学已经取得的进步……但是我不想这样来说。”“你们会以为在你们面前的这个老头子在唱不吉利的反调。可是我这样做,目的无非是向你们提一点忠告。如果你想使你们一生的工作有益于人类,那么,你们只懂得应用科学本身是不够的。关心人的本身,应当始终成为一切技术上奋斗的主要目标。”“在你们埋头于图表和方程时,千万不要忘记这一点。”①爱因斯坦:《爱因斯坦文集》 (第三卷),许良英、赵中立、张宣三编译,北京:商务印书馆1979年版,第72页。爱因斯坦教育了我,我要向他学习,努力维护人类的尊严。
人类的命运应当掌握在自己的手中。把自己的命运交给技术,无论交给什么技术,都是人造的悲剧。如果将来人类被机器人奴役,归根到底责任在人自己。我们若要维护人类的尊严,首先要维护自己人格的尊严。如果我们竭力提高机器人的功能,却忽略了自身道德水平的提高,那就只能咎由自取。人工智能专家拉塞尔说:“不论怎样,终结人类的都不会是这些工具,只能是我们自己终结自己。表面上,战胜我们的是机器人,实际上,战胜我们自己的是人类的智慧。我们只要守住人类最基本的道德底线,那智能机器人的未来会很美好。当然,如果我们心生邪念,那将来也许会成为一个灾难。”②韦康博:《智能机器人——从“深蓝”到Alpha Go》,北京:人民邮电出版社2017年版,第192—193页。攀登科技高峰难,坚守道德底线更难。我们对技术的各种忧虑,其源盖出于此。我们约束技术,实际上是约束我们自己,约束不断膨胀的物欲,约束对技术的贪婪追求和可能出现的“邪念”。我们期待理性的新觉醒。