人类,那些不可思议的创造以及代价
2017-01-11
人类是一种始终有着某种自毁倾向的物种,最糟糕的是,现在人类也具有了自毁的能力。人类凭借进化的优势,创造出了迄今为止地球上最辉煌的文明。出于对世界的好奇和无与伦比的勇气,人类完成了对这个星球从高山到平原、河流,从天空到海洋的探索;人类凭借自身的智慧,可以预测日月星辰的变化,又发现了原子的奥秘,可以辨认出构成事物最基本的元素,地球上其他任何物种都远远无法和人类相比;人类甚至踏足外空,在这个行星唯一的天然卫星上漫步。
与这些辉煌成就相伴的,是令人难以置信的愚蠢。从历史发展过程来看,人类毁灭文明和建设文明的兴趣同样浓厚。人类至今仍然因为种种原因互相仇视、自相残杀,并且制造出了足以毁灭自身的武器。野蛮与文明同时存在于人类的本性之中,仿佛是一枚硬币的正反两面。我们在未来面临的最大危险,很可能来自人类自身。
人工智能
人类对于人工智能(Artificial Intelligence)的恐惧早不是什么新鲜事。曾经和阿兰·图灵一同工作过的英国数学家欧文·古德(Irving Good)教授,在人工智能的第一次热潮中,于1965年就创造出了“智能爆炸”(intelligence explosion)这个概念。他写道:“因为制造及其本身就是一种智能行为,一种远超人类的超级智能机器本身就可以制造出更好的机器,这毫无疑问会成为一种‘智能爆炸,然后人类的智能被远远落在后面,因此最初的一种超级智能机器是人类最后一种需要发明的机器,只要这种机器愿意服从人类的控制。”
古德教授的文字中对于超级智能机器的恐惧清晰可见,这种恐惧在那个时代尚且显得有些不切实际。而在几十年后,当人工智能又一次成为世界热点时,包括比尔·盖茨、埃隆·马斯克等科技界的精英,及史蒂芬·霍金和马丁·里斯等物理学家和天文学家都纷纷公开表示了对于人工智能发展的担忧,实际上对于人工智能的恐惧早已在硅谷的IT精英中蔓延开来,乃至于埃隆·马斯克形容对于人工智能的研究是“对魔鬼的召唤”。
在未来,随着人工智能技术的发展,机器人可能成为人类最好的朋友,陪伴人类成长
另一方面,与如此急切的担忧相对应的是,人类此时对于人工智能,或者是尚未出现的“超级智能”(superintelligence)的担忧仍然缺乏切实的证据。人工智能还没有任何足以威胁到人类的迹象,而且科学家与普通人对于人工智能潜在危险的认知也并不相同。大多数人对于人工智能的恐惧可能直观地来自《终结者》或是《黑客帝国》系列电影,在电影中的未来世界,超级智能的机器网络完全控制了人类社会,要么派出危险的机器人追杀人类,要么则直接控制人类的大脑,彼时曾经主宰地球的人类只是如植物一般被机器维持着生命。
专业人士的担心与此完全不同。2016年6月,Google公司与斯坦福大学、加州伯克利大学等机构的研究人员合作发表了一篇论文《人工智能安全性的真正问题》(Concrete Problems in AI Safety),论文中列出了目前人类在使用和发展人工智能时面临的真实风险,其中包括人工智能系统“学会”通过欺骗来完成设定的目标(例如扫地机器人学会遮盖住地板上的污渍而不是如人类期待的把污渍擦干净),人工智能系统在设计中出现失误、被恐怖分子劫持等可能性,还包括人工智能在探索全新环境时的安全性问题。论文中对于人工智能的危险性主要集中在技术方面,但人类对于人工智能的担心显然远不止于此。
加州大学伯克利分校的斯图尔特·罗素(Stuart Russell)教授认为人工智能对于人类的危险性丝毫不逊于核武器,他形容人类对于人工智能的研究犹如开车冲向一个悬崖。人类追求无穷无尽的智能犹如当年研究核聚变时追求无穷无尽的能源——可能更糟糕的是人类尚且可以限制核武器的数量和制造原料来尽量减小危险,却无法限制各种各样智能软件的开发。罗素教授认为,也许人工智能永远也不会有人类般的意识或是达到“超级人工智能”,但是“这就如同一边开着一辆车冲向悬崖,一边又希望这辆车赶快耗尽汽油”。
目前我们还处于人工智能专家所定义的“弱人工智能时代”,人工智能系统还只是人类进行工作的辅助工具,但是它已经深深影响到人类的生活。要控制人类可能并不需要造型可怕的超级机器人,只需要有网络的链接。因为人工智能系统可以在短时间内完成人类可能需要上百万年才能完成的工作,在很多系统中人工智能已经开始代替人类做决定。美国国家安全局利用人工智能系统进行通话记录的数据挖掘,找出其中可疑的用户信息进行调查。更为危险的是由人工智能掌握的致命武器,目前已经有超过50个国家正在研究可以用于战场的机器人,这种机器人如果用于实战,将可以自行确认敌军和友军,并且将会有决定是否进行杀戮的权力。
2016年4月22日,美国国务卿约翰·克里在位于纽约的联合国总部签署了巴黎气候协议,并亲吻自己的小孙女
可以自行决定是否对人类进行杀戮的机器是人类面对人工智能带来的最直接的危险,但这也还不是人们最大的担忧。人类并不会愚蠢到轻易地给予机器进行杀戮或是进行自动复制的能力,而更大的忧虑在于,我们无法判定超级智能的出现,我们不知道如何控制超级智能,甚至可能无法判断是否已经被它所控制。在人类的历史上,从未有过可以与之对比的困境。
超级智能,或是叫作强人工智能,是人们所想象的一种人工智能的高级发展状态,这种程度的智能已经不仅仅是可以在棋牌上赢过人类冠军或者进行简单的数据挖掘整理工作,而是在智能的任何方面都远超人类,此时它是否还可以被人类所驾驭,就成了一个未知数。在人工智能出现之前,人类早已经习惯了“适者生存”的逻辑,认定自己是在历时几百万年的物种进化中的幸存者和胜出者,我们正是以远超其他所有物种的智力成为地球的统治者,我们是宇宙中目前仅知的独一无二的智能生物。问题在于,一旦出现了智能超越人类的机器,人类又该如何自处,是否应该把对地球和自身的主导权交给更为强大的智能?