创造与超越
2016-05-12周华明
周华明
2016年3月9日,一场全世界关注的围棋比赛在韩国首尔开始,对抗的一方是世界排名第四的围棋高手李世乭,另一方是人工智能(AI)AlphaGo。
创 造
在比赛开始前,德米斯·哈萨比斯与李世 隔着棋盘握手致意,哈萨比斯是人工智能AlphaGo隶属的DeepMind公司的联合创始人。在这一历史性画面中,他身侧是AlphaGo用于输出的显示屏(它的真身位于光纤网路的另一端);而李世石身侧则是他的女儿。这一场景被无数新闻媒体记录,比赛后,记录这一场景的照片在各种网络社交平台上刷屏,人们纷纷惊呼:
“据说机器不可能取胜的棋类——围棋,居然沦陷了!”
“人类以后会被机器超越吗?”
“AI 将统治人类!”
在这场比赛前,哈萨比斯几乎不为国人所知,但他的履历相当惊人:13岁拿到国际象棋大师头衔,16岁考入剑桥大学攻读计算机专业,17岁主持开发了游戏“主题公园”,随后建立了自己的游戏公司,28岁进入伦敦大学攻读神经学博士学位,34岁创办人工智能公司DeepMind,致力于让机器能够像人类一样学习。AlphaGo与李世石PK,这场注定载入史册的围棋比赛为他的愿景写下了最好的开端与注解。
作为人工智能,昵称为“阿尔法狗”的AlphaGo远超其“前辈”,它的表现似乎已经蕴含了某种“智慧”:知进退,好学而近乎知。
知 进 退
以人工智能前辈“深蓝”为例,在它战胜国际象棋大师卡斯帕罗夫的比赛中,“深蓝”只是依照对棋子的“估值”来选择“价值最大化”的下法。它不考虑棋面的整体形势,无需发挥创造力,只依照程序员为它设计的算法进行计算,并给出“最优解”。“深蓝”能够取胜,主要是因为它的计算量足够满足要求。
然而,围棋不同于国际象棋,棋盘上棋子可能的排列组合数超过了宇宙中的原子数量,没有什么计算机能承担如此庞大的数据计算量。所以AlphaGo要想战胜人类棋手,就必须学会全局思考,并放弃某些可能性来减少计算量。也就是说,必须有棋感,或者说,“直觉”。
好学而近乎知
“直觉”几乎是人类专属的能力,AlphaGo是怎么获得的呢?这正是近年来人工智能领域最大的突破之一 ——“人工神经网络”的功效。
人工神经网络其实是受到生物智能启发而来的。简单来讲,生物智能,即生物的神经网络就像一个分类器,把外界刺激分成好的和坏的,从而在自然环境面前主动作决策,以趋利避害。这种分类能力是可以通过后天学习来生成并存储下来的,比如著名的巴甫洛夫实验,就是让狗在反复训练后,存储了一个反应——听到代表喂食的铃声就分泌唾液。这一现象的本质,是神经网络的神经元通过不停调整互相之间的突触连接,来改变生物体对外界刺激的反应。
20 世纪 40 年代后期,模拟生物神经网络这一特性的人工神经网络理论出现了,其核心是通过调整众多神经元的连接权值,生成一个能够处理外界刺激的反应。
我们可以把AlphaGo想象为一个围棋“黑箱”,这个“黑箱”里有数百万个旋钮,每一次对局,AlphaGo会自行旋转其中之一。几百万次的对局后,它将所有旋钮都调整到了合适的位置,这个“黑箱”就变得能够根据对方的下法给出一个最优的应对,这是人工神经网络自我训练直至能对“巴甫洛夫铃声”产生应激反应的过程,也是AlphaGo“学会”下围棋的过程。
听起来简单,但人工神经网络理论在提出60年后,才真正得以实用化,因为进行这类“训练”需要大量的计算资源。进入21世纪后,随着计算机技术的突飞猛进,科学家们才能为人工智能提供足够的资源进行训练。
这也是为什么人工智能的理论早已建立,而直到最近5年,我们才看到它取得了大量突破性的进展。
再回到AlphaGo上来。如前文所述,程序员们为它设计了两套人工神经网络——政策网络(policy network)和价值网络(value network),分别用于深度学习和强化学习。前者学习人类围棋高手的棋谱,了解游戏规则,建立起棋子下法概念,即预测下一步;后者通过反复不断的自我对局,来评估每一种下法的价值,并形成一套自己的得分原理,进而变成一个价值评判网络,从而预测棋盘上棋子不同的分布会带来什么结果。
但需要注意的是,这个价值网络(AlphaGo作出应对的计算过程)已经过于复杂,我们无从分析这一过程和原理,即人类已无法辨析这个“黑箱”里几百万个旋钮的位置和朝向,而只能被动接受整个黑箱。所以,在AlphaGo与李世 对决的过程中,即便是它的创造者——DeepMind的工程师们都无从知晓AlphaGo会采取什么应对方式。
这正是那些对人工智能发展持悲观态度的人最担忧的:我们不清楚人工智能会如何作判断。那么下一次面对同样的问题时,它会作出同样的判断吗?比如,当我们在红绿灯的指引下穿过马路时,如果有一个司机突然一脚踩下油门,冲上斑马线,冲向人群,那将多么可怕。假如司机是人工智能,我们无法判断它的思维,连它是否陷入疯狂都无从判断,这种未知不是更可怕吗?
如果怀揣着这样的恐惧,我们应当如何面对人工智能在各个领域的蓬勃发展,又该如何规划人工智能在未来生活中的地位?
超 越
要回答这些问题,我们需要将人工智能(AI)进行如下分类:
1. 用于机械化操作的AI;
2. 用于复杂的机械化操作,需要对复杂情况进行判断的AI;
3. 具有类人智能的AI;
4. 达到或超过人类智能的AI。
第一类很好理解,我们大多数的机械、电子产品的生产线都应用了类似的技术。在时间A对物体B进行操作C,然后重复。如果出现异常D,则执行操作E,然后尝试回归到操作A、B、C,不行则再执行操作F。很多人甚至不会将之称为“人工智能”,而只是简单地称之为自动化。
与第一类相比,第二类已经有了很大的进步,人工智能似乎学会了作判断。它不再是简单地作“如果A则B”的判断,而是能够战胜国际象棋冠军了。但追根究底,它仍只是无数个“如果A则B”的判断相互堆叠形成的一个策略集。
AlphaGo在第二类的基础上向前迈进了两步。正如前文所述,相较于深蓝的“穷尽所有可能”,AlphaGo进一步“学会”了“不去穷尽所有可能”,从而保证不会耗尽所有计算资源。但即便如此,AlphaGo仍只是一个能对复杂情况加以判断的AI,并非第三类——类人智能。
那么什么是类人智能呢?当一个黑猩猩看到镜子里的自己时,它会知道那是“我”。当它看到挂在高处的香蕉时,它会“寻找方法”去摘下香蕉。这不是因为它被设计去执行摘香蕉这个任务,而只是因为它“要”吃香蕉。
自我,欲望,创造力——这是人类之所以为“天地之精华,万物之灵长”的三元素。人工智能在可见的相当长的一段时间里,都不会拥有其中任何一个。AlphaGo虽然战胜了围棋高手,但它其实并不知道自己取得了胜利。它没有“自己”这个概念,它对“胜利”的定义与人类不同,它甚至不知道自己在下“围棋”。
说到这里,我们终于可以松一口气,至少不用害怕 “人工智能拥有了自我意识,进而灭绝人类”了,但这并不意味着人类可以从此高枕无忧。虽然科学界并不担心人工智能会突然获得某种 “类人智能”,但科学家和哲学家们担心人工智能会生成某种“超人智能”。
让我们再回到AlphaGo与人类的对决上来。
2015年10月,AlphaGo战胜了欧洲围棋冠军樊麾,但它在比赛时表现出的棋力并不高明。而仅仅5个月后,它就以4∶1的成绩击败了世界排名第四的李世 。AlphaGo所表现出的进步能力,让人不由得猜测,它会在多久之后达到人类都无法企及甚至无法想象的高度?
美国人工智能领域的奇才雷·库兹维尔在2005年抛出“技术奇点”论时就提出,在2027年,电脑将在意识上超过人脑,2045年,人工智能将超越人类。这个预测现在自然无法证实,但人工智能的开发方式从监督式学习(向AlphaGo灌输棋谱)跨向非监督式学习(AlphaGo通过与自己对局来获得提升)的更新换代,似乎迎合了他的预言:当机器拥有自我学习能力后,它的学习速度将超出人类想象,它成长为超出人类智商的超级智能可能只是一个时间问题。
没人能预测这样的超级智能会做什么、关注什么、思考什么,我们甚至无法想象它将以怎样的方式进行思考和行动,正如我们不知道AlphaGo是依据怎样的算法来赢棋的。
众多科学家、哲学家对此争论不休,也有人提出,人工智能终究是由人设计的,比起对人工智能超越人类的恐惧,让人工智能增强人类、与人类融合,才是我们与机器共存的未来。但是,学界的争论不能替代我们自己的思考,希望这篇小文,能帮你作出自己的判断。