卷首
2017-12-29
如何让AI和人类一样聪明
两百多年前,一位名叫JosephJacquard的法国织工发明了一种纺织机器,大大简化了纺织生产。在这之前,从事纺织工作的通常是地位低下的男孩子,要想编出特定的花纹,这些年轻的学徒们必须小心谨慎地将钱穿进织机,根据纸质穿孔卡上面的孔来决定每针每线的打法。所以,这款机器在当时取得了巨大成功,经过改造后,成为了连接人类与计算机的第一个接口;二十世纪的大部分时间里,程序员像织工一样用穿孔卡片来编写代码,他们把大量的虚拟信息编写在纸质卡片上,除了专家之外很少有人能懂这种语言,而且卡片本身也不太方便,又极易磨损。后来,计算机接口变得越来越自然,也越来越灵活,生硬的程序指令也简化成了“If x,theny.Whena,tryh”。而在Iacquard发明织布机几百年后的今天,我们只需跟亚马逊的Echo知会一声就能喝到一壶咖啡,问一下苹果的Siri就可以知道距离最近的洗车处在哪里。为了和机器互动得更加自然,我们学会了让机器模仿人类。
人工智能发展的初期,研究人员发现了莫拉维克悖论:人类做起来看似费力的任务(比如计算)对于电脑来说很容易,而人类很容易做到的事情(比如在喧闹的酒吧分辨出朋友的声音),对于人工智能来说却一直很难掌握。研发设计一台能在规则游戏中(比如国际象棋)打败人类的电脑并没有挑战性;逻辑机也能很好地解决逻辑问题。然而,至今还没有工程师研发出能玩跳房子游戏的机器人。奥地利机器人专家Hans Moravec认为这可能与进化有关。人类在近几十万年里才进化出高级推理的能力,还没有足够的时间将其进化或完善到像运动能力或者视觉能力一样优秀。我们最擅长的事情很大一部分是不需要意识介入的,这些先天能力通过遗传从远古时期流传下来,并不依仗后天经验的积累。但是,由于逻辑推理是我们所能感知的第一种生物推理形式,我们的思维机器必然以逻辑为基础。
我们通常把计算机比喻成大脑,但计算机的工作方式却与生物学毫无关联。目前仍在使用的计算结构是由数学家Johnvon Neumann和他的同事们在1945年首次提出的。现代笔记本电脑与过去繁重的穿孔卡片在概念匕并无差异,只不过工程师们把纸质卡片换成了纯电动的开关信号,在vonNeumann式计算机里,所有的数据处理都由中央处理器控制。程序指令和数据通过—系列0和1序列从内存传输到中央处理器里,就像在一张张穿孔卡片匕记录编码。虽然多核计算机可以同时运行多个程序,但处理效果毕竟有限,软件工程师必须精心编排这些信息流才能避免灾难性系统故障的发生。相比之下,大脑中则有数十亿个处理器在同时处理数据,这些处理器也就是我们的神经元。与电脑类似,神经元之间的信息交流传递通过电脉冲的二进制语言进行。而两者区别在于,无论是通过基因遗传还是后天习得,每个神经元都已预先设定好,在有明确目标的情况下可以直接进行运算。于是信息处理可以自然进行,也就无需中央处理器了。
再来看看视觉能力。我们通过数百万有序排列的感光细胞来感知这个世界,在神经活动的作用下,每个感光细胞都为呈现物象扮演着极其微小又具体的角色。这些细胞把外界物体的影像信息传输到大脑,经视觉神经系统加工后,逐步形成了视觉。而von Neumann式计算机里只有一个单一的逻辑核心,除了处理相同的数据量外,还要处理运行指令。虽然计算机电路传输数据的速度要比大脑突触陕得多,但在此过程中也消耗了巨大的能量。1990年,加州理工学院传奇的工程师Carver Mefad就曾準确预言道,如今电脑处理一个单一指令所消耗的能量会是人脑进行一个突触活动的一千万倍。
近期人工智能领域的多数成就都归功于生物学隐喻。例如,从Siri到谷歌翻译,其技术基础——深度学习(Deepkaming),就运用了几个相互关联的神经处理层,而这些处理层则仿造了人体中构成皮质的神经元层。如果在von Neumann式计算机上运行最先进的神经网络,计算的确精密,但依然会耗费大量能源。去年三月,谷歌旗下DeepMind公司开发的AlphaGo击败了世界围棋冠军。但其数据库是经过三千万步走子训练而建成的,也因此耗费了约一百万瓦电(对比之下,其对手的大脑只耗费了五万分之一的能量,约二十瓦电)。同样地,几年前,谷歌大脑模拟器在YouTube视频里识别猫脸的实验中共使用了一万六千个核心处理器,而这些处理器本身也耗电巨大。如今,企业又把人工智能运用到个人设备上,智能手机可以识别家庭成员,可以预感我们的情绪,甚至可以建议我们调整用药。为了完成上述功能,人工智能设备需要运行比超级计算机还快的算法,还需要在计算机中模拟进行生物实验。
几十年来,Mead和其他公司一直致力于相关研究,工程师们也一直在竞相研发第一个所谓的神经形态芯片供消费者使用。2014年,斯坦福大学KwabenaBoahen的研究小组研发出了低功耗的Neurogrid芯片;高通预计其Zeroth处理器将于2018年面市,这款处理器也仿造了人类大脑。而IBM的TrueNorth最近才刚从数字样机阶段过渡到可用产品阶段。这个芯片由一百万个硅神经元组成,这些核心微处理器可以像人脑突触一样与其它核谴接交流。在这里,媒介即是信息;每个神经元既是程序又是处理单元。芯片不再是单边接收感官数据,而是通过它的突触网络全方位接收数据。IBM声称,这种芯片在实时模式识别方面(比如语音处理和图像分类)非常有用。但其最大的进步还在于高能效:这款芯片每平方厘米耗电仅二十毫瓦,比传统的芯片低不止一千倍。
同时,TrueNorth也可以模拟大脑的一些缺陷。几十亿年来,生命逐渐学会接受并且适应了自己身体的不完美,比如视力模糊、听力有限等。尽管生命通过分子间一些不可预知的相互作用来感知这个世界,但通常感官并没有那么准确可靠。从数学意义上来说,一个缺陷可能是一大特点。事实证明,随机性大大增强了概率算法的计算能力,也为人工智能奠定了基础;比如,噪声输入会影响人工智能的行为输出,可以避免碰到棘手的情况。为模拟这一随机性,TrueNorth的每个神经元都配备了散乱数目产生器。同样为了更加便利地实现这一目的,IBM正在开发另一个芯片,只不过非晶态材料换成了具有一定随机眭的晶态材料。这也是目前计算机领域发生概念性转变的核心所在:越来越多的工程师开始利用物质本身的计算性能,并不像对待穿孔卡片那样排斥其固有的缺陷。未来,物质将不再执行计算指令,其本身就会计算。
鉴于目前对大脑运作方式的研究缺乏共识,在神经科学家看来,以上的设计或多或少像动画片一样有些不切实际。但是,即使不能完全反映生物学现实,近期人工智能领域取得的成功也足够证明,就算这些设计是动画片,也会是有用的动画片。事实上,这些研究可能最终会证实或者推翻目前我们对大脑的认知;就像物理学家Richard Feynman所说的那样,“我所无法创造的,我也无法理解。”或者可以这么说,力量源于简洁。布兰迪斯大学的神经学家EveMarder也认为,模型模拟的细节越多,犯的错误也会越多,因为神经生物学极其复杂,我们自己还十分无知。设计一款实用性人工智能产品可能没有必要严格仿生,比如TmeNorth就不能独立学习。要完成某一特定任务,它必须在传统计算机匕运行才能得到优化。所以,TrueNorth虽然是仿造了生物体,但也牺牲了部分生物特性。这种做法或许没错,谁说大脑的每一个特征都值得模仿?我们人体自身的算法也未必理想。正如达尔文证实的那样,进化的过程并不是一场趋于完美的不懈竞赛。在我看来,它更像是一场漫无目的的闲游。