人工智能:与魔鬼的交易?
2016-04-12杨月萦
人工智能:与魔鬼的交易?
人工智能不会导致大规模失业,但会像蒸汽机、电脑一样打乱劳动力市场的既有格局
霍金近日称,发明人工智能“可能是人类历史上最好的事情,也可能是最坏的事情”。如果运用不善,机器可能终结人类文明。即使不考虑这么远,人工智能对劳动力市场的影响也无法忽视。
这种古老的担忧可上溯到两百多年前的工业革命时代。
时值19世纪,蒸汽机和机械化盛行,机器得以执行曾经只能由人力完成的各种任务。人们开始为著名的“机器问题”(Machinery Question)争论不休:机器的大规模应用是否会让工人大规模失业?1821年,李嘉图首先关注了机器对不同社会阶层利益的影响,他发现工人阶级普遍认为机器导致自己利益受损。1839年,卡莱尔直接提出“机器恶魔”将粉碎无数人的生计。
20世纪末,电脑进入千家万户,打字、排版等工作被机器替代,信息化工业革命又一次引发失业恐慌。
如今,随着人工智能技术的进步,机器问题再次被热议。律师、医生这些之前看起来不可能自动化的知识性工作,现在也同样面临着危机。2013年,牛津大学两位研究员称,美国47%的工作很可能会在不久的将来“被计算机取代”,英国有35%的职业可能被取代,在日本这个比例是49%。麦肯锡全球研究院称,人工智能所推动的社会变革程度比工业革命“快10倍,规模大300倍,影响几乎大3000倍”。作家马丁·福特担心自动化将导致经济流动性停滞,中产阶级的工作岗位消失,财阀们则“自我封闭于精英小区之中”。
比失业更可怕的是灭绝。一旦人工智能在智力上超越人类,不再受人类控制,不再认同人类拟定的目标,会是什么样?自1818年小说《弗兰肯斯坦》出版以来,又有无数科幻电影提出了设想,1927年电影《大都会》里的Maria,1968年《2001太空漫游》里的HAL9000,1977年《星球大战》中的C3PO,1982年《银翼杀手》中的Rachael,1987年《星际迷航:下一代》中的Data,1999年《黑客帝国》中的Smith,2013年《她》中的Samantha。
无法比拟的深度学习系统
人工智能(Artificial Intelligence)一词最早出现于1956年达特茅斯会议上的一份研究计划书,包括克劳德·香农、约翰·麦卡锡在内的几位科学家声称“一个夏天,一个专家小组,足够让机器解决各种人类无法解决的问题”。这当然是过度乐观。过去几十年中,人工智能领域经历了无数次虚幻的曙光,始终只停留于幻想。
2012年,加拿大多伦多大学的杰夫·辛顿团队所开发的深度学习系统在识别ImageNet图片的在线比赛中实现了85%的准确率。此前,获胜系统的准确率最高为72%,而人类平均有95%的准确率。2015年,一个深度学习系统以96%的准确率第一次超过了人类。
厚积多年,一朝薄发。由于“深度学习”技术,人工智能终于获得了实质性突破。
实际上,深度学习技术只是改进了人工智能开发中的一个旧思路:人工神经元网络。在生物大脑中,每个神经元都能被其他神经元触发,将输出的信号馈送给另一个神经元,而且此神经元的输出也能继续触发其他神经元。人工神经元网络对这样的过程进行了模拟,通过对神经元权重的调整来训练一个神经网络。
20世纪90年代早期,这项技术已经能够识别手写数字,但由于训练材料和计算能力所限,面对更复杂的任务则无能为力。现在,这两项瓶颈都被冲破。一方面,互联网的兴起产生了数十亿可用于目标训练的文档、图片、视频数据,这些都可以成为帮助计算机理解真实世界的资料;另一方面,2009年左右,人们意识到,可以用GPU(即图形处理器,允许大量线程并行,数据吞吐量极大,原本多用于游戏和视频处理)来运行深度学习算法,几百倍地加速深度学习系统。
ImageNet比赛的结果让整个科技产业界意识到了人工智能的潜力。投资和人才不断涌入,科技巨头们也在不断收购人工智能创业公司。数据分析公司Quid的研究数据显示,2015年,人工智能企业的成本创下85亿美元的记录,几乎为2010年的四倍。
与过往昙花一现的技术不同,事实证明,深度学习技术可以应用于诸多领域。只要给定足够数据,模拟人脑的的深度神经网络便可接受训练、完成各种工作。谷歌正在使用深度学习技术提高搜索精准率、改善翻译服务、完成邮件自动回复,这些神经网络也同样支持着Facebook的照片标记服务、苹果的语音助手、亚马逊的购物推荐和特斯拉自动驾驶汽车的运行。
在某些方面,它们已经表现得远胜人类。今年3月,由谷歌DeepMind团队开发的AlphaGo打败了世界顶尖围棋选手李世石。这个深度学习系统由几个相互连通的模块组成,包括两个深度神经网络,其中一个通过存有三千万步棋的数据库来分析当下棋局,提出一些可能的走法,另一个网络则通过随机采样来评估这些走法。
现在,人工智能开发者的目标是“通用人工智能”(AGI),一种能完成各种各样任务的系统,有了它就不必再为每个特定问题都专门开发出一个系统了。即使以最乐观的估计,做出人类智力水平的AGI也至少需要十年。但DeepMind首席执行官丹米斯·哈萨比斯认为:“我们已经知道实现AGI系统所需的几十种关键元素了。”言下之意,未来不远。
失业与应对
如果自动化机器取代人类劳力是必然趋势,那么,随着机器的智能程度越来越高,它们会夺走所有工作,还是终将创造更多工作?
技术工作者倾向于悲观。圣路易斯联邦储备银行发布的数据显示,在美国,非常规的认知型工作和手工型工作自1980年后逐步增长,而常规化工作则一直维持几乎不变。常规化的工作又可以划分为两种:高管、建筑师一类技术含量高、薪水高的工作,以及清洁工、快餐店员等技术含量低、薪水低的工作。经济学家担心自动化带来的“职业两极化”风险,也就是说中层常规技术工作消失,机器不能替代的低等和高等工作扩张。许多西方国家中层职业薪水的停滞也表明了这一趋势。
历史学家则倾向于乐观。他们认为,每一次科技进步最终创造的就业岗位都将超过所消灭的,因为琐碎工作的自动化增加了对机器无法完成的那部分工作的需求。比如,用自动取款机(ATM)取代部分银行柜员降低了新开分行的成本,从而创造了更多的销售和客服岗位。人工智能不会直接取代太多员工,而是会要求他们补充新技能。
事实可能介于两者之间。人工智能不会导致大规模失业,但会像蒸汽机、电脑一样打乱劳动力市场的既有格局,短期丧失的就业被长期创造的新就业弥补。从工业革命的经验来看,这个转型期将艰难而痛苦:经济迅速起飞,几十年后才在工资增长中得到充分反映;一个世纪后,新的教育和福利制度才跟上工业时代的节奏。
与工业革命相比,人工智能带来的转变可能会更加迅速,因为信息传播、技术扩散都比两百年前快得多。对个体来说,终身学习将成为必须,人类特有的社交和性格技能也将更加重要。
对企业和政府来说,将面临两大挑战:如何帮助现有工人学习新技术;如何让后人做好面对充满人工智能工作场所的准备。显然,教育和培训应足够灵活,以便迅速、有效地教授新技能。
福利制度也须与时俱进。福利、养老金和医保应不再绑定企业,而是关注工人个体,以实现就业的顺利过渡,并在工人学习新技能时对其提供支持。芬兰和荷兰等国计划在明年开始试点“基础收入”政策,即无论个人工作状况如何,都能获得基础收入。丹麦则采用“弹性安全网”制度,允许企业轻松招聘和解聘,同时在失业者再培训和再就业时提供支持。约翰·穆勒在19世纪40年代的著作中写道:“关心那些生活被技术破坏的人是立法者关心的最合理目标。”这句来自蒸汽机时代的提示,在人工智能时代仍然适用。
而对于发展中国家,人工智能的冲击将远大于发达国家。因为发展中经济体的体力劳动工作占比更高,比如低工资的工人制造廉价的产品、在客服中心提供廉价服务。如果自动化使发达国家能在这些方面自给自足,它们对发展中国家提供的产品和服务的需求就越少——发展中国家将失去廉价劳动力的比较优势,再也无法通过“农田到工厂”的劳动力转移模式来推动经济增长了。而且,机器人和人工智能的技术基本掌握在发达国家手里。
超智能威胁?
在《失控》一书中,凯文·凯利说,世界已经成了一个复杂的地方,我们别无选择,只能允许生物与技术之间的通婚;没有这两者的结合,我们所面临的问题困难到了我们人类的大脑解决不了的地步。开发人工智能是一种浮士德契约,是与魔鬼的交易:“虚构的世界很快会变得像是活生生的世界:变得有自主性、适应性和创造性,但结果,这个世界会脱离我们的控制。”
比凯利更悲观的是“奇点主义者”,他们的信条有三:第一,在可预见的未来,超越人类的智能将得以实现。第二,超人类智能会将人类卷入灭亡的阴云之下。第三,基于以上两点,人类务必在超智能出现之前做出反应,要么让技术奇点根本不发生,要么将它控制在对人类有益的良性发展轨道上。
“奇点”这个词本来是个物理学概念,指宇宙大爆炸的原点,被英国数学家约翰·古德用来指代一种不可思议的存在——超人类智能的诞生。20纪60年代,他在与图灵共事时得到启发,把超智能机器定义为“能力可以远超越所有人类智力活动的机器”。设计机器也是众多智力活动之一,所以超智能机器完全有能力设计出更先进的机器;那么一场“智能爆炸”将无疑会发生,并且将把人类的智力远远甩在身后。因此,第一部超智能机器,如果足够温顺的话,将会是人类所需要的最后一项发明,它会指引你如何控制一切。
然而,超智能机器成为现实的那一刻,也许正是它们不再听命于人类意志之时。牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆提出了著名的“回形针”设想:假设一个人工智能希望能收集尽可能多的回形针。它会想尽一切办法来收集回形针,并且会通过自我升级来找到收集回形针的新方法,它还会反抗一切阻止它做这件事情的企图。最后,它将“把整个地球和一部分宇宙空间都变成了一个回形针制造工厂”。这个近乎荒谬的思想实验试图表达的是一个非常严肃的观点:人工智能不需要人类一样的行为和心理动机,它们可能不会出现人类常会犯的错误和偏差,但是会犯别的错误,比如执念于收集回形针。它们的目标一开始可能看起来是无害的,但如果人工智能能够自我复制并升级自己的性能,就会非常危险。它会像终结者一样:把人类当作低等物种一样奴役起来、无视我们的权利,只追求它们自己想要的,完全不管对人类的后果。
乐观的人则认为,人类社会可以安全地研发人工智能。大到核弹,小到交通规则,这些都证明人类曾成功运用技术和法律手段去管理威力强大的创新。人工智能会带来危机,但合理的应对将转危为机。
(杨月萦编译自《经济学人》《万古杂志》)