浅析国外人工智能技术发展现状与趋势
2019-10-31杨卫丽
杨卫丽
(军事科学院国防科技创新研究院,北京 100142)
1 引 言
2019年2月11日,美国总统特朗普签署行政命令,启动美国人工智能计划[1-2],旨在加强美国人工智能技术发展,强调“维持美国人工智能领导力”。这一动向预示着人工智能作为颠覆性前沿技术,已成为未来科技领域角逐的新战场。
2 人工智能内涵与特征
2.1 人工智能基本内涵
人工智能概念最早出现在1950年英国数学家阿兰·图灵的著名论文《计算机器和智能》中,图灵提出了人工智能的基础问题:机器能够思考吗?
1956年,在达特茅斯学院的会议[3]上,以约翰·麦卡锡和明斯基为代表的一批科学家共同探讨用机器模拟人类智能问题,首次提出了“人工智能”这一术语,也因此被认为是人工智能诞生的标志。麦卡锡给出了他对人工智能的定义:制造智能机器、特别是智能计算机程序的科学与方法。
图1 达特茅斯学院会议会址Fig.1 Meeting site of Dartmouth College
在此后的60余年发展进程中,人工智能作为一门前沿交叉学科,一直没有统一的定义。《大英百科全书》对人工智能的解释:数字计算机或者数字计算机控制的机器人在执行智能生物体才有的一些任务上的能力;《维基百科》对人工智能的解释:人工智能就是机器展现出的智能,即只要是某种机器,具有某种或某些智能的特征或表现,都应该算作人工智能;美国人工智能学会对人工智能的解释:科学地认识人类思想和智能行为,并利用计算机对其进行模仿和体现的学科等。
尽管各种表述不尽一致,但核心思想趋同。即:人工智能的发展不是把人变为机器,也不是把机器变成人,而是“研究、开发用于模拟、延伸和扩展人类智慧能力的理论、方法、技术及应用系统,从而解决复杂问题的技术科学”。人工智能研究的目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作,如会看、会听、会说、会思考、会学习、会行动。
2.2 人工智能主要特征
与其他技术相比,人工智能技术具有独到的技术特征。一是自主性,这是人工智能的核心属性,意味着随着环境、数据或任务的变化,机器可以自适应调节参数或更新优化模型,甚至不排除演化“自我意识”的可能。二是进化性,人工智能技术具备学习知识、运用知识的能力,能在训练中快速进化升级,通过不断学习、获取各类知识,产生各种洞见,升级、改进原有状态,达到“终身学习”的完美状态。三是可解释性,人工智能技术有一个模糊的特质,即无法给出行为决策推理过程,虽然基于过去积累的大量数据,可自动分析总结,预测未来会发生的事情,但却往往会产生不可预知的结果,这种“黑盒”特性使可预测性问题复杂化,难以获得人类的信任。四是速度与耐力,人工智能技术克服了人的生理机能限制,可连续、长时间执行重复性、机械性、高危性任务,在超算能力的支撑下,人工智能的反应速度是人类的上千倍,工作效率远超人类。
图2 人工智能主要特征Fig.2 Main characteristics of Artificial Intelligence
3 人工智能发展现状
从人工智能概念诞生至今,已有60余年,先后经历了推理期、知识期和机器学习期。在“两起两落”之后,特别是进入2010年以后,依靠大数据、GPU并行计算、深度学习技术的发展,人工智能迎来了第三次复兴,相关技术领域的研究也取得了实质进展。
(1)机器博弈。2016年3月,谷歌 AlphaGo机器人在围棋比赛中以4:1的成绩击败了世界冠军李世石[5],下棋招法超出人类对围棋博弈规律的理解,扩展了围棋多年以来积累的知识体系。2017年初,AlphaGo的升级版Master横扫全球60位顶尖高手。2018年,谷歌旗下Deepmind团队发布AlphaGo Zero,该程序能够在无任何人类输入的条件下,三天自我博弈490万盘棋局学会围棋,并以100:0的成绩击败AlphaGo。由于围棋被认为是非常复杂的棋类游戏,因此 Alpha Zero 被视为人工智能突破性的进展。
图3 AlphaGo与李世石的博弈Fig.3 Game between AlphaGo and Lee Sedol
(2)模式识别。作为人工智能最具应用价值的技术之一,识别技术已发展成熟,甚至超出人类水平。在人脸识别方面,运用深度学习进行人证比对(验证证件持有人与证件照片是否一致),在万分之一的误识率下,正确率已经超过98%;在图像识别方面,ImageNet大规模视觉识别挑战(ILSVRC)要求准确地描述每张图片上是什么,结果显示,人类的误差率为5%,而运用深度神经网络的统计学习模型的误差率从2012年的16%降低到2015年的3.5%[6]。2019年,葡萄牙研究人员采用卷积神经网络模仿人类和其他哺乳动物大脑理解周围世界,证明了该网络可以自学并识别个体运动。其中,识别斑马鱼和苍蝇的准确率都在99%以上。在语音识别方面,2017年,谷歌大脑和Speech团队联合发布最新端到端自动语音识别系统,将词错率降至5.6%,接近人类水平。2017年,苹果公司推出的智能私人助理Siri和微软公司推出的个人智能助理微软小娜已经能够与人聊天。
图4 ImageNet 数据库Fig.4 ImageNet database
(3)机器翻译。深度学习将机器翻译提升到新的水平。2016年6月,谷歌公司的谷歌神经网络机器翻译(GNMT)系统,采用深度学习技术克服整句翻译难题,使出错率下降70%,在部分应用场景下接近专业人员的翻译水平。同年11月,谷歌多语种神经网络机器翻译系统上线,能在103个语种间互译。2017年4月,谷歌翻译改用基于“注意力”机制的翻译架构,使机器翻译水平再创新高。同年5月,Facebook公司依托先进图形处理器硬件系统,结合卷积神经网络,开发出新的语言翻译系统,处理速度是谷歌翻译的9倍。
图5 谷歌机器翻译系统Fig.5 Google machine translation system
(4)认知推理。2011年,IBM研制的深度问答系统(DeepQA)沃森超级计算机在美国知识抢答竞赛节目《危险边缘》[7]中,以3倍分数优势战胜了人类顶尖知识问答高手,刷新机器认知极限。2015年,美国马里兰大学研究人员开发出一种新系统,使机器人在“观看”YouTube网站上“如何烹饪”系列视频后,无需人工干预,即可解析视频信息,理解、掌握示范要领,并利用新获取的信息识别、抓取和正确运用厨具进行烹饪,进一步提高机器对场景及事件的认知水平。
图6 沃森超级计算机Fig.6 Watson supercomputer
(5)社会计算。机器能够更高效、快速处理海量的数据。从1997年深蓝基于规则的暴力搜索战胜国际象棋冠军,到2016年得益于大数据提供了海量学习素材的AlphaGo攻克围棋,人工智能的计算能力提高了3万倍,远超人类计算能力。
从现阶段人工智能的发展看,计算智能已超越人类水平;面向特定领域的感知智能进步显著,形成了人工智能领域的单点突破,甚至在局部智能水平的单项测试可以超过人类智能,应用条件基本成熟,但不具备通用性;智能认知发展尚处于初级阶段。总之,当前人工智能技术还处于依托数据驱动的感知智能发展阶段,总体技术水平与人类智能水平还有很大差距[8-9]。
4 人工智能发展趋势
人工智能经过60多年的发展已取得重大进展,但总体上还处于初级阶段。未来,在新一代信息技术发展驱动下,人工智能将进入新一轮创新发展期,呈现以下发展走势。
(1)感知智能向认知智能方向迈进
现阶段的人工智能依托大数据驱动、以芯片和深度学习算法框架为基础,虽在感知智能方面已取得突破,但存在深度学习算法严重依赖海量数据,泛化能力弱且过程不可解释等问题[10-11];同时,随着摩尔定律的失效,支持人工智能发展的硬件性能呈指数增长将不可持续。因此,依托深度学习的人工智能发展将会遭遇瓶颈,以迁移学习、类脑学习等为代表的认知智能研究越发重要,追求人工智能通用性、提升人工智能泛化能力成为未来人工智能发展目标。
(2)机器智能向群体智能方向转变
随着新一代信息技术的快速应用及普及,深度学习、强化学习等算法的不断优化,人工智能研究焦点已从单纯用计算机模拟人类智能、打造具有感知智能/认知智能的单一智能体,向打造多智能体协同的群体智能转变,这将是未来的主流智能形态。在去中心化条件下,通过“群愚生智”涌现更高水平的群体智能;计算机与人协同,通过融合人类智能在感知、推理、归纳和学习等方面的优势,与机器在搜索、计算、存储、优化等方面的优势,催生人机融合智能,实现更智能地陪伴人类完成复杂多变任务[12-13]。
(3)基础支撑向优化升级方向发展
人工智能的发展取决于三要素,即数据、算法、算力。面向未来,万物智联。数据获取将超高速率、超多渠道、超多模态、超大容量和超低延时,数据形态从静态、碎片化转向动态、海量化、体系化;数据处理从大规模并行计算向量子计算、从云端部署向边缘计算扩展,机器运算处理能力高效去中心化[14];算法模型将是深度学习算法优化和新算法的探索并行发展。提升可靠性、可解释性以及无监督学习、交互式学习、自主学习成为未来发展的热点方向。
5 人工智能的实现路径
在推动人工智能发展的道路上,国外当前主要在探索两条途径[15]。一条途径是围绕人类如何处理感官、感知与认知数据展开研究,通过模拟人类的认知机制,形成以模型学习驱动的机器智能;另一条途径是强调对人脑模型的研究,以工程技术手段模拟人脑神经系统的结构和功能,通过大量的非线性并行处理器来模拟人脑中众多的神经细胞(神经元),用处理器的复杂连接关系来模拟人脑中众多神经元之间的突触行为,形成认知仿生驱动的类脑智能。现阶段,人工智能发展的主流技术路线仍是机器智能,类脑智能整体还处于实验室研究阶段。
6 结束语
得益于深度学习取得的显著成果,人工智能近年来得到了快速发展,并逐渐在各领域开始应用,但距离“很好用”还有诸多瓶颈,如需要海量数据和高质量的标注;自主学习、自适应能力弱;计算机CPU、GPU消耗量大;可靠性、泛化性、可解释性不足;以及未来发展还有很大不确定性等。然而,人工智能朝着人类智能水平逼近发展的大方向不会改变,并会逐步带领人类进入人机协同的新时代。