厘清人工智能在智能化军事变革中的边界
2022-12-31杜燕波
李 浩 杜燕波
时下,许多学者对人工智能的认识模糊不清而又盲目乐观,仿佛有了人工智能便可风驰电掣、手眼通天、无所不能。这种不切实际的错误认知屏蔽了人工智能的本质特征、实现路径和不同时期人工智能的可能性、可达性,屏蔽了人们正确认识客观事物的可能性,不仅不利于人工智能本身的发展,也不利于新时代智能化军事变革。作为推动智能化军事变革的一个本原性问题,切实搞清楚人工智能的功能边界与时空边界非常必要。
“奇点”是否会真的来临?
2005年,美国未来学家雷·库兹维尔在《奇点临近》一书中预测:2045年将出现计算机智能超越人类的“奇点”。这就是著名的“奇点理论”。近来,人工智能不断取得令人瞠目结舌的新突破,如人工智能在围棋对弈中战胜人类顶尖围棋高手,人们不禁要问:库兹维尔所说的“奇点”是否真的在悄悄逼近?人工智能是否会如社会媒体宣传的那样一直狂飙突进,最终真的将人类湮没呢?
这实际上涉及一个基本的边界问题,即人工智能究竟能干什么、不能干什么?它扩张的边界在哪儿?北京邮电大学刘伟教授的新作《人机融合:超越人工智能》强调搞清楚人(人类智慧)、机(人工智能)之间的本质区别才是人机融合的前提— 顺着这个思路,作者探讨了人工智能的局限性。将刘伟教授研究成果拓展可得出结论:四个根本性问题决定了人工智能永远赶不上人类智慧。一是人类智慧附着在生命体上,人工智能则是无生命的、死的。正如一位外国学者所说,别看人工智能厉害,拔了电它便瞬间完蛋。二是人类是感情动物,是有价值取向的,而人工智能是一种无感性、无理性的工具,它没有爱恨情仇,没有喜怒哀乐,不会感恩、忏悔和反思。三是人工智能的基石是算法,算法的本质是数学,数学则是对客观复杂世界的结构化、逻辑化数理描述。但是作为“万物之灵长”,人类智慧远非结构化、逻辑化可以描述,而是表现出极大的无序性、跃变性与不可捉摸性。四是人的思维是发散式、跳跃式的,善于由一种事物联想到其他事物、由当下联想到过去和未来,善于对掌握的情况进行综合分析判断。人工智能在算法的指引下是高度聚敛的,它固然可以采集大量数据,但最终归宿是通过计算逐渐收敛,寻求一个或多个最优解,因此也就没有人类那种“统观全局”的本领。
2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜
给人们造成“人工智能将要超越人类智慧”的假象的,大概率是因为人工智能在某些狭窄的功能领域(如下棋、模拟空战)展现出超过人类的能力。但是正如刘伟教授所说:“AlphaGo再怎么厉害,始终都是在设定规则下,为达既定目标而进行的系列自动计算和应对。”可以这样认为,人类智慧是人工智能一切功用的源头;人工智能依附于人类智慧,是人类智慧借科技之手的拓展或延长。换言之,没有人类智慧便没有人工智能,那么又何来“人工智能超越人类智慧”的说法呢?退一步讲,就算人工智能可以超越人类智慧,那么这种超越必然造成人类智慧的萎缩,反过来这种萎缩又势必构成对人工智能的否定。因此,“奇点理论”只是个噱头,没有立得住足的理论基础。那种将人工智能描述为无所不能的说法,是没有道理的。
绕不开又说不尽的“图灵测试”
人工智能起源于20世纪40年代。1948年,计算机科学、密码学的先驱阿兰·麦席森·图灵在其论文《计算机器与智能》中描述了“会思考的机器”,并预言创造出真正智能机器的可能性,被视为人工智能的源头。图灵还提出著名的“图灵测试”,即:如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且超过30%的回答让测试者误以为是人类所答,则电脑通过测试。可以说,“图灵测试”给人工智能确立了一个不懈努力的目标,同时也为人工智能提供了一道可供检测的功能边界。人们不禁要问,是否有一道人工智能无法逾越的绝对边界呢?将来某一天人工智能是否真的会拥有人类一样的智慧呢?某种程度讲,“图灵测试”成为人工智能发展60多年来人们反复追问的一个终极问题。
2011年,IBM公司研制的人工智能系统“沃森”参加综艺类节目《危险边缘》,并获得冠军。2014年6月7日,在图灵逝世60周年纪念日,英国皇家学会的举行“2014图灵测试”大会上,一个名为“尤金·古特曼特”的聊天程序成功地让人类相信它是一个13岁的男孩,成为有史以来首台通过图灵测试的计算机。这被认为是人工智能发展史上一个里程碑事件。时至今日,市场上涌现出大量会与人类聊天的电子产品,如“小爱”“小度”音响及各型车载智能系统。在许多人看来,人工智能在迈向人类智慧的道路上迅猛发展,可谓前途无量。“沃森”夺冠时,研制团队一度宣称,“沃森能够理解自然语言的所有歧义和复杂性”。但事实并非如此。此后“沃森”在大胆进军医疗保健领域时,遭遇惨败。它曾多次提出“不完全或不正确的治疗建议”,严重影响了人们对它的信心。另一项研究表明,谷歌公司的机器翻译系统在为非英语患者翻译医疗说明时出现重大错误。此外,研究人员还曾尝试通过手工编写的代码,帮助计算机理解新闻故事、小说或人类撰写的其他文档。然而,人们最终发现,如同“沃森”的遭遇一样,计算机程序不可能理解文本背后的“所有不成文的事实、规则和假设”。
这些例子均表明,“图灵测试”本身是一个相对概念;能否通过“图灵测试”,某种程度上取决于提问者及涉及的问题域。因此,是否通过“图灵测试”只可作为一个参照,并不具有绝对意义。换言之,对于某个特定的人工智能系统,一定存在某些“黑障”是它无法穿越的,它不具备人类那样的环境适应性和应变能力。针对人工智能的这种漏洞,美国斯坦福大学计算机科学家特里·维诺格拉德曾提出一种测试方法,号称“维诺格拉德挑战模式”。这种模式充分利用“it”(它)在英语世界中的多指性,使人工智能无法得出正确答案。例如 “跑车比卡车跑得更快,是因为它的速度更快”与“跑车比卡车跑得更快,是因为它的速度更慢”两个句子— 对于人而言,很容易知道究竟谁跑得更快;但对于机器而言,它就很费解。在2016年举办的一场人工智能大赛中,举办方运用这种“维诺格拉德挑战模式”,结果就连获胜的程序也只答对58%的句子,几近盲猜。以至于一位研究人员打趣道,“人工智能(AI)连一句话中“it”指的是什么都无法确定,居然还有人指望它统治整个世界?”
尤金·古特曼特聊天程序
当然,经过大型语料库训练的语言模型可以掌握“跑车”与“快”、“卡车”与“慢”之间的联系,并凭借这种相关性给出正确答案。但这并不代表人工智能真正理解这句话的含义,也无法由此保证人工智能能够通过所有的“维诺格拉德挑战模式”。在这种模式下,一个人工智能研究所的研究人员共提出4.4万个类似的句子用于测试。这就意味着,人工智能固然可以通过网络搜索和语言训练不断攻克一些难题,但是在人工智能前面总有许多它无法涉渡的“暗海”。究其原因,根本在于:要想理解人类语言就需要理解这个世界,而只接触语言的机器显然无法获得这样的理解能力。
人工智能的功能边界在哪儿?
以上讲的是人工智能在自然语言理解领域的运用情况,而人工智能对自然语言的理解正是它在其它领域有所作为的首要基础。倘若人工智能在自然语言理解领域尚存在一些结构性、根本性缺陷,还怎么指望它在其它领域有完美的表现?又怎么敢在其它领域放任人工智能的发挥呢?我们无意贬低人工智能的强大功能,但只有明确人工智能能干什么、不能干什么,才能在实践中更好地应用人工智能。正如《孙子兵法》所云:“不尽知用兵之害者,则不能尽知用兵之利也。”
人工智能在如自动驾驶等相对封闭的应用场景中有出色表现
功能边界:人工智能能干什么、不能干什么?如上所述,人工智能的基石是算法,算法的本质是数学,数学则是对客观复杂世界的结构化、逻辑化数理描述。人工智能在算法的指引下是高度聚敛的,它固然可以采集大量数据,但最终归宿是通过计算逐渐收敛,寻求一个或多个最优解,因此也就没有人类那种触类旁通、不断反思、迭代改进、统观全局的本领。人工智能是死的,它按照人类设定的算法程序机械地运行,没有人类的发散式、跳跃式思维,不具备人类那样在连续的复杂环境下时时处处都有的强大应变能力。这决定了,人工智能可以在狭窄的、要素较少、相对封闭的应用场景中有出色表现,如人脸识别、目标识别、自动驾驶、智能客服、搜索推荐、语音助理等领域。而一旦迁移到相对复杂、要素众多、对“常识”要求很高的领域,人工智能便勉为其难了。例如,现在国内外做机器翻译的公司很多,但成功的机器翻译产品并不多,尤其是在军事、医药等专业性很强的行业,机器翻译很难派上用场,最多只能作为辅助。特别是在军事领域,好的翻译作品都出自外语、军事专业兼修的研究人员,而不是翻译机器。由于人工智能计算机程序很难理解文字背后复杂的假设、情景,也不掌握丰富的军事知识,至少从目前看,这种现状很难改变。
具体到军事领域,当前美军共有近600项与人工智能密切相关的项目,主要集中于指控平台、网络安全、目标识别、情报处理、模拟训练、后装保障六大领域,每个具体项目又聚焦于狭窄的功能领域。以网络安全领域为例:网络攻击方面,美国防部正在开发“高级持续性威胁”(APT)攻击系统,该系统在人工智能的辅助下可以不间断搜索作战对手网络系统的漏洞,并发动自主攻击;网络防御方面,美国防部下属国防信息系统局(DISA)从美国家安全局(N S A)接手Sharkseer项目,该项目旨在通过机器学习等方法,分析潜在恶意软件的运行规律,达到检测并阻止恶意软件运行的目的。可以发现,所有这些项目都不会深入复杂的、特别是掺杂社会因素的场景。哪怕是开发指控平台,美军也是谋求利用人工智能处理海量情报信息,为指挥员提供决策支持,而绝不会将所有环节都交给人工智能。
时间边界:人工智能的发展阶段。人工智能的发展遵循历史唯物主义辩证法。如果不清楚这个历史唯物主义过程,非专业人员很容易被带入一种莫名的人工智能狂热。在过去六十多年中,人工智能的发展经历了几个主要的发展阶段。第一次高潮期是1956年—1974年,在达特茅斯会议后,研究人员在搜索式推理、自然语言、机器翻译等领域取得一定成果。第一次低谷期是1975年—1980年,随着计算机运算能力的不足、计算复杂性较高、常识和推理实现难度较大等原因造成机器翻译项目失败,人工智能开始受到广泛质疑和批评。第二次高潮期是1981年—1987年,具备逻辑规则推演和在特定领域解决问题的专家系统开始盛行,以日本“第五代计算机计划”为典型代表;第二次低谷期是1988年—1993年,抽象推理不再被继续关注,基于符号处理的智能模型遭到反对。发展期是1994年—2012年,“深蓝”等人工智能系统的出现让人们再次感受到人工智能的无限可能。爆发期是2013年至今,机器学习、移动网络、云计算、大数据等新一代信息技术引发信息环境和数据基础变革,运算速度进一步加快且成本大幅降低,推动人工智能呈现爆发式增长。
机器学习示意图
上面是从人类的角度看人工智能发展的,而任何一支军队在智能化军事变革中,又要遵循自身发展规律这个“特殊性”。如果超脱于自身实践,而基于对人工智能前景的模糊认识和最大化想象发展军事理论、推动变革实践,不仅无益于、甚至会有损于军队现代化转型发展。换言之,在军事智能化变革中,一定要立足本国人工智能发展阶段及现实情况。只有给军队转型实践这双“脚”穿一双合适的人工智能的“鞋子”,才能确保“健步如飞”。
空间边界:如何界定人工智能在人机环系统中的角色。人工智能由人类创造,又服务于人类。作为一种高级工具,人工智能的产生、演化与运行都应当以人为核心,以追求效益为根本目的,以转型实践为唯一的检验标准。刘伟教授提出:未来智能化发展方向应当是“人—机—环境系统在高速运行的同时保持协调发展”。人工智能应当在这样一个大框架下寻求职能定位,理想的情况应当是:在人的理性、智慧的规约下发展人工智能,将人工智能的功能嵌套到人的思维范式内,让人工智能作为人类智慧的补充、拓展、延长。这里,人(人类智慧)、机(人工智能)应当是有主有次、相辅相成的关系,而不应将两者对立或等同起来看待。
具体到智能化军事变革,首先要厘清人(人类智慧)、机(人工智能)之间的根本区别,综合考虑什么地方可以用人工智能、什么地方不适合用人工智能、什么地方用人工智能效益最高。实践中,人工智能的引入并不会必然地带来良好收益,有时候带来的可能是低效、混乱与无序,以至于得到适得其反的效果。这绝非危言耸听。人、机在智能化军事转型实践中的理想关系,应当如同坦克的履带与齿轮(诱导轮、负重轮、主动轮与托带轮)紧密啮合、共同驱动车体高速运动一样。这反过来也对人工智能的操作者、使用者、管理者和维护者提出非常高的要求。