AI 与智能化战争
2017-01-01本刊综合报道
本刊综合报道
AI 与智能化战争
本刊综合报道
现代战争中,人类越来越依靠人工智能(AI)对战争局势、走向实施研判。尽管信息化战争还在军事领域主导,但智能化战争的帷幕已逐渐拉开。
2017年1月1日,英国《每日快报》网站报道称,俄罗斯国防部长绍伊古在国家电视台播放的一部纪录片中透露,俄正在研制的巨无霸计算机可对战场形势进行全面而高速的分析,从而提前掌握战机。报道说,这台计算机采用南斯拉夫战争期间开发的技术,能够分析舰队所在方位与国际关系,从而就正在发展的局势以及何时应该采取军事行动向普京发出警报。绍伊古说:“这是一个开放的系统。现在,其中的模块可以添加或撤出。我们甚至还没有用到其一半的潜能。它能够让我们进行更有效、更快的情报信息处理。”报道还说,这台计算机仅仅是俄罗斯昼夜不停地运行、以分析情报和数据的秘密数字防务中心的一部分。
美军推出的第三次“抵消战略”也认为,以智能化军队、自主化装备和无人化战争为标志的军事变革风暴正在来临。为此,美国将通过发展智能化作战平台、信息系统和决策支持系统,以及定向能、高超声速、仿生、基因、纳米等新型武器,到2035年前初步建成智能化作战体系,对主要对手形成新的军事“代差”。到2050年前智能化作战体系将发展到高级阶段,作战平台、信息系统、指挥控制全面实现智能化甚至无人化,实现真正的“机器人战争”。
“第三次革命”
人工智能武器的出现,被称为战争史上继火药、核武器之后的“第三次革命”。
《参考消息》于2016年9月登载了日本军事评论家古是三春题为《世界已进入人工智能战争时代》的文章,简要分析了为什么人工智能武器被称为“第三次革命”:火药的出现是“第一次革命”,不易受个人能力左右的枪支和火炮实现实用化,军队构成更加大众化和大量化;核武器实用化是“第二次革命”,拥有核武器意味着可以进行以破坏整个国家为前提的战略性对峙,持核国家具有国际影响力。两次革命分别使此前的战争方式完全发生变化。人工智能也具有从根本上改变战争方式的潜力,由“人vs.人”的战争变成“机器自主性杀人”的战争。
人工智能武器的实用化和实际运用已在眼前。国防科技大学军事专家石海明说:“在大国角逐的重要空间,表面上看似风平浪静,但各种运用尖端科技的无人化、智能化作战武器与平台已越来越多。”
将人工智能应用到作战上已有先例,层出不穷的武装机器人系统和应用广泛的无人机就是最明显的例子。
在非战争军事行动中,大数据技术早已广泛使用。尤其是反恐领域,利用大数据筛查可疑分子、降低恐袭风险已经是日常反恐的重要手段。2013年波士顿马拉松爆炸案中,恐怖分子以高压锅和背包为作案工具展开袭击。事后,有人在网上同时搜索上述两种工具,警方立即利用大数据技术捕捉相关信息,进而调查搜索者的目的,大大降低了恐袭风险。
在人工智能介入战争指挥方面,美国国防高级研究计划局(DARPA)研制的“深绿”系统最为出名。五角大楼试图仿制曾战胜人类棋手的超级计算机“深蓝”,利用计算机造出一个智能化辅助系统,帮助指挥员决策,并随着作战进程不断调整和改进,使作战效能大幅提高。
质疑:Al可能会超越人类控制
新技术的诞生总是伴随着欣喜和担忧。将AI应用于战争也一直是争议的焦点,还有人将AI与核技术作比较:爱因斯坦年轻时劝罗斯福总统一定要在俄国之前发明出原子弹,而此后却因为对核武器毁灭性力量的担心,后半生都坚定地站在反核的队伍中。
AI用于战争也受到一些科技权威的质疑。不少专家担忧,先进的自动化武器可能会将人类视为威胁,从而危及人类生命安全。
2015年7月,在阿根廷召开的国际人工智能联合会议上,包括著名天体物理学家霍金在内的上千位AI领域的专家学者签署声明,警告公众军事型AI竞争(military artificial intelligence arms race)的威胁,呼吁彻底禁止对“进攻性自动武器”(offensive autonomous weapons)的研发。
这封公开信里说到,AI技术的进展已经到了一个拐点,自动作战的武器系统(可能是战地机器人,也可能是具备高度战争智慧的导弹进攻系统)几年内就能在技术上实现。“自主型武器不需要高价或难以得到的原料,因此可以在各处普及。如果是主要军事大国,则可以廉价批量生产。”“(自主型武器的部署)将超越人类的有效控制。”也许会有更多人因此而丧生。
质疑的另一个理由,是AI技术用于战争可能产生战争伦理问题。
2008年,美军海军研究办公室就此发表了一份报告,认为,运用于战争的自主机器人无法承担法律责任。根据1949年签署的战争人道主义《日内瓦公约》要求任何袭击需要满足“军事必须、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡”3个条件,而当前自动武器很难做出这些主观判断。目前国际人道法律对此类技术还没有具体规定,国际社会也未明确支持一个限制或禁止此类武器系统的条约。
石海明认为:“在无人化战争中,作战主体远离战场,无人化武器以一种‘非人性化’的方式杀人,没有承担战争危险的伦理性,也没有对战争苦难的情感体验,‘隔离因素’将战争的发动者与实施者区分了开来。有关战争责任的伦理问题就出现了,到底参战的自主机器人是不是战斗员?又应当承担何种战争的责任?”
目前机器人还无法分辨平民和士兵,当然也无法为自己的行为负责。相关战争责任的追究也成为一个十分棘手的问题。
“人算”VS“机算”
科学家对AI用于战争的担忧,更多地来自战争伦理层面的考虑,普通人对AI的顾虑却来自对人类自身价值的担忧:面对机算制造的战争挑战,人类还有施谋用计的空间吗?
答案是,未必。战争是一门艺术,而不是单纯的科学。纯粹程序化的设计应用到战争中时,很可能会因为程序设定而产生“盲区”。
以美军使用的“人迹嗅探器”为例,这是一种悬挂在直升机、长着“鼻子”的雷达,它能记录人体的体温和气味,并借此发现丛林中隐藏的敌军。美军将这些嗅探器使用到战区时,却被对手发现了嗅探器的致命缺憾:它们能探出氨,却无法区分目标究竟是人、动物还是静止的物体。于是美军的对手沿着被废弃的小道地区悬挂上水牛的尿包,循着味道而来的B-52轰炸机,真的把废弃的小道当作敌军进行了轮番的“无效轰炸”。
这样的例子并不鲜见。以当前的人工智能水平,机器对目标和威胁的判断还相对简单初级,对临界点的判断可靠度难以保证。
军事专家李路介绍,2016年6月,英国某潜艇上的一枚三叉戟Ⅱ-D5潜射洲际导弹误射向美国本土,情急之下英国将该情况通知美国。美得到消息后却发现,本应自动搜索、自动响应的本土反导系统却毫无反应。好在导弹并未安装核弹头,最终在美西部无人区上空自毁。
“假如当时自动反应机制及时反应并运行了,则理应触发核报复机制,美国的核弹将会自动射向英国,后果将不堪设想。因此,在重大问题上机器替代人做出反击决策,可能还有较长的路要走”,李路说。
2016年4月,美国国防部副部长罗伯特·沃克在“无人驾驶”军舰“海上猎手”号(Sea Hunter)的命名仪式上发表讲述时曾专门介绍,未来可能会在“海上猎手”号上部署武器,但使用致命武器的任何操作决定必须来自于人类。(本文内容参考《科技日报》《中国航天报》36kr等媒体相关报道)