终结者的前奏?
2016-05-14侨亚
侨亚
“我是阿尔法也是欧米茄,第一个也是最后—个,是开始也是结束。”这一段出自《新约-启示录》的简单文字,在今天读来,却有了别开生面的注脚。就在3个月之前,谷歌公司开发的智能围棋程序AlDha Go以4比1的压倒性优势,击败了人类顶尖棋手之一、韩国围棋冠军李世石,一跃占据了世界围棋排名的第二把交椅,使得长久以来普遍认为机器不可能战胜人类的世人为此改观,对现代人工智能(A1)的发展有了新的看法。而在6月27日,美国辛辛那提大学的官网上公布了一个最新的人工智能研究成果,却令有心人不禁产生了古人可能一语成箴的感慨。根据辛辛那提大学发布的信息,该校人员主持开发的人工智能程序在高保真空战模拟器对抗中,成功击败了拥有丰富空战经验、并长期协助空战人工智能程序研发的退役美国空军上校基恩·李,凑巧的是,这个空战人工智能程序也被设计者命名为A1Dha。
胜利者AIpha
空战人工智能程序AIpha是辛辛那提大学工程与应用科学学院的博士研究成果,主持Alpha程序创建和项目工具开发的是2015年毕业的博士研究生尼克.恩内斯特,以及大卫-卡罗尔,如今他们创立了Psibemetix公司,用以支持Alpha空战程序的后续工作推进,恩内斯特是公司总裁和首席执行官,而卡罗尔是程序主管。另外,他们还得到了退役空军上校基恩·李的合作,以对程序的实际作战能力进行测试和评估,辛辛那提大学的航空航天学教授凯利.科恩以及博士研究生蒂姆-阿内特也是主要的协作者,最后,也是最重要的是,空军研究实验室为本项目的实施提供了20万美元的经费赞助。
Alpha空战程序能够获得空军研究实验室的大力支持并非偶然,事实上,空军研究实验室秉承“鸡蛋不能放在同一个篮子里”的传统信念,同时支持了许多个人工智能空战程序的开发,而Alpha空战程序在早期的版本时,就已经击败了包括空军研究实验室的基准空战程序在内的其他竞争对手。在去年十月,AIpha空战程序的成熟版本推出之后,其对抗的对手变成了前空军上校基恩·李,令人震惊的是,李非但从未能在反复尝试中击落Alpha,相反的是,在每次模拟对抗中,李都被AIpha形成稳定截获——换句话说,被踢出局了。这是从未有过的现象!
正如世人熟知的美国海军航空兵“T00Gun”一样,李是拥有与之相似能力的空军飞行精英,毕业于美国战斗机武器学校-(相当于获得了空战战术和战略的进阶能力),具有多种战斗机的飞行资历,曾与数以干计的美国空军飞行员进行过对抗训练,具有丰富的对抗经验,同时,在其参与空军研究实验室工作之后,对美国空军从上世纪80年代以来所使用的智能空战程序都有了深入的研究。
“我对它的感知和反应能力感到非常吃惊,当我在飞行中做出改变时,它似乎知道了我的意图并立即做出反应,以避开我的导弹杀伤区。它知道如何让我的攻击失败,它在防守和进攻行动之间的变换几乎是瞬间完成,而且无懈可击。”说起与Alpha空战程序的对抗,仍可感觉到李的震撼:“(在与传统AI对抗时)一位有经验的飞行员可以击败它们,只要你能够清楚知道自己的行动,当你找到空战程序的弱点时,你就可以‘击落它,在此之前,空战程序根本无法提供像实战一般场景的真正压力和节奏。”
说起与Alpha空战程序进行以小时计的模拟真实飞行任务长时间对抗,李说道:“我回家时感觉像刚过了一遍水的样子我感到疲惫,瘫倒,心力交瘁。这就是人工智能,但它代表了一个真正的挑战。”
对于Alpha空战程序,李的评价是:“这是迄今为止,我所见过的最有攻击性、最敏捷、变化最多、(仿真)最可信的Al。”
值得注意的是,Alpha空战程序并非仅仅在一对一的模拟空战中取胜,在为本次研究发表的论文中,研究者们选取的案例是—个2vs4的小机群作战,这也是现代战机和导弹能力获得显著提高以来,常见的空战模式。在这个案例中,李和另一位空军精英扮演入侵的蓝方,有预警机支持,而Alpha空战程序则操纵红方防御的4架战机,每架蓝方战机携带4枚远距空空导弹和4枚近距空空导弹,而每架红方战机仅携带4枚中距空空导弹,蓝方具有单机火力上的优势,除了这些差别之外,双方战机的其他能力被设定为一致(耐人寻味的是,在案例中,红方的战机图标是苏-27,而蓝方的战机图标是F-22)。
研究者们之所以选取这个案例,也许是因为其指出了—个令人沮丧的可能性。一直以来,人们都认为,具有预警机进行目标探测,并实施指挥的—方,会在空战中获得显而易见的优势,然而,本案例的结果已经指出,这很可能是—场迷惑了几代^的美丽误会。其症结所在,只不过是人类大脑的计算速度不够,所以往往无法在对方具备预警机(这同时也意味着具备更多的大脑)时,产生足以正确对抗的解算结果,如果考虑到作站动对人体的生里影响,则缺少警机.一方的失败几乎是必然的。
对于Alpha空战程序而言,以超过2400千米/小时的相对速度和1.2万米的飞行高度接近对手时,并不会产生任何“生理”上的影响,而人类飞行员在这种决策时间需要以微秒计的行动中,其拥有的“技能”和“空战艺术”都会大打折扣,往往只能凭“直觉”来进行机动和攻击,犯错的成本是很高的,很可能要付出生命的代价。事实上,与只有单一变量,而且与允许较长时间计算的智能围棋程序Alpha Go不同,Alpha空战程序具有多达约150个输入变量,包括双方速度、高度、航向、机动态势、导弹发射包线、导弹杀伤区等,AIpha可以汇集各种传感器的数据,迅速组织、创建一个完整的战斗场景映射,并在不到1毫秒的时间内,改变4个红方战机的作战决策和飞行机动。AIpha的速度是如此之快,在需要考虑和协调最佳战术计划和精确响应的动态环境中,Alpha每秒钟能够解算发出的操作指令可达人类飞行员的约250倍,可见其解算速度还是远远超过了人类,在这种情况下,Alpha即便做出了错误的判断,也会迅速得到纠正。
研究者们给大家带来的另一个令人沮丧的坏消息(同时也是令人振奋的好消息)是,在测试中能力表现得如此强大的AIpha,其实是在一台500美元级别的家用电脑上运行的,换句话说,AIpha的能力还有巨大的扩展余地。
未来的展望
Alpha空战程序之所以具备如此强大的能力,是因为其采用了遗传模糊算法。遗传算法是经典的人工智能算法,是模拟生物进化论的自然选择和遗传学机理的计算模型,通过模拟自然进化过程的随机化搜索方法,根据限定的条件和目标不断求取最优解,非最优解则不断被迭代淘汰。科恩解释说:“(AIpha的进化)在很多方面跟空战没什么不同,首先,有一大群飞行员,他们(互相战斗)谁存活到战争结束,谁就是精英。”这些自动生成的Alpha版本不断“培育”下一代,性能更好版本的不断出现,而目前使用的Alpha版本是当前性能最强的。
但是,遗传算法有一个很大的缺陷,就是需要极大的计算量,正如生物进化经过了无数代的进化一般,这就导致其通常需要较长的解算时间,这对于要求反应速度以毫秒计的空战程序是极其不利的。为了克服这个致命的障碍,研究者同时引入了模糊算法,与传统算法需要得出精确解不同,模糊算法并不需要精确解,而只需要求出一个倾向。这就使得遗传算法跟模糊算法的优点有机的结合起来,满足了AIpha空战程序既要时间短,又要最优解的苛刻要求。
欧内斯特对此做了一个形象的解释:“我可以描述遗传模糊树系统的最简单方法是,它更像是人类如何思考问题。就像一个足球场上的录像机,当它升级了进行球赛评价的功能之后,它不会这样算:这个赛季里,某某进行了多少次冲刺、多少次传球、多少次突破。它不需要展现所有的具体统计数据,而只需要给出评价:(这个动作)非常好。”另外,这个动作的历史记录也不会是唯一的变量,其他的变量也可能加入,这时候,评价就变为了“(这个动作)非常好,比我更高,但我可以更快。”
在未来的空战中,Alpha的能力将大有用武之地,美国空军和海军都明确表示过,未来作战飞机中,无人机(UAV)将占有重要的比例,但人类飞行员必须处于控制地位,所以,未来由Alpha驾驶的无人僚机将会是有人机的重要臂助。人类飞行员只需要发出指令,掌管无人僚机的Alpha将自动处理传感器信息,形成态势感知,判断正确的机动方式,选择合适的攻击战术,管理和更换适当的打击武器。Alpha将从对敌人战术和能力的观察中进行学习,并与友机协调行动,避开敌方数以十计的导弹攻击,并准确的对多个目标实施打击。正如科恩所说的:“Alpha将是一个非常容易配合的AI队友,它可以连续不断的确定最佳的方式来执行有人战机指令的任务,并在飞行任务中持续提供战术和态势的信息和建议。”从长远来看,携手人工智能将使得美国军队的空中作战能力获得一个革命性的飞跃。
对于Alpha的未来发展,欧内斯特说:“Alpha在面对模拟环境时,已经是一个致命的对手,我们的目标是继续开发Alpha,要与其他训练的飞行员一起,不断扩展其功能,并进行进一步的测试。仿真度也需要增加,这会通过使用更真实的空气动力学和传感器模型的形式来实现,Alpha完全能够容纳这些升级,我们和Psibernetix公司都期待着项目的继续发展。”
人工智能的隐忧
然而,迄今为止,人类发明的人工智能算法都具有较大的局限性,主要是偏向于某种特定的目标求取最优解,而不能像人一样具有道德情感的约束。这会不会导致毫无人性的人工智能最终将人类灭绝?有识之士们纷纷提出了自己的忧虑,并提出了一些解决方案。
这其中最著名的解决方案,就是美国著名作家阿西莫夫提出的“机器人三定律”:一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。这组定律提出之时,是在1942年,当时自动制导武器刚刚开始萌芽,按照现代人工智能的分类法,属于弱人工智能的最低级别,仅仅相当于生物的初级刺激反应。但随着制导武器“智能化”的不断发展,“机器人三定律”很显然已经被不断突破,干疮百孔。英国巴斯大学的乔安娜·布赖森教授评论说:“(阿西莫夫)定律本身就表明了,简单的道德规则是无法运作的。如果你读过三大定律,你会发现每条定律都说不通,阿西莫夫定律是不切实际的。”
这种忧虑,也是为何美军一直坚持无人机必须要有人参与控制的原因,这也是美国法律的要求,非经审判或者授权,不得剥夺人的生命权。即便如此,2011年9月底,在对恐怖分子的定点清除行动中,由于情报失误,操作者在控制无人机发动攻击时,误杀了一名美国公民,而情报失误在接下来的10月中旬弄出了更大的漏子,无人机攻击了一个餐厅外的车队,导致十余人丧生,最终证明全都是无辜平民,而需要攻击的恐怖分子当时在另外一个地点。这两次误击(特别是第二次)导致了广泛的抗议,在强大的舆论压力下,美国人被迫暂时取消了对无人机打击的授权。然而报应来得好快,2012年9月,美国驻班加西领事馆遭到民兵的围攻,当时虽然有一架“捕食者”无人机赶到现场,却因为没有携带武器而无法发动打击,最终有4名美国人丧生,包括美国驻利比亚大使史蒂文斯。
事实上,在有人参与控制的情况下,无人机仅仅起到了延伸打击距离的作用,已经引发了如此之强的不良反应,而现在各国军队普遍开始装备的具有杀伤武器的小机器人,就更加令人感到不安了,因为这意昧着AI已经获得了军方的杀人许可,如果凑巧这个Al像AIpha那么聪明强大,甚至比Alpha聪明强大一万倍,对人类会产生怎么样的威胁呢?英国物理学家史蒂芬·霍金认为,人工智能的潜在威胁,绝不仅仅是像电影《终结者》里描绘的那种梦魇,他认为,目前的人工智能正在走向错误的轨迹。
但是,人类历史上面临的危机已经不是一次两次了,即便是在当下,人工智能的威胁也似乎不如地球环境污染对人类的威胁大,以自动驾驶为代表的人工智能更是大大有利于人类的生活和发展,未来人工智能究竟如何发展,也许是现在的人们无法断言的。
责任编辑:王鑫邦