法律视域下的军事智能化刍议
2017-01-01陈聪卢根
陈 聪 卢 根
党的十九大报告指出,要“加快军事智能化发展”。作为机械化、信息化之后军事领域发展的新趋势和新方向,军事智能化的飞速发展,不仅对现代作战的制胜机理产生了颠覆性影响,也将给现行相关法律制度带来冲击和挑战。当越来越多的无人机编组、无人潜航器编组、机器人士兵编组成为战场的作战单元的情况下,传统法律在“战斗员”身份的界定、新型智能装备的法律地位、军事行动合法性的判断、战争责任的界定等方面,将面临一系列的新问题。
一、“战斗员”身份的界定
“战斗员”身份在武装冲突法体系中具有重要意义,是界定参战者权利义务的重要依据。当前,越来越多的智能军用机器人出现在战场上,它们具有持续反应快、作战时间长、生存能力强等特点,在替代人类执行特定军事任务方面具有独特优势。特别是随着军事智能化的进一步发展,军用机器人的智能化程度会越来越高,通过模仿人类神经元之间的信息传递功能,建立人工神经元网络结构,利用计算机模拟人类的认知过程和决策过程,可以像人类一样观察、学习、组织语言、处理数据、得出结论。甚至,在深度学习模型的应用下,智能机器人还可以通过捕捉经验来学习知识,在复杂系统中实现非常接近于人类的认知方式,而不仅仅是简单的利用逻辑关系、因果关系来进行形势判断。部分领域里,人工智能的思维能力可以达到或者超过人脑①《围棋人机大战与军事指挥决策智能化研讨会观点综述》,《中国军事科学》[J],2016(2)。。军用机器人原本应当属于武器的范畴,但因日益向类人发展,使其在战场上的身份定位越来越模糊。
《日内瓦第一附加议定书》第43条对“战斗员”的定义是:“有权直接参加敌对行动的冲突一方的武装部队成员(除第三公约第三十三条的规定所包括的医务人员和随军牧师外)。”从措辞上看,这一规定并未将战斗员的范围牢牢限定在自然人上,没有完全排除智能机器人作为战斗员的可能性②黎辉辉:《自主武器系统是合法的武器吗?——以国际人道法为视角》,《研究生法学》,2014(6)。。按照传统观点来看,军用机器人显然不符合当前“战斗员”的构成条件。但是,在未来军用机器人的“智慧”可能大大超过人类的情况下,是否应该赋予其作战主体资格,便成为无法回避的重要问题。从历史演变的角度看,“战斗员”这一概念从产生之日起,就一直在发展变化之中。从1899年海牙公约提出“合法交战者”,到1907年《陆战法规惯例公约》明确提出“战斗员”的概念,再到1949年日内瓦四公约和1977年《第一附加议定书》对“战斗员”范围的界定和扩展,“战斗员”所涵盖的范围越来越大,所保护的对象也不断增多③刘锐:《从“非法战斗员”看反恐行动中国际人道法的适用问题》,《西安政治学院学报》[J],2008(2)。。如今,在民事领域,机器人的法律身份问题已经不断被提上议程。2016年,欧盟委员会法律事务委员曾提交一项将最先进的自动化机器人的身份定位为“电子人”的动议。香港汉森公司设计的机器人“索菲亚”于2017年10月获得沙特的公民身份,成为世界上第一个具有人类公民身份的人形机器人。与之相类似,未来高度自主的军用机器人能否具有“战斗员”身份,将成为难以回避的一个法律问题。
二、新型智能装备的法律地位
军事智能化的发展,催生出临近空间飞行器和无人水下航行器等新型智能装备,并在军事实践中广泛应用。这些新型智能装备的工作方式和运作规律与传统武器装备有着显著差别,一定程度上存在法律调整的盲区。
临近空间,是介于普通航空飞机的飞行空间和航天器轨道空间之间的区域。其空气密度对于飞机等航空器来说过于稀薄,在减少阻力的同时也减少了对航空器的支撑;而对航天器而言,空气却又显得过于稠密,摩擦阻力太大,难以维持其第一宇宙速度的运行轨道④胡滨:《空天一体视角下的临近空间》,《南京政治学院学报》[J],2010(3)。。因此,传统的卫星和飞机都无法涉足这一特殊领域。临近空间飞行器具有目前飞机和卫星所不具有的功用,在执行相同任务时有得天独厚优势⑤郑国梁:《关于临近空间的法律定位及应对措施》,《国防》[J],2010(7)。,成为当前军事智能化应用的一个热点领域。但是,由于现行国际法律制度缺乏对“临近空间”的明确界定,导致“临近空间飞行器”的法律性质和法律地位并不明确。最直接的问题是,临近空间飞行器在临近空间飞行,是否侵犯他国领空?他国能否将其视为非法入境的军用飞机击落?由于外层空间和空气空间的划界问题一直没有定论,而临近空间作为空气空间和外层空间中间一个新的细分概念,必然导致国际法上的空白。作为军事智能化发展催生的新型装备,临近空间飞行器的飞行是由国际航空法来调整,还是由外层空间法来调整,尚缺乏统一的认识。
无人水下航行器的军事应用,也存在类似问题。通过智能化设置,无人水下航行器可以自主控制和独立航行,灵活方便,可广泛用于执行扫雷、侦察、情报搜集及海洋探测等任务,还可能作为水下武器平台、后勤支持平台等装备使用①王蓬:《军用UUV的发展与应用前景展望》,《鱼雷技术》[J],2009(1)。。这类自主式无人水下航行器与传统概念上的船舶有着显著区别,它不悬挂旗帜,一般也不会搭载船员,其目的也不是为了在海洋中航行通过,而主要是在水下执行情报搜集、海洋探测等特殊任务。究其本质,它不是正常的通行船舶,而是在海中作业的机器人②迟国仓,端木兆荣编著:《潜艇作战训练百问》,219页,海潮出版社,2014。,无法拥有“船舶”的无害通过权、过境通行权、群岛海道通过权和公海航行自由等权利。无人水下航行器的法律地位,也亟待法律填补空白。
三、军事行动合法性的判断
为了协调武装冲突中“军事需要”和“人道要求”的矛盾,现代国际法形成了一系列规范武力使用的规则。比如,区分平民与战斗员、禁止攻击失去作战能力的人、禁止造成不必要伤害、军事必要和相称性原则等③盛红生,肖凤城,杨泽伟:《21世纪前期武装冲突中的国际法问题研究》,22页,法律出版社,2014。。军事智能化的发展,带来了“致命决策的去人类化”④黎辉辉:《自主武器系统是合法的武器吗?——以国际人道法为视角》,《研究生法学》,2014(6)。的特点,这对传统的军事行动合法性的判断提出根本性的挑战。
智能化执行命令,本质上是智能化系统通过复杂精密的运算进行行动选择,是对逻辑指令无条件的执行。这使得其行为受到算法和数据的双重制约,一旦数据出错或者算法遭到敌方攻击,智能设备很可能作出荒谬的选择。美军的智能机器人在实战中曾经出现过这样的问题:3台“利剑”地面机器人在进攻一个据点时,其中一台机器人由于软件缺陷,竟把枪口瞄准了操作该机器人的军人,该军人对其发出“行动取消”的指令,失控的机器人仍然停不下来,美军只能用火箭筒将其炸毁⑤张凤坡,易磊:《军事智能化是一把双刃剑》,《解放军报》,2016-05-19(7)。。此外,在复杂多变的动态环境中,人工智能的认知能力虽然在有些方面强于人类,比如在情报分析、战斗反应等方面,智能化有其独特的优势。但是,在排除主客观复杂因素干扰等特定方面,人工智能依然远逊于人类,易遭敌电子哄骗和电磁网络攻击,甚至被敌方所控制⑥陈航辉:《算法战:牵引美军人工智能军事化应用》,《解放军报》,2017-11-23(11)。。这种犯错和被控制的可能性,使战争中的不确定因素大大增加。在智能执行指令的过程中,其运作过程以软件和代码为主,本质上还是数据处理,无法真正产生内在的尊重生命的人道观念。虽然智能化可以大大提高军事打击的精度,避免战争中对平民和非军事目标的附带损害。但是,将智能设备投入战场,实际上是把人类的人道主义关切交由系统和软件来判断。在战场复杂多变的环境下,军事需要与附带损害的程度是很难权衡的,加之智能设备具有犯错和被控制的可能性,很可能会带来人道主义危机。因此,智能执行指令,把判断权和开火权交给智能设备,必然对当前武装冲突规则和国际人道法带来新的挑战。
四、战争责任的界定
智能化战争条件下,在作战指挥过程中,智能执行指令与军人执行命令往往是相互交替或者相互交织在一起的。上级意志的传递在智能化这个环节上出了问题,责任如何区分界定,成为一个新的问题。如果人工智能的程序或数据出了错,导致对指令的错误执行,应该由谁来承担责任?比如,美国在巴基斯坦、也门进行的无人机精准轰炸,但造成大量平民死亡①张凤坡,易磊:《军事智能化是一把双刃剑》,《解放军报》,2016-05-19(7)。。在战争责任的界定问题上,军事智能化的发展所带来的挑战也不可忽视。
在不同的智能系统中,战争责任的承担还会有具体的差别。
第一类,在网络、防空等防护领域,往往存在自主反应类的智能系统。这一领域对于反应速度的要求非常高,需要快速决策。通常,由人类来决策反应往往是来不及的,那么,实现智能化恰好可以发挥其优势。这一类智能执行指令发生错误,法律责任甚至需根据情况追溯至智能开发者。如果开发者在设计时存在故意或重大过失而导致错误发生,开发者也无法免除责任。如果由于开发者基于当时的认知局限,不可能预见到未来发生的状况,则是另外一个问题。
第二类,是与人类共同决策的智能系统。比如战场机器人,自身具有一定的自主决策能力,但同时也受到人类在后台的操控,通过系统的互联、互通、互操作能力共同决策。但是,战场上的目标稍纵即逝,需要快速敏捷的“立即响应”,一些智能机器人已经实现从传感器到“射手”的自主同步。其接受人类指令进入战场,但在战场的一些行为并未经过操控者的确认。机器人接受指令并完成,操作者应对机器人可能的行为负责。
第三类,是协助人类决策的智能系统。军事指挥决策领域中的人机协作非常广泛,这类智能系统本身不作出决定,而是辅助人类进行决策。比如美国的“深绿”计划和指挥官虚拟参谋,主要采用仿真技术,基于战场实时态势数据,通过计算机多次模拟仿真,推演作战方案的结果,预测敌方的行动和未来战场走势,引导指挥官作出正确的决策②李婷婷:《美军军事智能化研究现状及启示》,《第五届中国指挥控制大会论文集》。。在这类辅助决策性的智能系统中,智能主要起到的是提示和建议的作用,指挥员的指挥责任不可避免。智能错误能否成为责任阻却之事由,在不同的情形下不能一概而论。这也是一个有待商榷的新问题。