人工智能武器国际法规制的客体探讨
——基于人工智能武器的本质与实质性风险
2020-12-14应思琪
应思琪
(华东理工大学 上海 201400)
引言
人工智能的浪潮在近些年来达到了历史的顶峰,对于人工智能的运用已经不再局限于日常生活。早在一战以后就有人工智能与军事方面的融合,且随着人工智能技术的高速发展,人工智能武器也在世界各国研发。然而对于无需人类干预即可自主发起特定攻击行为的武器系统,能否遵守国际法现有的规制或者如何对其进行法律规制,在学界也引起广泛议论。
若要研究对人工智能武器的法律规制,需明确规制的对象,掌握规制客体的本质,以及其可能产生的风险。因此,本文拟阐述人工智能武器的定义及特征,剖析人工智能武器的本质,以及其将带来的风险进行分析,为后续法律规制对策提供前期研究。
1 人工智能武器的定义及相关概念的辨析
根据自主性的强弱,人工智能武器可分为弱人工智能武器、强人工智能武器和超人工智能武器。弱人工智能武器是指自主性较弱,没有自主意识的武器系统,现役的智能武器都还处于这一阶段,其运作方式是根据预设的指令执行既定的任务,执行过程由人类主导。强人工智能武器是指具有自主意识,可以根据战场情况制定最优作战方案并实施的武器系统。自主意识意味着人工智能武器通过搜集的数据制定作战方案并执行所基于的算法的运行,可以像人类一样灵活应对战场复杂的情况,甚至在某些方面如分析速度、执行效率更胜人类一筹。对于超人工智能武器,人类对人工智能的了解还只是冰山一角,其究竟有多大的潜力还无法估计,所以超人工智能只是一个大胆的猜想,本文不对其做探讨。
自主武器系统是人工智能武器的雏形。美国国防部将自主武器系统定义为一种一旦被激活,可自主选择和攻击目标而无需人类干预的武器系统。[1]国际红十字会在一份研讨会报告中提到:自主武器系统涵盖了在其“核心功能”上拥有自主性的任何类型的武器系统,即武器可无需人工干预地选择和攻击目标,而不论其在空中、陆地还是海上运行。[2]从以上定义中可以看出,自主武器系统具有自主性,即无需人工干预即可选择攻击对象并对其发起攻击,是弱人工智能武器。相较于自主武器系统更偏重于自主性,人工智能武器则更强调智能化。所谓智能,是指个体对客观事物进行合理分析、判断及有目的地行动和有效地处理周围环境事宜的综合能力。[3]人工智能武器对所搜集到的外界数据做出分析,并经过算法的运行选择最优化方案对特定目标进行攻击或防御。
与上述概念相类似的是自动武器,国际红十字会将其定义为:自动武器是以自足完备和独立的方式运行的,一旦被激活,这类系统可以攻击由操作人员选定(设置)的个体目标或特殊“目标群体”,它们在设定好的可控环境中严格执行预编程行动或序列。[3]自动武器并不具备接收信息、处理信息的特性,而只是严格按照人类预设的程序执行行为;在自动武器的使用过程中,人类操作员占据绝对主导地位。然而强人工智能武器具有处理信息并自主选择目标进行攻击的能力,可以对所接受的信息进行分析判断,且对特定的目标展开进攻。
本文认为,人工智能武器是可以即时获取战场信息,运用算法进行分析和判断并采取最优方案对特定目标做出攻击行为,而无需人类干预的武器系统。人工智能武器已然具有逻辑思维能力,可通过自带的监视器、传感器等对战场实时监控;再根据战场情况通过算法运行制定出最优的作战方案;最后实施。
2 人工智能武器的特征和本质
如上所述,根据自主性的强弱,人工智能武器可分为三类。超人工智能时代下人工智能的形态和模式是目前我们无法推测的,因此本文在分析弱人工智能时代的自主武器系统的基础上,主要对强人工智能时代的人工智能武器进行深入讨论。
弱人工智能武器具有以下几个特征。其一,被动性。自主武器系统只能通过人类遥控或是预设的程序运行,而无法主动根据情况随机应变。其运行完全基于预设的方式达到既定目标,而不能创造出新的路径去实现。其二,功能单一。弱人工智能没有学习能力,其算法也在一个既定的功能范围之内运行,举例来说,现役的仿生机器人往往只能在一个方面发挥作用,负责搬运的机器人无法从事侦察活动。其三,可预测性。由于弱人工智能的程序运行的结果处于人类的预期范围之内,即使因程序运行错误,也可以排查出来,以至于行为和损害结果之间的因果关系较为清晰,由这类武器造成的违法行为的可追责对象容易识别。
强人工智能武器则具有如下特点:首先,强人工智能武器的作用过程具有连续性。强人工智能武器是分析情况、制定方案和实施方案三位一体的武器系统,相较于常规武器和自主武器系统的人类主导性,其最鲜明的特性就是可自主分析战场数据、制定作战计划并对特定目标进行攻击或防御行为,这个过程无需人类的干预即可完成。目前普遍应用的巡航导弹、无人机等弱人工智能武器在执行任务时需要庞大的人类团队作为辅助[4],而未来的人工智能武器则无需人类操作员的介入就能正常运作。其次,强人工智能武器完成任务的结果具有不可预测性。强人工智能武器通过分析搜集到的信息得出的方案具体如针对的打击对象、运用的打击方式、实施的打击时间,是由其算法决定的,且其已经具备深度学习和模糊思考的能力,由于战场无时无刻不在变化,人工智能武器系统也要时刻调整作战方式,所以人类对其完成任务的手段和结果是无法预测的。最后,强人工智能武器具有多功能性。智能程度更高的系统具备在更加复杂的环境里执行更为困难的任务,并选择最佳路径实现其目标的能力,这意味着它能够被赋予更高的自主性。[5]与弱人工智能武器相比,强人工智能所结合的武器系统更丰富、更高级,强人工智能武器不但可以即时获取信息、对数据进行分析,还可以根据分析结果做出最有利的攻击或防御行为,已然比单个甚至一个群体的人类战斗员权限更大、效率更高。
那么人工智能武器的本质是什么?根据上述人工智能武器的概念,人工智能武器由人工智能技术支撑,通过常规武器和装备组成系统进行攻击或防御,其本质是由算法主导其行动的武器系统。因此,人工智能武器的研发和使用必须遵守《特定常规武器公约》、《禁止或限制使用某些可被认为具有过分伤害力或滥杀作用的常规武器公约》等国际法上有关武器研发和使用限制的条约。
3 人工智能武器的风险
根据OODA循环,武装冲突可以看做是敌对双方相互较量谁能更快更好地完成“观察—调整—决策—行动”的循环程序[6],而计算机处理信息的能力显然是更强的。照这样看,人工智能武器的运用似乎会给人类带来福祉。然而,人工智能武器因其不可预测、智能、自主的特性,将之运用于战争、作为剥夺人类生命的决定者,这将颠覆人类的价值观、带来多方面的风险。
3.1 弱人工智能时代的风险
弱人工智能武器尚不具备自主意识,往往由人类控制其使用,与常规武器的使用无异。现有的国际法规制如人道主义法中的比例原则、区分原则,完全可以对违法情况进行制裁。由于弱人工智能武器的使用需要人类操作员的介入,弱人工智能武器发挥作用的过程由人类主导,所以现有的国际法规制基本可以解决由其引发的责任承担问题。若是人工智能武器发生产品方面的故障,则可以对制造商、程序员进行追责;若是发号施令的指挥官对战场情况误判而导致弱人工智能武器的运用违背了人道法的相关规则,则由指挥官承担相应的责任。
3.2 强人工智能时代的风险
强人工智能武器已经具备自主意识,其可以对战场情况进行分析、制定作战方案并实施该方案,而无需人类干预。在无法对其自主意识进行严格监控的情况下,使用人工智能武器的风险是很大的,这些风险往往由上文所分析的人工智能武器的特性引发。
第一,法律风险。人工智能武器带来的风险首先体现在国际人道法的两个基本原则方面。区分原则要求“冲突各方无论何时均应在平民居民与战斗员之间和在民用物体与军事目标之间加以区别。”[7]而基于强人工智能武器的“智能性”这一本质特性,当冲突方将其投入战斗使用时,实际上是把选择攻击目标的权利交给了这类武器,而它是否能做到对军事目标和非军事目标加以区分,是无法保证的。比例原则的内涵是军事行动对平民群众生命财产安全的损害不应当超过攻击所要达到的预期军事利益,其本质是对人道主义保护的利益和军事行动所要达到的利益进行权衡。问题在于,人工智能武器能否在军事目标和平民生命财产安全产生冲突时,根据人类社会对理智和情感的期盼衡量两方利益并做出作战决策?在技术和伦理两方面,谁都不能保证强人工智能武器能够以人类的感情标准衡量可能发生的利益冲突。
第二,责任承担问题。人工智能武器是以人工智能技术为核心的武器系统,强人工智能具备学习和模糊思考的能力,对于它是否能够遵守人道法和国际法基本原则是没有保障的。责任承担问题在人类直接控制武器使用时都是清晰的,但人工智能武器的自主性导致很难对一个指令追根溯源,因果链的断裂致使形成责任鸿沟[8]。
第三,伦理缺陷。诚然,若是人工智能武器无法遵守国际法尤其是国际人道法,那么全人类都会抵制这种武器的研发,但即使具备了类似人类的思维模式,在面临多种价值抉择时,人类自身尚且无法衡量,更不用说将价值观体系转换成代码输入到人工智能武器中[9]。从另一方面讲,运用人工智能武器攻击人类意味着将人类的命运掌握在AI这种机器或者说是冷冰冰的代码手中,人工智能武器只是一种工具,却能掌控人类的命运,这也是一部分人们呼吁禁止研发人工智能武器的重要原因之一。
4 结语
虽然人工智能武器结合了人工智能这项先进的技术,但其本质仍然只是武器,是人类作战的工具。而强人工智能武器所具有的自主意识似乎使这一武器超出了“工具”的范畴,对《国际人道法》的原则、战争行为的责任承担、伦理与安全问题都造成了挑战,如果不对其加以规制,将产生不可预测的严重后果。本文通过对人工智能武器的本质和其带来的风险进行梳理分析,厘清人工智能武器国际法规制的客体问题,以便进一步分析人工智能武器对国际法体系带来的冲击和挑战,为提出完善的规制建议做准备。