APP下载

人工智能技术的武器化:国际安全风险及其治理*

2023-08-19李国辉孔勐勍岳忆晨

信息安全与通信保密 2023年5期
关键词:武器人工智能系统

李国辉,孔勐勍,岳忆晨

(山东大学,山东 威海 264200)

0 引 言

人工智能武器化,即在现代及未来的武器系统中广泛使用人工智能技术,以实现武器装备的“数智化”。当前,人工智能化武器迅猛发展,其所具有的指挥高效、操作自动、行为智能、打击精准等特点,能够自主完成侦察、搜索、识别、瞄准、攻击目标等任务,有的甚至还具有解读自然语言的能力[1]。人工智能和武器系统愈加广泛且深入的结合,不仅会对人类战争的模式产生重大影响,更将会给国际安全治理带来诸多挑战。本文在概述人工智能武器化应用现状的基础上,着重分析人工智能技术武器化所产生的国际安全影响及当前的治理机制,并尝试探寻更为优化的治理路径。

1 人工智能武器化的发展现状

美国是首个将人工智能运用至军事领域的国家,早在1972年,美军便使用“灵巧炸弹”炸毁了越南清化大桥[2]。当前,随着人工智能技术的发展,主要军事大国均已将人工智能视为颠覆性改变战争规则的关键技术,纷纷投入大量资源,推进人工智能武器的研发与应用。

1.1 主要国家人工智能武器化的应用现状

美国的人工智能武器,不管是其技术水平还是应用规模均居世界首位。在陆军方面,美陆军现已装备一万余套地面无人作战平台,其中多数已在伊拉克和阿富汗战场上投入使用[3]。2030年之前,美国陆军计划实现“有人作战系统”与“无人作战系统”相互连通、智能协作。在空军方面,美国在2018年就已经拥有8 000多个空中无人系统,基本覆盖了世界上现存的所有型号的空中无人作战系统,且仍在推进算法战、蜂群作战、忠诚僚机等项目的开发[4]。2020年12月15日,美国空军U-2侦察机装上了人工智能系统,这也是美国军用飞机首次实现人工智能自主控制军用系统。在海军方面,2020年12月,美国政府公布了新的海军长期发展计划,其中无人系统的开发是重点。据悉,2022年至2026年,美国将拨款43亿美元,用于建造12艘大型无人水面舰艇、1艘中型无人水面舰艇和8艘超大型无人潜航器[5]。此外,为进一步推进在人工智能武器化领域的纵深发展,美国在战略、政策、科研等层面均采取了诸多措施。

除美国外,俄罗斯的人工智能军事应用也较为成熟。在陆军方面,俄罗斯已成功研发出了多种陆用智能化武器及地面作战系统,如“天王星”系列陆战机器人及无人战车、运输机器人、铲车式机器人、菲多尔人形机器人等。在海军方面,俄罗斯已将无人潜航器列为研发重点,并积极探究将核潜艇与无人潜航器深度融合的方式。此外,欧洲各国及日韩等亚洲国家也在积极研发、应用人工智能武器。中国亦高度重视人工智能的军事化发展,已将无人系统应用于反恐、侦察、军事训练、边境巡逻等领域。

1.2 人工智能武器化的主要特点

当前,人工智能武器化的研发与应用主要有以下特点。第一,以深度学习为基础的专家决策系统,是人工智能武器化应用的一大特色。人工智能能够通过经验积累和自我学习不断提升以战场态势的感知和评估为中心的“战场思维”。同时,人工智能还可以利用自身所拥有的专家级推理分析能力,对各类战场信息进行汇集、融合与分析。未来,人工智能武器被广泛使用的信息化战争在一定程度上可以说是算法之争,即谁拥有算法优势,谁就掌握了战争主动权。第二,人工智能武器化意味着各军种装备的人工智能化、无人化、高效化。在空军领域,作为“数智化”典型代表的无人机系统目前正在向全天候、小型化、集体化作战方向发展,其杀伤能力也大幅提高,甚至还催生出了全新的“蜂群战术”作战理论。在“数智化”的陆军系统中,单兵系统和地面无人作战平台(军用智能机器人、无人战车等)被广泛用于反坦克、自行搬运战场物资、突击扫雷、战场布雷、弹药补给等方面。例如,英国的“泰坦”无人战车可搭载遥控机枪武器站和反坦克装备,进行地面战斗等。海军领域的“数智化”应用主要集中于水上和水下机器人、无人舰艇3个方面。例如,美国的“章鱼”机器人可用以检测敌军水下目标等。此外,随着精确制导武器技术的不断进步,智能弹药近年来也成为人工智能武器化的重要研发与应用领域。第三,人工智能武器化带来了军事网络安全等领域的人工智能变革。网络安全已成为各国军事博弈的核心与焦点。利用人工智能制造病毒,代替人类黑客,可以对军方的网络通信系统造成巨大破坏。拥有高度智能的作战指挥系统和武器平台一旦被敌方黑客攻击,将面临着战术失利、机器故障等后果,甚至使智能化系统因受干扰而失控。

2 人工智能武器化对国际安全的影响

人工智能武器的研发及应用均已取得相当程度的发展。但当前,人工智能新技术存在诸多不确定性,人工智能武器化的治理机制也尚不完善。在此背景下,人工智能武器化给国际安全带来了许多潜在的风险。

2.1 弱化人类对于战争的把控权

人工智能武器化将使人类愈发依赖智能化系统所提供的自主性信息及手段,甚至将战争的决定权让渡给机器,这最终将导致人类在战争中的能动性被弱化。尽管人工智能的算法优势可以实现预先感知、预先决策,但随着智能武器系统的广泛使用,人类对战争准确认知的主动权也在遭受着侵蚀。算法优势的运用将会导致从战术决策到执行的时间越来越短,人类也将越来越难以适应快速的战场变化,从而在战争中愈发被动。

不仅如此,人工智能武器的应用或将导致战争烈度升级,人类将难以控制冲突的规模与程度。首先,由于人工智能技术的自我学习功能以及其非理智的行为逻辑具有不可预测性,因此人类将难以准确把握人工智能决策的因果机制。人工智能武器化背景下,算法的安全性和数据的可靠性将直接决定人工智能系统的安全性。但目前各国的人工智能技术并不成熟,算法和数据都具有相当程度的脆弱性。例如,在算法方面,算法漏洞问题经常发生,这可能会引发人工智能武器的战略误判,或使人工智能武器遭到敌方的网络入侵[6]。在数据方面,常见问题有数据泄露、数据污染、数据偏差等,这些问题都可能会使系统陷入信息困境、数据欺骗等。例如,北约的无人机在叙利亚、利比亚等地实施空袭时,就因算法偏差造成了大量平民的伤亡。其次,人工智能武器化背景下,人类在战术层面的影响也将被不断削弱,以至于人类难以掌控战争的发展走向。在智能化武器集群攻击中,人类操作员不可能控制每一个作战武器,作战部署系统只能由人工智能来操纵,人类的介入将越来越集中于作战中的最高层环节,而在战术层面的影响与控制能力则将被极大地削弱。

2.2 增加战争发生的可能性

人工智能武器化将会改变传统战争的规则,降低战争门槛,大大增加战争爆发的可能性。人工智能武器化背景下,消灭敌方有生力量、破坏敌方传统军事战争体系等作战法则将失去原有的意义。战争规则也将发生质变,传统战争形态将演变为“机器代理人战争”。“机器代理人战争”为战争决策者提供了更为有效的军事选择。有研究认为,相较于无人机被击落,军事决策者更倾向于对有人驾驶的飞机被击落采取激进的军事反应[7]。因为“机器代理人战争”削弱了战争规则和战争成本对决策层的威慑力,降低了决策者的担忧,因此,当冲突发生时,决策者将会更倾向于使用智能化的军事武器解决争端。

同时,在智能化武器战争的背景下,民意对决策者动用武力的限制作用也将会被削弱。作战平台、精确制导导弹等技术的“数智化”,可以使作战人员免于暴露于战火之下,人员受伤概率也将随之降低。由此,相较于派出作战人员进行军事行动,民众将会更加支持政府在危险地区部署人工智能武器或者使用智能武器介入军事冲突。

此外,致命性人工智能武器一旦被恐怖组织、极端主义分子所掌握,武装冲突爆发的可能性将会大大增加。由于获取路径多样、操作门槛较低,人工智能武器很容易通过黑市流入恐怖分子及极端主义分子之手。再加上人工智能武器能够降低发动恐怖袭击的风险和人员成本,恐怖极端主义分子或将在人工智能武器的加持下,更加肆无忌惮地发起武装行动。

2.3 冲击现有国际秩序

罗伯特·吉尔平认为,国家对科学技术的不同反应导致了不平衡的发展,而不平衡发展最终会导致权力的重新分配,进而影响国际体系的变革[8]。随着全球化的发展,科技已成为大国博弈的前沿竞技场。在人工智能武器化领域,美、英、法、德、日等大国纷纷制定并出台了各种政策规划。与此同时,人工智能技术也冲击着传统军事力量的均势格局。在各国战略竞争的推动下,人工智能武器或将催生新的“国际安全困境”。

首先,人工智能技术强国在新一轮的科技竞技中间接获得了更多的相对权力,原有的国际安全格局受到了挑战。为化解崛起中的人工智能强国所带来的安全风险,其他国家需要将更多的资源投入到新一代的武器研发之中。如此,便极有可能引发新一轮的科技军备竞赛,从而冲击国际关系的稳定。其次,人工智能武器化将会加剧国家间已有的资源不平等状况,使国际关系的权力分布更加集中甚至极化。研发和应用人工智能武器需要数据、技术、人力、资本等诸多要素的支撑,而当前只有部分技术大国拥有相应的基础与实力,弱小国家则面临着被永久边缘化的风险。在军备竞赛、技术鸿沟、权力分配不平等因素的共同作用下,国家间的互信将随之减少,摩擦与冲突则将增加,最终现有国际秩序将会受到剧烈冲击。

2.4 挑战国际法规的基本原则

当前国际法对人工智能武器试验、应用、追责的界定与规范尚不清晰,所以人工智能武器化给相关国际法及国际规范也带来了严峻的挑战。如前所述,“数智化”作战系统的发展目标是无人作战系统,即在大多数情况下无须人类的直接干预。这将导致国际法难以约束人工智能武器的使用,更难以判定人工智能武器的责任归属。当人工智能武器因决策错误或技术故障而违反国际法和国际规范时,其责任到底应该由谁承担,是指挥官、士兵还是技术人员或是武器制造商,针对这一问题,既存的国际法规尚未有明确的规定。此外,人工智能武器尚不具备近人的判断力,在战场上无法有效识别平民和战斗人员,从而可能造成大量平民死伤,酿成人道主义灾难,而这有违于国际人道法的区分原则和比例原则。

此外,由于人工智能武器技术的军民两用性,某些人工智能技术甚至能够作为民用品出口,这会导致相关武器在全球市场上交易与流通的泛滥,对规范常规武器贸易的《武器贸易条约》构成新的挑战。如何有效地规范自主武器的购买、转让、扩散,是现有常规武器贸易管控机制所面临的新问题[9]。

2.5 引发复合型危机

人工智能技术与核武器、生化武器、网络技术的结合将增加复合型危机发生的可能性。以核武器为例,为提高核武器的情报分析、辅助决策和对外反应能力,美、俄等核大国早已将人工智能技术应用到核武器的运载、预警及控制过程中。

然而,由于人工智能技术的不成熟、不可靠性,核武器的自动化系统暗藏着诸多风险。在发射权方面,若将核武器的发射权让渡给人工智能,一旦出现意外事故或战略误判,人工智能控制的核武器发射很有可能产生灾难性的后果。在日常管理方面,核武器的自动化系统涉及多个部门,难免存在安全漏洞。同理,人工智能技术若与生化武器结合,也可能会因技术故障、管理失效、风险控制不当、技术滥用等原因,酿成人道主义灾难。

3 当前人工智能武器化的治理机制

当前,国际社会就全面禁止人工智能武器的问题尚未达成全球共识,但人工智能武器化所带来的国际安全问题已受到国际组织、政府等相关主体的广泛关注。在各方共同努力下,人工智能武器化问题的相关治理机制已初步形成。

3.1 国际层面的治理机制

3.1.1 联合国层面

首先,《特定常规武器公约》(Convention on Certain Conventional Weapons,CCW)在限制人工智能武器化问题上发挥着一定的作用。关于自主武器系统的管控问题,《特定常规武器公约》的缔约国已经召开了多次会议。2016年,CCW会议决定建立由民间专家与国家代表团成员组成的“致命自动武器系统监管专家组”(Group of Governmental Experts on Lethal Autonomous Weapons Systems,GGE),以便一同交流探讨致命性自主武器系统的军控问题。2019年,CCW第八次政府专家组会议提出了规范“致命性自主武器系统”开发及应用的11条指导原则,涉及技术、法律规范、道德伦理等方面。2021年12月,CCW第六次审议大会讨论了限制“致命性自主武器系统”开发的事宜。

除《特定常规武器公约》机制外,联合国人权理事会(United Nations Human Rights Council,UNHRC)、联合国大会第一委员会(即裁军与国际安全委员会)、联合国安全理事会(United Nations Security Council,UNSC)在禁止自主武器方面的作用也不容忽视。2013年5月,联合国人权理事会“法外处决、即审即决或任意处决问题”调查员克里斯托夫·海恩斯强调称,需要加紧考虑机器人技术的发展及其对法律、伦理和道德的影响[10]。自2013年以来,联合国大会第一委员会每年都将自主武器问题作为国际议题之一展开讨论。到2019年的年度会议为止,已有多达93个国家公开发表对致命性自主武器的观点,有30个国家呼吁禁止致命性自主武器。联合国安理会自2021年起也开始探讨新兴科技的开发利用。2021年5月17日,在中国的倡议下,“新兴科技对国际和平与安全的影响”阿里亚模式会议召开,与会各方一致认为应加强彼此合作交流,充分利用联合国等多边主义机制,有效推进新兴科技全球治理。这也是联合国安理会首次就新兴科技问题展开讨论。

3.1.2 国际非政府组织

除联合国层面的机制外,国际非政府组织也致力于探究人工智能武器化的问题,在限制自主武器方面发挥着自身独特的作用。例如,早在2011年,红十字国际委员会(International Committee of the Red Cross,ICRC)就公开对自主武器系统问题表示了关切。2015年以来,红十字国际委员会一直致力于敦促各国就自主武器系统问题确立国际公认的限制标准,通过多种方式在限制自主武器方面发挥着影响力。首先,红十字国际委员会在人工智能自主武器系统所涉及的相关法律法规、道德伦理、技术发展及军事影响等方面发挥着重要作用。其次,红十字国际委员会还通过发布《对武器系统自主性的限制:明确人类控制的实践要素》《国际人道法及其在当代武装冲突中面临的挑战》等一系列与自主武器相关的报告,说明自主武器系统的独特性及风险性,并呼吁国际社会关注人工智能武器化问题。再者,红十字国际委员会还积极参与CCW专家会议。例如,针对CCW政府专家组所拟定的指导原则的评注部分,红十字国际委员会就曾提出了其自身的建议[11]。

2013年,国际“杀手机器人禁令运动”组织成立,该组织旨在通过广泛开展各类运动,给各国政府形成足够大的压力,以促使其就达成自主武器相关条约展开谈判。此外,该组织还主张禁止研发人类无法有效控制的武器。目前,“杀手机器人禁令运动”已获得来自60个国家的130多个团体的支持。

3.1.3 知识共同体

在规制人工智能武器化问题上,由人工智能研究者所组成的知识共同体也发挥着重要的作用。2015年7月28日,2 000余名研究人工智能的学者共同发表了一封公开信,呼吁国际社会采取措施防止自主性武器流向黑市、落入恐怖分子之手或引发军备竞赛[12]。此后,越来越多的来自不同国家、不同领域的科学家、企业家和工程师加入禁止自主化武器的行列,截至2022年1月,已有4 500多名相关学者在这封公开信上署名[13]。

2018年7月18日,国际人工智能联合会议召开,与会的2 000多名人工智能领域的知名人士签署了《致命性自主武器宣言》,誓言不参与也不支持开发、制造、交易或使用致命性自主武器。2020年6月和11月,瑞典斯德哥尔摩国际和平研究所针对人工智能武器化的影响以及欧盟所应发挥的作用,发表了《人工智能对战略稳定和核风险的影响》《负责任的人工智能军事应用》两份报告。

3.2 地区及国家层面的治理机制

3.2.1 地区层面的治理机制

与全球层面的治理机制相比,人工智能武器化的区域治理机制较少,目前只有区域一体化程度较高的欧盟尝试出台了相关方案。在《机器人民事法律规则》中,欧盟特别设定了“机器人宪章”“研究伦理委员会准则”等条款,还提出了成立统一的机器人技术和人工智能的监管机构,为复杂的自动化机器人创设“电子人”法律地位等内容[14]。2019年,欧盟委员会制定了《可信任的人工智能道德准则》,其中就人工智能的伦理规范做了详细说明。2020年2月,欧盟发布了区域性文件之《人工智能白皮书》。此外,针对如何将致命性自主武器系统纳入到欧洲法律框架下的问题,欧洲议会在2020年至2021年曾多次进行了正式讨论。

3.2.2 国家层面的治理机制

基于人工智能武器化可能带来的诸多问题,一些国家也尝试从国内立法和政策层面对人工智能武器的研发及使用进行规范。总体来讲,各国对人工智能武器管控方案的核心在于保持人类对武器系统的控制,而其难点在于如何管控完全自主的大规模致命性武器的研发与应用。

美国早在2012年就发布了自主及半自主武器使用方面的政策指南,拟定了一些普遍适用的原则。2019年10月,美国政府首次回应了人工智能武器化所可能导致的伦理问题,同时强调了在国防部设立人工智能指导委员会的必要性。2020年2月,美国国防部正式确立了“负责的、公平的、可追溯的、可靠的、可治理的”等5项人工智能军事化发展的原则。2021年4月,新美国安全中心(Center for a New American Security,CNAS)又提出了自主武器作战使用的原则,强调了任何自主武器系统的使用须在有责任的人工指挥和控制链的指导下进行。

欧洲方面,英国上议院人工智能特别委员会于2017年发布了报告,讨论了统一自主武器国际概念及如何控制、监督自主或完全自主武器的问题。法国于2018年制定了《人工智能技术国家标准化委员会出台技术标准》,试图通过研究伦理及实现标准化来构建可信的人工智能系统。法国国防部还于2019年底成立了军事伦理委员会,对军人进行国际人道法和伦理教育,通过将人的认知等要素标准化,使人工智能系统认知程序开发更加简单化与均质化。德国政府也多次发表声明,明确反对研发和使用完全自主性武器,提出应遵循“有所控制地发展人工智能武器”的原则。

此外,澳大利亚、加拿大、巴西等国也纷纷出台相关政策,反对武器完全自主化,呼吁建立国际友好、数据开放的共享环境,防止人工智能武器的滥用及军备竞赛的出现。同时,我国也一向重视人工智能方面的治理。2019年6月,国家新一代人工智能治理委员会提出了“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”等人工智能治理方面的相关原则。

4 人工智能武器化的治理路径

如前所述,当前国际社会高度关注人工智能武器化的治理问题,相关治理机制也正在建立。基于既有的治理机制,本文将从宏观的军控机制、中观的官民合作以及微观的科研人员3个层面进一步探究人工智能武器化的治理路径。

4.1 宏观层面:充分利用及创新现有军控机制

各国应充分利用现有的军控机制及平台,就人工智能武器化带来的国际安全挑战开展广泛磋商,提高各方对人工智能及其所带来的国际安全问题的重视,借鉴既有的同质军控框架以早日达成人工智能武器领域的统一协定。

关于人工智能武器化的治理问题,国际社会已达成了一些共识,各国都同意必须始终对武器系统的关键性能进行有效且恰当的控制[15]。基于现有共识,各国政府可在既有军控机制下,进一步细化、深化相关行为准则。例如,各国政府可借《特定常规武器公约》政府专家组会议为平台,进一步优化信任磋商机制,用制定成本较低的行为准则来代替制定成本较高的法律规范。另外,关于人工智能化武器的规制也可借鉴常规武器的规约。目前各国在常规武器和大规模杀伤性武器的应用方面已达成了一系列的军备控制协议。在人工智能武器的军控问题上,可以尝试借鉴既有的常规军控协议的框架和思路。

每个国家在人工智能领域的发展程度不同,先发国需要深化在人工智能领域内的合作。若是仅仅依靠技术处于相对弱势的国家,限制人工智能武器的全球性协议将很难推动。即便勉强达成类似协议,其效果也极有可能无法达到预期。相反,少数优势国家在维护全球战略稳定性上有诸多共同利益可寻。出于对失去技术强国地位或军备竞赛成本过高的担心,优势国家可能更愿意签订双边军控条约,以避免大国之间出现军备竞赛。因此,人工智能军事强国可通过协商会谈率先签订军备控制的公报或协议,对军备竞赛加以限制。

4.2 中观层面:官民协作共同规范技术发展路径

政府部门及社会民众应加强协作,共同致力于人工智能武器化的国际治理。各国政府应加强对于人工智能伦理道德及人工智能行为科学等问题的研究,探讨人工智能的人格与数据安全问题,加大对武器系统的伦理与法律审查。例如,政府可以设立专门的伦理与审查委员会,制定统一的审查标准与分类标准。与此同时,各国还应加强公共教育,充分发挥舆论监督、民众监督的作用,督促各国政府在社会的监督下开展武器研究与管控。此外,个人也应转变观念,充分认识到人工智能武器化对国际安全的挑战,积极参与相关政策的提议与监督。在社会监督下,相关决策者需要充分考虑人工智能战争所带来的负面社会效应及政治成本,从而在人工智能武器化议题中做出理性的选择。

4.3 微观层面:用科技制衡科技

用科技“制衡”科技的本质即发挥“人”在科技应用中的决定性作用,使人工智能武器永远难以脱离人类的控制。当前,在各国争相部署自主武器的背景下,民族主义和资本的结合一定程度上打破了知识共同体的统一阵线,一些国家出现了科技研发人员支持政府升级军备的现象。但是,这并不意味着人工智能科技研发人员的态度与政府的主张完全一致。人工智能科技研发人员在国际治理中可在以下两个方面发挥重要的作用。首先,科研人员可以规避危险的技术路径,防止出现完全自主的致命性武器。其次,科研人员可以在人工智能武器研发环节遵守相关规则,恪守国际道义。

目前人工智能武器的研发透明度低,且缺少统一的监管标准,亟须强化科研人员的责任意识,明确生产商的权责,遵循技术向善的理路。例如,可以为武器研发的科研人员及制造商制定伦理标准和规范手册,对智能化武器的操作人员实施必要的道德约束。同时,还应提高技术研发的信息透明度,要求科研人员和生产商公布实验数据,确保人们明晰武器的实际杀伤力。在技术研究层面,对机器的伦理化改造难以完全实现,但科研人员仍可尝试将战争及武装冲突的规则通过代码编写算法的方式转化为人工智能武器的逻辑指令,从而将国际人道法精神内嵌于人工智能武器之中,以建立起人工智能武器与国际人道法规则之间的对应关系,从根本上降低人工智能武器可能带来的风险。

5 结 语

百年未有之大变局的时代背景下,以人工智能为中心的科学技术已成为各国打造新竞争优势的关键。但人工智能不应成为一场零和游戏,科技的创新和突破最终应更好地造福人类。未来的战争是信息化的战争,人工智能与武器结合或已成为不可逆转的时代趋势。人工智能武器化的安全治理任重道远,需要国际社会各参与主体贡献集体智慧,共同推动人工智能武器化的安全发展。在人类命运共同体理念的指引下,各国应秉持全球安全观,积极寻求人工智能武器化规范方面的新共识,以早日形成具有普遍适用性的国际规范。

猜你喜欢

武器人工智能系统
Smartflower POP 一体式光伏系统
WJ-700无人机系统
基于PowerPC+FPGA显示系统
2019:人工智能
人工智能与就业
连通与提升系统的最后一块拼图 Audiolab 傲立 M-DAC mini
一张图看懂武器发展史
数读人工智能
下一幕,人工智能!
请放下你的武器