APP下载

国际人道法对网络攻击中生成式人工智能的适用探究

2023-11-29冯国钊

贵州师范学院学报 2023年9期
关键词:规制决策原则

冯国钊,张 婷

(1.国防大学政治学院,陕西 西安 710000;2.贵州财经大学西密歇根学院,贵州 贵阳 550004)

生成式人工智能是建立在深度机器学习技术基础上的一种新兴人工智能技术,其在网络空间的应用较为普遍,比如用于对话交流的ChatGPT、用于文案制作的Jasper和用于视频编辑的Runway等。生成式人工智能可以使网络攻击行为更高效、更智能和更具隐蔽性,对国际秩序和网络安全环境形成严峻挑战,亟待国际社会为其建章立制。作为迄今为止国际社会分歧最小的国际强行法,国际人道法的法律属性切合网络环境中生成式人工智能的规制需要。通过探究国际人道法对网络攻击中生成式人工智能的适用,检验现存国际法能否解决人工智能领域和网络领域相结合所带来的风险和挑战。

一、网络攻击中生成式人工智能的应用亟待规制

人工智能一词最早出现在1956年的达特茅斯会议,伴随着机器学习技术的出现,人工智能的发展进入第一次繁荣时期,人工智能和机器学习在国际社会的热度越来越高。机器学习的目标不是让机器获得和人类一样的思考能力,而是使计算机拥有在没有明确编程情况下的学习能力,使用机器学习模型基于训练创建全新的输出。1997年IBM计算机程序“深蓝”战胜国际象棋世界冠军卡帕斯罗夫,2016年谷歌公司研制的AlphaGo击败棋王李世石,2017年AlphaGo被“无师自通”的AlphaGo Zero击败。从严格意义上讲,这些胜利更多应归功于机器学习领域的发展。因为人工智能的创新和学习能力有限,它完全依赖于人类输入的知识。而机器学习的优势在于通过学习数据中的历史关系和趋势,产生可靠决策和结果,并发现隐藏的见解。[1]

信息化战争的出现已是不争的事实,网络已成为“第五个战场”。著名军事预测家詹姆斯·亚当斯在著作《下一场世界战争》中预言:“在未来的战争中,计算机本身就是武器,前线无所不有。夺取作战空间控制权的不是炮弹和子弹,而是计算机网络中流动的比特和字节。”[2]在网络作战环境中,生成式人工智能可以自动地调整并应用某些程序、软件或病毒,以人类无法达到的速度解决网络中的威胁,这种快速反应能力对网络行动至关重要。目前网络空间的人工智能主要应用于增强安全防护、处理安全数据、模拟攻击行为、加强入侵检测、删除恶意软件和识别钓鱼网站等防御层面。而自我定义为“理性、中立、客观”的ChatGPT,在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输[3],可以将大量带有预设价值的合成内容快速投放舆论战场,迅速形成舆论攻势,抢占舆论制高点。研究表明,生成式人工智能在加强网络防御的同时,通过不断学习获得绕过这些防御的方法,因此也能担负网络攻击的任务。[4]美国斯坦福大学和Infinite初创公司曾联合研发了一种自主网络攻击系统,该系统具有自主学习网络环境并自行生成特定恶意代码进行网络攻击的能力,恶意代码的生成、执行、感染具有更强的隐蔽性。网络和人工智能的结合发展,将成为未来夺取网络空间优势的有力武器。目前,生成式人工智能已经存在脱离人类控制的趋势,在网络攻击中将逐渐取代人类成为决策者和执行者,战争形态或将演变为“人机大战”或者“机器人之间的互相杀戮”。[5]如果任由网络环境下生成式人工智能自由发展,将会对社会秩序造成破坏。因此,对网络环境下生成式人工智能进行必要的规制势在必行。

二、国际人道法对网络攻击中生成式人工智能适用的现实需要和法理基础

20世纪40年代,科幻小说家艾萨克·阿西莫夫撰写的《我,机器人》科幻小说探讨了机器与道德的问题,呼吁对人工智能加以控制,比尔·盖茨、斯蒂芬·霍金等人也同样发出过类似的警告。2019年6月,红十字国际委员会在《武装冲突中的人工智能与机器学习:以人为本的方法》报告中指出:“虽然使用人工智能与机器学习的可能方式及其潜在影响尚不完全明晰,但人工智能与机器学习在网络武器或网络能力发展中的应用是一个重要领域。”而国际人道法的适用,不仅是现实的需要,也是法理的要求。

(一)国际人道法的法律属性切合网络攻击中生成式人工智能的规制需要

生成式人工智能在网络空间的发展有愈演愈烈的趋势,而且一旦脱离人类控制,将造成巨大的灾难。面对这种不可预测的智能系统,需要强有力的规制手段才能扼制风险。而国际人道法的强制性、稳定性和可责性等法律属性恰好切合这种规制需要。

1.强制性

与软规范方式相比,国际人道法的强制性更加稳定、可靠。一方面,强制性使所有国家都应遵守国际人道法的要求;另一方面,强制性可以约束网络攻击中生成式人工智能的使用,迫使各方在一定限度内保持克制,防止生成式人工智能的滥用。

2.确定性

与软规范方式相比,国际人道法的确定性体现在其本身具有稳定的规制框架。首先,确定性可以为网络攻击中生成式人工智能的应用建立需要遵守的规范,保证规范目的的实现;其次,确定性可以为生成式人工智能在网络空间的应用创设一个稳定的运行环境;最后,确定性可以为生成式人工智能的算法设计者提供一个稳定的框架作为参考,保证算法在一定程度上符合设计标准。

3.可责性

与软规范方式相比,国际人道法的可责性能够对被规制者形成强大的约束力和震慑力。从技术角度分析,可责性体现在算法的人道主义边界上,能够促使生成式人工智能的设计者严格在规范的限度内进行智能算法的研究和设计;从国家行为分析,可责性能够督促国家对网络攻击中生成式人工智能的应用进行不断地监督,促使一国政府为避免陷入道义被动而及时制止违法行为,从而降低网络攻击中生成式人工智能的应用风险。

(二)国际人道法适用的法理基础

人工智能与网络攻击是国际治理的新兴领域,国际社会一直致力于通过《特定常规武器公约》对人工智能进行规制,虽未达成普遍共识,但国际人道法的适用存在法理基础。《第一附加议定书》制定之初,就认识到未来可能会诞生代替士兵的武器,这种新武器会对第35条的基本原则造成破坏,如若不进行有效规制,人类会被新技术摧毁。《第一附加议定书》第36条规定:“在研究、发展、取得或采用新的武器、作战手段或方法时,缔约一方有义务断定,在某些或所有情况下,该新的武器、作战手段或方法的使用是否为本议定书或适用于该缔约一方的任何其它国际法规则所禁止。”此规定为缔约国设立了审查义务,要求针对新武器的部署和使用建立有效的监督审查机制,该机制包括国内法和国际法两个体系。而国际法院在“威胁使用或使用核武器的合法性”咨询意见中也认为,适用于武装冲突的人道法原则和规则同样适用于各种形式的战争及各种武器,包括“未来武器”。因此网络攻击中生成式人工智能的应用并不是“法外之地”,它应受国际人道法的规制。

三、国际人道法基本原则对网络攻击中生成式人工智能的规制

法律存在滞后性,国际人道法目前没有针对网络攻击中生成式人工智能应用的具体条款,需要通过基本原则进行规制。其中,区分原则、比例原则和军事必要原则与网络攻击的联系最为密切。

(一)区分原则的规制

区分原则是国际人道法的核心原则。该原则的理念由来已久,法国思想家卢梭最早提出区分思想,他认为战争是国与国的关系,士兵因为国家保护者的身份才成为仇敌。1977年的《第一附加议定书》第一次对该原则进行正式且明晰的规定,后逐渐发展成为一种国际习惯。《第一附加议定书》第48条要求冲突各方必须区分战斗员与非战斗员、武装部队与平民以及军事目标与非军事目标。因此,网络攻击中只有削弱敌方军事实力的作战手段才可被接受。而网络空间具有军民两用特点,要求生成式人工智能在网络攻击中准确判断目标性质,就需要对其进行严格的编程、测试和审查,就当前技术而言是一大挑战。一个典型的反面案例就是2017年6月27日攻击乌克兰的NotPetya勒索病毒,该病毒对全球民用系统造成了极大的影响。

(二)比例原则的规制

《第一附加议定书》第57条首次对比例原则作出明确规定,要求作战方法和手段的使用应与预期的、具体的和直接的军事利益相称,而禁止过分损害的攻击行为以及引起过分伤害和不必要痛苦性质的作战手段和方法。[6]计算机网络攻击的特别之处在于,攻击纯粹的军事目标也可能对平民产生影响。《塔林手册1.0版》第42条和《塔林手册2.0版》第104条对“禁止引起过分伤害和不必要痛苦”进行了特别强调,一般认为网络作战手段极少违反此要求。[7]生成式人工智能作出决策前,需要对所攻击目标可能产生的附带损害进行综合评估,对军事利益和非军事利益进行衡量,如果评定超出了必要限度,就不能采取网络攻击行动。

(三)军事必要原则的规制

2007年针对爱沙尼亚的大规模网络攻击,虽未爆发武装冲突,但强度和后果已经超出了军事必要。军事必要并不能解除交战国遵守国际法的义务,该原则的适用对生成式人工智能在网络攻击中的应用“有利有弊”。因为网络攻击能以较小的人道代价实现与传统战争同样的作战目的,其攻击行为不一定立刻产生后果,即使有后果也并不一定会完全对应传统的评价标准。[8]但网络的局限性会增加行为违法的风险,处于网络环境下的生成式人工智能只能凭借已获得的知识和情报作出决策,并不能对网络攻击行为所带来的附加影响进行准确分析,如果生成式人工智能无法根据现有情况做出合法的决策,那么指挥员就应当叫停网络攻击行动。

(四)马尔顿条款的规制

马尔顿条款因俄国国际法学家雷德里克·马尔顿提出而得名,最早出现在1899年《海牙第二公约》序言中,而后的《海牙第四公约》《第一附加议定书》《第二附加议定书》《常规武器公约》和《渥太华公约》等国际文件都对该条款进行了重申。法律往往难以预见科学技术和现实实践的变化,虽然因为国家间的不同利益诉求和立场主张,条款的适用受到多方面的限制,但并不影响其重要地位。条款虽未明确规定禁止的作战手段和方法,但它对冲突中未明确的事项起到了指导和补充作用,为国际行为体设定了禁止采取与既定习惯、人道原则、公众良知的要求相悖的行为这一具体的禁止性义务。[9]但是,即便马尔顿条款的约束力得到了国际法院的承认,其只能为生成式人工智能在网络攻击中的应用进行原则性的规制,难以设立具体而明确的规定。

四、国际人道法对网络攻击中生成式人工智能的规制效果探究

科学技术是一把双刃剑,虽然国际人道法的基本原则能够对生成式人工智能在网络攻击中的应用进行规制,但难以影响生成式人工智能的发展。国际人道法对网络攻击中生成式人工智能的适用融合了人工智能领域和网络领域的特点。在理想环境下,这种攻击行为更符合人道要求。遗憾的是,网络环境的复杂性会加剧生成式人工智能的不可控性,使网络环境中生成式人工智能的发展超出人的预期,对国际人道法的适用造成冲击。

(一)较物理环境适用国际人道法的优势

与物理环境相比,网络环境下的生成式人工智能可以在一定程度上避免国际法对武器的限制。比如SGR-1杀人机器人搭载的人工智能与携带的机关枪和榴弹发射器一同被视为武器,其行动必将受到国际人道法的约束。而网络环境下的人工智能不会直接对敌人进行杀伤,看似更符合人道的要求;此外,网络环境下的人工智能可被赋予不同的任务,避免被长期打上“武器”的标签。比如AlphaGo Zero不仅可以精通下棋,还能被投入战场使用,这一点是SGR-1杀人机器人无法达到的;最后,生成式人工智能在网络环境下通过机器学习能够获得海量的国际人道法知识,这些知识体量是物理环境无法提供的。

(二)较传统网络攻击适用国际人道法的优势

与传统网络攻击相比,网络环境下的生成式人工智能看似更能做出合法的决策,具有以下三点优势。首先,生成式人工智能的决策更能适应网络环境的变化。信息化战争往往是一个与时间赛跑的过程,网络空间的信息以接近光的速度传输,人类往往难以跟上节奏。而生成式人工智能本就与网络密切相关,可以根据网络环境的变化对网络攻击行为进行调整,避免出现违法的情况;其次,人工智能的决策更加客观和精准。个人情感在传统决策中起重要作用,而机器缺乏情感要素,可以在处理海量的数据后做出相对客观的决策;[10]最后,其最大的优势是,网络环境下生成式人工智能的决策能力可以快速提升。一名成熟的网络行动操纵员,不仅需要多年的培养和实践,还得涉猎法律知识,需要大量的人力、物力、财力和时间的投入,而网络环境中生成式人工智能可以达到“无师自通”的效果。AlphaGo Zero就是典型的例子,它通过三天时间自我学习、自我对弈,快速将自己培养成顶尖的决策大师。

(三)网络环境下生成式人工智能对国际人道法适用的挑战

网络环境下生成式人工智能可以获取海量的信息,以超高的运算速度进行决策,但其本身构成一个复杂系统,不能用简单的思维去解决,所以存在不可控性。[11]理论上讲,生成式人工智能处理的信息量越多,处理信息的模型会更加成熟完善。但大数据算法模型基于整个互联网的公开信息进行训练,既决定了它的能力,也决定了它的局限性,互联网内容存在的问题都可能映射在模型中;[12]同时,模型的完善程度难以被量化和检测,有的模型甚至会得出违背人类意志的结论。ChatGPT就曾经写出一份“毁灭人类计划书”,不仅语句连贯,步骤也十分详细;此外,生成式人工智能由于缺少真实情感,基于大数据算法模型得出的往往是完成任务的最优解,可能会与良善、人道等人类基本道德相违背;而生成式人工智能的不可控性同样会增加网络行动违法的风险,在人工智能认识到合法的决策并不能有效完成任务时,可能会在“权衡利弊”后采取违法行动。虽然可以通过增加决策透明度和划定任务环境的方式对其进行限制,但网络环境的复杂性会影响生成式人工智能的运行,从而对国际人道法的适用提出挑战。

1.对区分原则适用的挑战

机器学习使生成式人工智能的识别能力大大提升,在部分领域甚至已经超过了人类的水平,但这并不意味着这种技术能使网络空间中的生成式人工智能严格遵守区分原则的要求。一些技术漏洞影响着区分原则的适用,比如深度神经网络会将一些无意义的抽象图像识别为具体的物体,这种识别错误可能会给行动带来不可估量的损失。网络攻击的迅捷性使人类很难对生成式人工智能的决策进行监管,在其受到欺骗性图像攻击时,因错误识别而产生的决策难以得到修正。并且,这种漏洞还不仅仅限于视觉识别,也存在于深度神经网络所应用的语音识别以及其他领域。

2.对比例原则适用的挑战

比例带有主观色彩,往往需要主客观相结合进行判断,这不仅仅是简单的量化分析,还需要一定的道德推理,而生成式人工智能显然难以达到法律所要求的理解力和判断力。此外,机器学习可以赋予生成式人工智能新的知识,网络环境同样会改变生成式人工智能对法律条文的理解,促使其根据客观需要选择最能实现目的的手段,甚至采用“过分”的决策。

3.对军事必要原则适用的挑战

对该原则的理解需要结合网络攻击中生成式人工智能对区分原则、比例原则的适用进行综合判断。在技术方面,网络环境下生成式人工智能的识别漏洞可能会产生难以控制的后果,对于复杂环境下未知信息的量化处理十分困难;在法律和道德层面,网络环境下的生成式人工智能基于数据和算法建立的决策机制不同于人类的道德和法律判断思维,算法设计者无法预知未来可能产生影响的各种因素,而将这些因素进行法律和道德层面的量化更是巨大的挑战。

在可预见的未来,生成式人工智能在网络攻击中的应用会逐步增加,将带来一系列争议问题。虽然国际人道法能够对网络攻击中生成式人工智能的应用起到一定的规制效果,但难以解决人工智能领域与网络领域相结合所带来的风险和挑战。因此,在技术条件和检测程序不成熟的情况下,应尽量对这种技术的使用范围进行限制。同时,国际社会需通力合作,努力解决生成式人工智能在网络攻击中暴露的问题,完善现有机制以规范网络环境下生成式人工智能的发展,而技术发达国家的参与和诚意就显得尤为重要。

猜你喜欢

规制决策原则
为可持续决策提供依据
主动退市规制的德国经验与启示
决策为什么失误了
保护与规制:关于文学的刑法
坚守原则,逐浪前行
论《反不正当竞争法》的规制范畴
无罪推定原则的理解与完善
内容规制
惹人喜爱的原则(二)
惹人喜爱的原则